JP2012127920A - Target type identification apparatus - Google Patents

Target type identification apparatus Download PDF

Info

Publication number
JP2012127920A
JP2012127920A JP2010282120A JP2010282120A JP2012127920A JP 2012127920 A JP2012127920 A JP 2012127920A JP 2010282120 A JP2010282120 A JP 2010282120A JP 2010282120 A JP2010282120 A JP 2010282120A JP 2012127920 A JP2012127920 A JP 2012127920A
Authority
JP
Japan
Prior art keywords
observation
image data
teacher image
target
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010282120A
Other languages
Japanese (ja)
Other versions
JP5523298B2 (en
Inventor
Kaori Kawakami
かおり 川上
Hiroshi Suwa
啓 諏訪
Toshio Wakayama
俊夫 若山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010282120A priority Critical patent/JP5523298B2/en
Publication of JP2012127920A publication Critical patent/JP2012127920A/en
Application granted granted Critical
Publication of JP5523298B2 publication Critical patent/JP5523298B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a target type identification apparatus which is capable of dealing with a discrete distribution situation of observation element parameters in type identification filter generation merging a plurality of teacher images of different observation elements or the like.SOLUTION: A target type identification apparatus includes an image preprocessing section 3 which performs preprocessing prior to filter generation such as alignment on teacher image data of an observation target, which are obtained under a plurality of observation conditions, stored in a teacher image data file 1, a teacher image expansion section 4 which expands a high luminance region, for compensating for a discrete distribution of observation elements, for preprocessed teacher image data, a kind determination filter generation section 5 which generates a kind determination filter from two or more expanded teacher image data items, and an image collation section 6 which collates observation image data of a kind determination target stored in an observation image data file 2 with the kind determination filter generated by the kind determination filter generation section 5, makes a kind determination of the observation target, and stores a determination result in a kind determination result file 7.

Description

この発明は目標類識別装置に関し、特に、種類未知の目標のレーダ観測画像データを対象に、目標種別を判定するための目標類識別装置に関するものである。   The present invention relates to a target class identification device, and more particularly to a target class identification device for determining a target type for radar observation image data of an unknown target.

従来行われてきた目標類識別方法としては、レーダ観測で得られた静止目標の観測画像データに対し、事前に得られている各機種の教師画像とのパターンマッチングを行い、目標種別を判定する方法が知られている。教師画像は、一般的に、シミュレーション画像(諸元既知)もしくは実画像(一部の諸元未知)のいずれかとする。   Conventional methods for identifying target types include pattern matching with observation images of static targets obtained from radar observations with teacher images of each model obtained in advance to determine the target type. The method is known. The teacher image is generally either a simulation image (specifications are known) or an actual image (some specifications are unknown).

非特許文献1に記載の手法では、同一目標に対する観測諸元(目標主軸方向(向き))が異なる複数画像を統合して類識別フィルタを生成する。   In the method described in Non-Patent Document 1, a plurality of images with different observation specifications (target main axis direction (direction)) for the same target are integrated to generate a class identification filter.

フィルタ統合の前処理としては、輝度調整、大きさの正規化、中心位置合わせ等の処理を行う。   As preprocessing for filter integration, processing such as brightness adjustment, size normalization, and center alignment is performed.

非特許文献1に記載の手法は、目標主軸方向等のパラメータ推定を行わずに、様々な向きの画像を統合することにより、向きの異なる画像に対応でき、また、教師画像とのマッチングではなく、フィルタとのマッチングを行うことにより、教師画像の選択に性能が依存しないという特徴がある。   The method described in Non-Patent Document 1 can deal with images of different orientations by integrating images of various orientations without estimating parameters such as the target spindle direction, and is not matching with teacher images. By performing matching with a filter, there is a feature that performance does not depend on selection of a teacher image.

Rajesh K. Shenoy,“Object detection and classification in SAR images using MINACE correlation filters”, A project report for the degree of Master of Science, Carnegie Mellon University, Department of Electrical and Computer Engineering, April 10,1995Rajesh K. Shenoy, “Object detection and classification in SAR images using MINACE correlation filters”, A project report for the degree of Master of Science, Carnegie Mellon University, Department of Electrical and Computer Engineering, April 10,1995

従来の目標類識別装置では、目標主軸方向が異なる画像間でフィルタを生成する場合、原理的には、目標を離散的に回転移動した画像を組み合わせたフィルタが生成される。   In the conventional target class identification device, when a filter is generated between images having different target principal axis directions, in principle, a filter is generated by combining images obtained by discretely rotating the target.

図2に、従来技術における目標主軸方向の異なる2教師画像によるフィルタ生成例を示す。ドットで塗りつぶされた、黒っぽい丸及び白っぽい丸が高輝度点を表す(以下、黒っぽい丸を黒丸、白っぽい丸を白丸と呼ぶ。黒丸は、白丸よりも、輝度値が高いとする)。目標Aに対する目標主軸方向の異なる教師画像1(図2(a))と教師画像2(図2(b))から目標Aの種類判定フィルタ(図2(c))が生成される。すなわち、図2(c)に示す目標Aの種類判定フィルタは、図2(a)および(b)の教師画像1,2を組み合わせたものである。   FIG. 2 shows an example of filter generation using two teacher images with different target spindle directions in the prior art. A blackish circle and a whitish circle filled with dots represent a high luminance point (hereinafter, a blackish circle is referred to as a black circle and a whitish circle is referred to as a white circle. The black circle is assumed to have a higher luminance value than the white circle). A type determination filter (FIG. 2 (c)) for the target A is generated from the teacher image 1 (FIG. 2 (a)) and the teacher image 2 (FIG. 2 (b)) having different target spindle directions with respect to the target A. In other words, the target A type determination filter shown in FIG. 2C is a combination of the teacher images 1 and 2 shown in FIGS.

従来方法では、フィルタ生成時に様々な目標主軸方向(向き)の画像が得られていない場合、フィルタ生成に用いた教師画像と種類判定対象である観測画像との目標主軸方向(向き)差が大きい場合には、フィルタと分布状況が大きく異なり、対応できない。また、目標主軸方向差が小さい場合であっても、離散的な分布点に基づき生成されたフィルタでは、教師画像と観測画像の目標主軸方向差が開くほど、フィルタへの適合度が下がる傾向にある、という課題があった。   In the conventional method, when images of various target main axis directions (directions) are not obtained at the time of filter generation, there is a large difference in target main axis direction (direction) between the teacher image used for filter generation and the observed image that is the type determination target. In this case, the filter and the distribution status are greatly different and cannot be handled. Even if the target main axis direction difference is small, the filter generated based on the discrete distribution points tends to have a lower degree of conformity to the filter as the target main axis direction difference between the teacher image and the observation image increases. There was a problem of being.

さらに、観測諸元としては目標主軸方向の他に、撮像日時、航空機/衛星等に搭載されたレーダから送信される電波の入射角、偏波、分解能等が考えられる。これらの観測諸元の異なる画像、特に入射角差が大きい画像間では、同一機種であっても、倒れこみと呼ばれる現象により、レーダ観測画像の輝度分布(輝度値、分布位置)等が異なる。   In addition to the target main axis direction, observation date and time, incident angle of radio waves transmitted from a radar mounted on an aircraft / satellite, polarization, resolution, etc. can be considered as observation parameters. Among these images with different observation specifications, especially images with a large difference in incident angle, the luminance distribution (luminance value, distribution position) and the like of the radar observation image differ due to a phenomenon called collapse, even in the same model.

図3〜4に従来技術における入射角の異なる2教師画像によるフィルタ生成例を示す。図3が、入射角差が比較的小さい2教師画像によるフィルタ生成、図4が、入射角差が比較的大きい2教師画像によるフィルタ生成の例である。図3,4においても、黒丸及び白丸が、高輝度点を表す(黒丸は、白丸よりも輝度値が高いとする)。   FIGS. 3 to 4 show examples of filter generation using two teacher images with different incident angles in the prior art. FIG. 3 is an example of filter generation using two teacher images with a relatively small incident angle difference, and FIG. 4 is an example of filter generation using two teacher images with a relatively large incident angle difference. 3 and 4, black circles and white circles represent high luminance points (black circles have higher luminance values than white circles).

図3において、目標Bに対する入射角の異なる教師画像1(図3(a))と教師画像2(図3(b))から目標Bの種類判定フィルタ(図3(c))が生成される。同様に、図4では、目標Bに対する入射角の異なる教師画像3(図4(a))と教師画像4(図4(b))から目標Bの種類判定フィルタ(図4(c))が生成される。   In FIG. 3, a type determination filter (FIG. 3C) of the target B is generated from the teacher image 1 (FIG. 3A) and the teacher image 2 (FIG. 3B) having different incident angles with respect to the target B. . Similarly, in FIG. 4, a target B type determination filter (FIG. 4C) is obtained from the teacher image 3 (FIG. 4A) and the teacher image 4 (FIG. 4B) having different incident angles with respect to the target B. Generated.

入射角の異なる画像間でフィルタ生成を行った場合、図4のように入射角差が比較的大きい場合は特に、輝度分布が発散して、その結果、異機種との適合度も高くなり、誤検出が発生しやすくなる。また図3のように、入射角差が比較的小さい画像間で生成したフィルタであっても、入射角は離散的に分布し、それに応じて輝度分布も変動するため、フィルタ適用画像との入射角差が開くほど、フィルタへの適合度が下がる傾向にある、という課題があった。   When filter generation is performed between images with different incident angles, the luminance distribution diverges, particularly when the incident angle difference is relatively large as shown in FIG. False detection is likely to occur. In addition, as shown in FIG. 3, even in a filter generated between images having a relatively small incident angle difference, the incident angles are distributed discretely and the luminance distribution fluctuates accordingly. There was a problem that the degree of conformity to the filter tends to decrease as the angular difference increases.

この発明は、かかる課題を解決するためになされたものであり、観測諸元パラメータの離散的分布の影響を補い、適合度の高いフィルタを生成して、高精度な目標類識別装置を得ることを目的とする。   The present invention has been made to solve such a problem, and compensates for the influence of the discrete distribution of observation parameters and generates a filter with a high degree of fitness to obtain a highly accurate target class identification device. With the goal.

この発明は、観測目標の観測画像データを対象に上記観測目標の種類を判定するための目標類識別装置であって、複数の観測条件での観測により得られた観測目標の教師画像データからなる教師画像データ群とその観測諸元データを格納する教師画像データファイルと、種類判定対象となる観測画像データとその観測諸元データを格納する観測画像データファイルと、上記教師画像データに対して、位置あわせ等のフィルタ生成前の前処理を行い、前処理後の前処理後教師画像データを生成する画像前処理部と、上記前処理後教師画像データに対し、上記前処理後教師画像データの観測諸元の離散的分布を補うための高輝度領域の拡張を行い、拡張後教師画像データを生成する教師画像拡張部と、上記拡張後教師画像データから種類判定フィルタを生成する種類判定フィルタ生成部と、上記観測画像データと上記種類判定フィルタとの照合を行い、上記観測目標の種類判定を行う画像照合部と、上記観測目標の種類判定結果を格納する種類判定結果ファイルとを備えたことを特徴とする目標類識別装置である。   The present invention is a target class identification device for determining the type of an observation target for observation image data of an observation target, and comprises teacher image data of the observation target obtained by observation under a plurality of observation conditions. A teacher image data file for storing a teacher image data group and its observation specification data, an observation image data to be subjected to type determination and an observation image data file for storing the observation specification data, and the teacher image data, An image pre-processing unit that performs pre-processing before filter generation, such as alignment, and generates pre-processed teacher image data after pre-processing, and the pre-processed teacher image data for the pre-processed teacher image data A teacher image extension unit that generates an extended teacher image data by extending a high-intensity region to compensate for the discrete distribution of observation parameters, and a type determination file based on the extended teacher image data. A type determination filter generation unit that generates a data, an image verification unit that performs a comparison between the observation image data and the type determination filter, and performs a type determination of the observation target, and a type that stores the type determination result of the observation target A target class identification device comprising a determination result file.

この発明は、観測目標の観測画像データを対象に上記観測目標の種類を判定するための目標類識別装置であって、複数の観測条件での観測により得られた観測目標の教師画像データからなる教師画像データ群とその観測諸元データを格納する教師画像データファイルと、種類判定対象となる観測画像データとその観測諸元データを格納する観測画像データファイルと、上記教師画像データに対して、位置あわせ等のフィルタ生成前の前処理を行い、前処理後の前処理後教師画像データを生成する画像前処理部と、上記前処理後教師画像データに対し、上記前処理後教師画像データの観測諸元の離散的分布を補うための高輝度領域の拡張を行い、拡張後教師画像データを生成する教師画像拡張部と、上記拡張後教師画像データから種類判定フィルタを生成する種類判定フィルタ生成部と、上記観測画像データと上記種類判定フィルタとの照合を行い、上記観測目標の種類判定を行う画像照合部と、上記観測目標の種類判定結果を格納する種類判定結果ファイルとを備えたことを特徴とする目標類識別装置であるので、観測諸元パラメータの離散的分布の影響を補い、適合度の高いフィルタを生成して、高精度な種類判定を行うことを可能にする。   The present invention is a target class identification device for determining the type of an observation target for observation image data of an observation target, and comprises teacher image data of the observation target obtained by observation under a plurality of observation conditions. A teacher image data file for storing a teacher image data group and its observation specification data, an observation image data to be subjected to type determination and an observation image data file for storing the observation specification data, and the teacher image data, An image pre-processing unit that performs pre-processing before filter generation, such as alignment, and generates pre-processed teacher image data after pre-processing, and the pre-processed teacher image data for the pre-processed teacher image data A teacher image extension unit that generates an extended teacher image data by extending a high-intensity region to compensate for the discrete distribution of observation parameters, and a type determination file based on the extended teacher image data. A type determination filter generation unit that generates a data, an image verification unit that performs a comparison between the observation image data and the type determination filter, and performs a type determination of the observation target, and a type that stores the type determination result of the observation target Since it is a target class identification device characterized by having a judgment result file, it compensates for the influence of the discrete distribution of observation parameters, generates a filter with high fitness, and performs high-precision type judgment Make it possible.

この発明の実施の形態1に係る目標類識別装置の構成を示すブロック図である。It is a block diagram which shows the structure of the target class identification device which concerns on Embodiment 1 of this invention. 従来技術による種類判定フィルタ生成例を示す説明図である。It is explanatory drawing which shows the type determination filter production | generation example by a prior art. 従来技術による種類判定フィルタ生成例を示す説明図である。It is explanatory drawing which shows the type determination filter production | generation example by a prior art. 従来技術による種類判定フィルタ生成例を示す説明図である。It is explanatory drawing which shows the type determination filter production | generation example by a prior art. この発明の実施の形態1による種類判定フィルタ生成例を示す説明図である。It is explanatory drawing which shows the type determination filter production | generation example by Embodiment 1 of this invention. この発明の実施の形態2による種類判定フィルタ生成例を示す説明図である。It is explanatory drawing which shows the type determination filter production | generation example by Embodiment 2 of this invention. この発明の実施の形態3による種類判定フィルタ生成例を示す説明図である。It is explanatory drawing which shows the type determination filter production | generation example by Embodiment 3 of this invention. この発明の実施の形態3による種類判定フィルタ生成例を示す説明図である。It is explanatory drawing which shows the type determination filter production | generation example by Embodiment 3 of this invention.

実施の形態1.
図1は、この発明の実施の形態1に係る目標類識別装置の構成を示すブロック図である。図1に示すように、本実施の形態1に係る目標類識別装置は、様々な観測条件で得られた目標の複数の教師画像データである教師画像データ群とその観測諸元データを格納する教師画像データファイル1と、種類判定対象となる観測画像データとその観測諸元データを格納する観測画像データファイル2と、教師画像データ群に対して位置あわせ等のフィルタ生成前の前処理を行い、前処理後の前処理後教師画像データ群を生成する画像前処理部3と、前処理後教師画像データ群に対し、教師画像データ群の観測諸元の離散的分布を補うための拡張を行い、拡張後教師画像データ群を生成する教師画像拡張部4と、拡張後教師画像データ群から種類判定フィルタを生成する種類判定フィルタ生成部5と、種類判定対象である観測画像データと種類判定フィルタとの照合を行い、観測目標の種類判定を行う画像照合部6と、観測目標の種類判定結果を格納する種類判定結果ファイル7とを備えている。
Embodiment 1 FIG.
FIG. 1 is a block diagram showing the configuration of the target class identification device according to Embodiment 1 of the present invention. As shown in FIG. 1, the target class identification device according to the first embodiment stores a teacher image data group, which is a plurality of target teacher image data obtained under various observation conditions, and its observation data. Perform pre-processing before filter generation such as alignment for the teacher image data file 1, the observation image data file 2 that stores the observation image data to be subjected to type determination and the observation specification data, and the teacher image data group , An image pre-processing unit 3 that generates a pre-processed pre-processed teacher image data group, and an extension to supplement the discrete distribution of observation data of the teacher image data group with respect to the pre-processed teacher image data group And a teacher image extension unit 4 that generates a post-expansion teacher image data group, a type determination filter generation unit 5 that generates a type determination filter from the post-extension teacher image data group, and observation image data that is a type determination target Matches with a kind determining filter includes an image matching unit 6 that performs type determination observation target, and the type determination result file 7 for storing the type determination result of the observation target.

なお、図1には示されていないが、観測画像データファイル2の入力側には、撮像装置および信号処理装置が接続されている。信号処理装置は、撮像装置で撮像された観測画像を基に観測画像データTを算出し、観測画像データファイル2に格納する。観測画像データファイル2には、観測画像データTの観測諸元データも同時に格納される。なお、観測諸元データとしては、例えば、観測時の観測レーダの送信電波の入射角、観測レーダの視線方向、目標主軸方向、観測日時、観測所要時間、観測地域、観測レーダの分解能や観測モード(多偏波観測等)などが挙げられる。   Although not shown in FIG. 1, an imaging device and a signal processing device are connected to the input side of the observation image data file 2. The signal processing device calculates observation image data T based on the observation image captured by the imaging device and stores it in the observation image data file 2. In the observation image data file 2, the observation specification data of the observation image data T is also stored. The observation data includes, for example, the incident angle of the observation radar's transmitted radio wave at the time of observation, the direction of the observation radar's line of sight, the direction of the target main axis, the observation date and time, the observation time, the observation area, the resolution of the observation radar (Multi-polarization observation, etc.).

また、教師画像データファイル1は、事前に様々な観測条件で目標を観測することによって得られた、計算機等に蓄積されている種類既知の目標画像データ、もしくは、計算機シミュレーションで生成された各目標の画像データからなる、教師画像データLを格納している。教師画像データファイル1には、教師画像データLの観測諸元データも同時に格納される。   The teacher image data file 1 is obtained by observing a target under various observation conditions in advance, and is stored in a computer or the like, known type of target image data, or each target generated by computer simulation. The teacher image data L consisting of the image data is stored. The teacher image data file 1 also stores observation data of the teacher image data L at the same time.

種類判定結果ファイル7は、後述する画像照合部6によって得られる種類判定結果データRを格納する。   The type determination result file 7 stores type determination result data R obtained by the image collation unit 6 described later.

画像前処理部3は、教師画像データファイル1からの教師画像データLを入力情報とし、教師画像データLに対して、輝度調整、大きさの正規化、中心位置合わせ等の前処理を行い、前処理後の画像を前処理後画像データPとして出力する。   The image preprocessing unit 3 uses the teacher image data L from the teacher image data file 1 as input information, performs preprocessing such as brightness adjustment, size normalization, center alignment, etc. on the teacher image data L, The preprocessed image is output as preprocessed image data P.

教師画像拡張部4は、画像前処理部3から出力される前処理後画像データPに対して高輝度点領域の拡張を行い、拡張後教師画像データKを生成する。   The teacher image extension unit 4 extends the high luminance point region with respect to the preprocessed image data P output from the image preprocessing unit 3, and generates post-extension teacher image data K.

種類判定フィルタ生成部5は、教師画像拡張部4から出力される拡張後教師画像データKから種類判定フィルタFを生成する。   The type determination filter generation unit 5 generates a type determination filter F from the expanded teacher image data K output from the teacher image extension unit 4.

画像照合部6は、種類判定フィルタ生成部5から出力される種類判定フィルタFを用いて、観測画像データファイル2に格納された観測画像データTの種類判定を行い、種類判定結果R(全体の出力情報)を生成し、種類判定結果ファイル7に格納する。   The image collation unit 6 performs type determination of the observation image data T stored in the observation image data file 2 using the type determination filter F output from the type determination filter generation unit 5, and performs a type determination result R (total Output information) is generated and stored in the type determination result file 7.

次に、図5の説明図を参照しながら、図1に示した各機能ブロック3〜6の動作について、さらに具体的に説明する。   Next, the operations of the functional blocks 3 to 6 shown in FIG. 1 will be described more specifically with reference to the explanatory diagram of FIG.

まず、画像前処理部3は、教師画像データLを教師画像データファイル1から読み出して、当該教師画像データLを対象として、例えばLOG法等による輝度調整を行う。LOG法とは、画像の輝度の対数をとることにより、輝度差(濃淡差、振幅差)を小さくする方法であり、画像の視認性を向上させる。次に、1画素あたりの目標の大きさが、観測諸元に依存しないよう、事前に得られている各画像の観測諸元に基づき、スケール合わせる処理を行う。すなわち、大きさの正規化を行う。さらに、中心位置合わせとしては、教師画像の中から、基準となる画像である基準画像を任意に選定し、基準画像と各教師画像とを、1画素ずつずらしながら、重ね合わせを行い、基準画像と教師画像との相関係数が最大となったところを位置合わせ点とする。これらの処理を総じて前処理と呼ぶ。画像前処理部3は、こうした教師画像データLを対象とした前処理によって得られる画像データを、前処理後画像データPとして出力する。   First, the image preprocessing unit 3 reads the teacher image data L from the teacher image data file 1 and performs luminance adjustment by, for example, the LOG method on the teacher image data L as a target. The LOG method is a method of reducing a luminance difference (shading difference, amplitude difference) by taking a logarithm of the luminance of an image, and improves the visibility of the image. Next, a scale adjustment process is performed based on the observation parameters of each image obtained in advance so that the target size per pixel does not depend on the observation parameters. That is, size normalization is performed. Furthermore, as the center alignment, a reference image, which is a reference image, is arbitrarily selected from the teacher images, and the reference image and each teacher image are overlaid while being shifted one pixel at a time. And the point where the correlation coefficient between the teacher image and the teacher image is maximized. These processes are collectively referred to as preprocessing. The image preprocessing unit 3 outputs the image data obtained by the preprocessing for the teacher image data L as preprocessed image data P.

続いて、教師画像拡張部4では、教師画像データの観測諸元の離散的分布を補うために、画像前処理部3から出力された前処理後画像データPを対象として、各高輝度点を中心に高輝度領域の拡張を行う。高輝度領域の拡張は、中心となる高輝度点Cの近傍のN個の近傍画素の輝度値を、高輝度点Cと同じ輝度値に変更する、あるいは、高輝度点Cの輝度値を最大値として、N個の近傍画素の輝度値を、高輝度点Cからの距離に反比例した値に設定するなどの方法がある。近傍画素の個数Nは、事前に指定、もしくは、オペレータによって設定される、あるいは、目標画像の総画素数等から事前に与えられた計算式に基づき自動的に算出する方法等がある。輝度領域拡張時に、他の高輝度点との拡張領域の重複がある場合は、たとえば、それぞれの輝度値のうち、最大の値に設定する。   Subsequently, in the teacher image expansion unit 4, each high-luminance point is set for the preprocessed image data P output from the image preprocessing unit 3 in order to supplement the discrete distribution of the observation data of the teacher image data. The high brightness area is expanded at the center. The expansion of the high luminance area is performed by changing the luminance values of N neighboring pixels in the vicinity of the central high luminance point C to the same luminance value as that of the high luminance point C, or maximizing the luminance value of the high luminance point C. As a value, there is a method of setting the luminance value of N neighboring pixels to a value inversely proportional to the distance from the high luminance point C. The number N of neighboring pixels may be specified in advance, set by an operator, or automatically calculated based on a calculation formula given in advance from the total number of pixels of the target image. When the extended area overlaps with other high-luminance points when the brightness area is expanded, for example, the maximum value among the respective brightness values is set.

図5は、高輝度領域の拡張例を示しており、ドットで塗りつぶされた、黒っぽい丸及び白っぽい丸が高輝度点を表す(以下、黒っぽい丸を黒丸、白っぽい丸を白丸と呼ぶ。黒丸は、白丸よりも輝度値が高いとする)。領域拡張対象となる高輝度点は、事前に設定された輝度しきい値Sb以上の輝度値を持つ画素、あるいは、目標画像内の輝度上位M個の画素などの方法で決定する。輝度しきい値Sbや輝度上位画素数Mは、事前に指定、もしくは、オペレータによって設定される、あるいは、目標画像の総画素数や最大輝度値等から、事前に与えられた計算式に基づき自動的に算出する等の設定方法等がある。目標Aに対する教師画像1(図5(a))と教師画像2(図5(b))に対し、各高輝度点の近傍のN個の画素を新たに高輝度領域とし(図5(c),図5(d))、それらを拡張後教師画像データEとして出力する。各高輝度点を中心とした矩形領域が拡張後の高輝度領域を表す。   FIG. 5 shows an example of expansion of the high luminance region, and a blackish circle and a whitish circle filled with dots represent high luminance points (hereinafter, the blackish circle is called a black circle and the whitish circle is called a white circle. It is assumed that the brightness value is higher than the white circle). The high luminance point to be subject to region expansion is determined by a method such as a pixel having a luminance value equal to or higher than a luminance threshold Sb set in advance, or the upper M luminance pixels in the target image. The luminance threshold value Sb and the luminance upper pixel number M are specified in advance or set by an operator, or automatically based on a calculation formula given in advance from the total pixel number or maximum luminance value of the target image. There are setting methods such as calculating automatically. For the teacher image 1 (FIG. 5A) and the teacher image 2 (FIG. 5B) for the target A, N pixels in the vicinity of each high-intensity point are newly set as high-intensity regions (FIG. 5C ), FIG. 5 (d)), and outputs them as expanded teacher image data E. A rectangular area centered on each high-luminance point represents the expanded high-luminance area.

続いて、種類判定フィルタ生成部5では、拡張後教師画像データEを対象に、種類判定フィルタFを生成する。具体的には、各拡張後教師画像データEを二次元フーリエ変換後、ラスタ走査によりベクトル化して教師画像ベクトルとし、教師画像ベクトル間の内積行列を求める。内積行列と各教師画像ベクトルの重み値からなるベクトルとの積が、全要素1のベクトルになるよう、各教師画像ベクトルの重み値を求める。算出された各教師画像ベクトルの重み値を用いて、重み付き教師画像ベクトルの和を求め、フィルタベクトルとする。以上の手順により、フィルタベクトルと全教師画像との相関がすべて1になるように、フィルタベクトル(すなわち、種類判定フィルタF)が算出される。図5(e)に、目標Aの種類判定フィルタFを示す。   Subsequently, the type determination filter generation unit 5 generates a type determination filter F for the expanded teacher image data E. Specifically, each expanded teacher image data E is two-dimensionally Fourier transformed and vectorized by raster scanning to form a teacher image vector, and an inner product matrix between the teacher image vectors is obtained. The weight value of each teacher image vector is obtained so that the product of the inner product matrix and the vector composed of the weight values of each teacher image vector becomes a vector of all elements 1. Using the calculated weight value of each teacher image vector, the sum of the weighted teacher image vectors is obtained and used as a filter vector. Through the above procedure, the filter vector (that is, the type determination filter F) is calculated so that the correlation between the filter vector and all the teacher images is all 1. FIG. 5E shows a type determination filter F for the target A.

なお、上記例では複数の拡張後教師画像データEを統合して、種類判定フィルタFを生成したが、各拡張後教師画像データEを、そのまま、それぞれ独立した種類判定フィルタとして用いても良い。   In the above example, the plurality of post-expansion teacher image data E is integrated to generate the type determination filter F, but each post-extension teacher image data E may be used as an independent type determination filter as it is.

最後に画像照合部6では、観測画像データファイル2から種類判定対象である観測画像データを読み出し、当該観測画像データTと種類判定フィルタFとのパターンマッチング等により、種類判定を行う。パターンマッチングでは、観測画像データTと種類判定フィルタFとを1画素ずつずらしながら、相関係数を算出し、最も相関係数が高い位置での相関係数を求め、求めた相関係数が、事前に設定された種類判定しきい値Sr以上であれば、該当機種(種類)と判定し、種類判定結果Rとして出力するとともに、種類判定結果Rを種類判定結果ファイル7に格納する。   Finally, the image matching unit 6 reads the observation image data that is the type determination target from the observation image data file 2 and performs type determination by pattern matching between the observation image data T and the type determination filter F. In pattern matching, the correlation coefficient is calculated while shifting the observed image data T and the type determination filter F one pixel at a time, and the correlation coefficient at the position where the correlation coefficient is the highest is obtained. If it is equal to or higher than the preset type determination threshold value Sr, it is determined as the corresponding model (type) and is output as the type determination result R, and the type determination result R is stored in the type determination result file 7.

なお種類判定しきい値Srは、たとえば種類判定フィルタF生成の際に、事前に得られている種類既知の画像データのうち、フィルタ算出対象外である画像データのフィルタへの適合の度合を、たとえば平均正答率等から判定し、最も適合の度合いが高い値に設定する。   The type determination threshold value Sr is, for example, the degree of conformity of the image data that is not subject to filter calculation to the filter among the types of known image data obtained in advance when the type determination filter F is generated. For example, it is determined from the average correct answer rate or the like, and is set to a value having the highest degree of matching.

以上のように、本実施の形態1に係る目標類識別装置では、教師画像拡張部4において、教師画像データの高輝度領域を拡張することにより、諸元パラメータの離散的分布の影響で離散的に点在する高輝度点が補間され、諸元データの分布状況に依存しない汎用的な種類判定フィルタの生成が可能となる。また、高輝度領域の拡張の際に、高輝度点からの距離に応じて輝度値を設定することにより、教師画像の分布点を中心とした重み付き高輝度領域拡張が可能となり、高輝度領域の発散による、誤検出の発生を抑えることができる。さらに、事前に得られる諸元毎の教師画像数が限定される場合でも、諸元の異なる教師画像間の統合により、フィルタ生成が可能となるので、適合度の高いフィルタを得ることができる。   As described above, in the target class identification device according to the first embodiment, the teacher image extension unit 4 extends the high-intensity region of the teacher image data, so that it is discrete due to the influence of the discrete distribution of the specification parameters. Interpolated high-intensity points are generated, so that it is possible to generate a general-purpose type determination filter that does not depend on the distribution state of the specification data. In addition, by setting the brightness value according to the distance from the high-brightness point when expanding the high-brightness region, the weighted high-brightness region can be expanded around the distribution point of the teacher image. The occurrence of false detection due to the divergence of. Furthermore, even when the number of teacher images for each item obtained in advance is limited, filter generation is possible by integration between teacher images with different items, so a filter with a high degree of fitness can be obtained.

実施の形態2.
本実施の形態に係る目標類識別装置の構成は、上述の実施の形態1で説明した図1の構成と基本的に同じであるため、図1を参照することとし、ここでは説明を省略する。また、本実施の形態2においては、教師画像拡張部4の動作のみが実施の形態1と異なり、他の動作は同じであるため、以下では、実施の形態1と異なる動作を中心に説明する。
Embodiment 2. FIG.
Since the configuration of the target class identification device according to the present embodiment is basically the same as the configuration of FIG. 1 described in the first embodiment, reference is made to FIG. 1 and description thereof is omitted here. . In the second embodiment, only the operation of the teacher image extension unit 4 is different from that in the first embodiment, and other operations are the same. Therefore, the following description will focus on operations different from those in the first embodiment. .

上述の実施の形態1(図1、図5)では、教師画像拡張部4において、高輝度点を中心に近傍画素に高輝度領域を拡張したが、離散的分布を考慮すべき観測諸元パラメータの変動予測に合わせて、高輝度点の分布点を予測して、回転方向に高輝度領域を拡張してもよい。本実施の形態2においては、その場合について説明する。   In the above-described first embodiment (FIGS. 1 and 5), the teacher image expansion unit 4 expands the high luminance area to the neighboring pixels around the high luminance point. The distribution point of the high luminance point may be predicted in accordance with the fluctuation prediction, and the high luminance region may be expanded in the rotation direction. In the second embodiment, this case will be described.

たとえば、変動が予測される諸元パラメータとして、目標主軸方向を考える。離散的に分布する目標主軸方向を補間する方法として、目標の回転移動による高輝度点の軌跡を用いる。具体的には、各教師画像において、輝度上位M個の高輝度点の位置から回転中心点を決定し(たとえば、輝度上位M個の高輝度点からなる凸包の中心点、あるいは、輝度上位M個の高輝度点の重心、等)、各高輝度点に対し、角度±θの回転移動を行い、高輝度点の回転移動軌跡で定義される領域を高輝度領域として拡張する。ここで、θは、事前に指定される、もしくは、オペレータにより設定される、あるいは、主軸方向が既知、もしくは、推定可能な教師画像データの主軸方向情報(平均角度差等)を用いて、事前に与えられた計算式により自動的に算出する等の設定方法が考えられる。   For example, the target spindle direction is considered as a specification parameter for which fluctuation is predicted. As a method of interpolating the target spindle direction distributed discretely, the locus of a high-luminance point by the target rotational movement is used. Specifically, in each teacher image, the rotation center point is determined from the positions of the M luminance points with the highest luminance (for example, the center point of the convex hull consisting of the M luminance points with the highest luminance, or the luminance upper point). The center of gravity of M high-luminance points, etc.), and each high-luminance point are rotationally moved by an angle ± θ, and the area defined by the rotational movement locus of the high-luminance points is expanded as a high-luminance area. Here, θ is designated in advance, set by an operator, or the direction of the principal axis is known or can be estimated, using the principal direction information (average angle difference, etc.) of the teacher image data in advance. A setting method such as automatic calculation using the calculation formula given in (5) is conceivable.

図6に回転方向への高輝度領域拡張例を示す。図6において、ドットで塗りつぶされた黒っぽい丸及び白っぽい丸が高輝度点を表す(以下では、黒っぽい丸を黒丸、白っぽい丸を白丸と呼ぶ。黒丸は、白丸よりも輝度値が高いとする)。また、図6における教師画像1,2は、画像前処理部3における前処理が行われているものとする。画像前処理部3における前処理までの動作は、実施の形態1と同じである。教師画像拡張部4は、画像前処理部3で前処理された、目標Aに対する目標主軸方向の異なる教師画像1(図6(a))と教師画像2(図6(b))に対し、それぞれの輝度上位M個の高輝度点の位置から回転の中心点(☆)を求め、各高輝度点に対し、当該中心点を中心とした角度±θの回転移動を行って(図6(c),図6(d))、各高輝度点の回転移動軌跡で定義される領域を高輝度領域として拡張して、拡張後教師画像データEを生成する。図6(c),(d)における各高輝度点を中央に含む帯状領域が、各高輝度点の回転移動軌跡で定義される領域であり、すなわち、本実施の形態における拡張後の高輝度領域である。   FIG. 6 shows an example of expanding the high luminance region in the rotation direction. In FIG. 6, blackish circles and whitish circles filled with dots represent high luminance points (hereinafter, blackish circles are referred to as black circles and whitish circles are referred to as white circles. Black circles have higher luminance values than white circles). Further, it is assumed that the teacher images 1 and 2 in FIG. 6 are pre-processed by the image pre-processing unit 3. The operations up to the preprocessing in the image preprocessing unit 3 are the same as those in the first embodiment. The teacher image extension unit 4 performs the preprocessing by the image preprocessing unit 3 on the teacher image 1 (FIG. 6A) and the teacher image 2 (FIG. 6B) having different target main axis directions with respect to the target A. A center point (*) of rotation is obtained from the positions of the M high-intensity points of each brightness, and the high-intensity points are rotationally moved by an angle ± θ around the center point (FIG. 6 ( c), FIG. 6 (d)), the area defined by the rotational movement locus of each high-luminance point is expanded as a high-luminance area, and the expanded teacher image data E is generated. 6 (c) and 6 (d) is a region defined by the rotational movement locus of each high luminance point, that is, the high luminance after expansion in the present embodiment. It is an area.

次に、種類判定フィルタ生成部5が、図6(c),(d)に示す拡張後教師画像データEを統合させて、目標Aの種類判定フィルタF(図6(e))を生成する。フィルタ生成手順としては、実施の形態1と同様に行えばよい。なお、種類判定フィルタFは、複数の拡張後教師画像データを必ずしも統合する必要はなく、実施の形態1同様、各拡張後教師画像データ(図6(c),(d))を、そのまま種類判定フィルタFとしても良い。画像照合部6では、この種類判定フィルタFを用いて種類判定を行い、種類判定結果Rを種類判定ファイル7に格納する。種類判定フィルタ生成部5以降の動作は、実施の形態1と基本的に同じである。   Next, the type determination filter generation unit 5 integrates the expanded teacher image data E shown in FIGS. 6C and 6D to generate the type determination filter F of the target A (FIG. 6E). . The filter generation procedure may be performed in the same manner as in the first embodiment. Note that the type determination filter F does not necessarily need to integrate a plurality of post-expansion teacher image data. Like the first embodiment, each type of post-extension teacher image data (FIGS. 6C and 6D) is used as it is. The determination filter F may be used. The image matching unit 6 performs type determination using the type determination filter F and stores the type determination result R in the type determination file 7. The operations after the type determination filter generation unit 5 are basically the same as those in the first embodiment.

また、高輝度領域の輝度値に関しても、実施の形態1同様、高輝度点の輝度値と等しくする、あるいは、高輝度点の輝度値を最大値として、高輝度点からの距離に反比例した値に設定してもよい。   Further, the luminance value of the high luminance area is also equal to the luminance value of the high luminance point, or a value that is inversely proportional to the distance from the high luminance point, with the luminance value of the high luminance point being the maximum value, as in the first embodiment. May be set.

以上のように、この発明の実施の形態2によれば、上記の実施の形態1と同様の効果が得られる。本実施の形態2においては、教師画像拡張部4において、観測諸元の変動予測に合わせて、高輝度点の分布点を予測して、回転方向に高輝度領域を拡張するようにしたので、高輝度領域の拡張範囲が限定され、誤検出の発生確率をおさえることができる。   As described above, according to the second embodiment of the present invention, the same effect as in the first embodiment can be obtained. In the second embodiment, the teacher image expansion unit 4 predicts the distribution points of the high luminance points in accordance with the fluctuation prediction of the observation specifications, and extends the high luminance region in the rotation direction. The extended range of the high luminance region is limited, and the probability of occurrence of erroneous detection can be suppressed.

実施の形態3.
本実施の形態に係る目標類識別装置の構成は、上述の実施の形態1,2で説明した図1の構成と基本的に同じであるため、図1を参照することとし、ここでは説明を省略する。また、本実施の形態3においては、教師画像拡張部4の動作のみが実施の形態1と異なり、他の動作は同じであるため、以下では、実施の形態1と異なる動作を中心に説明する。
Embodiment 3 FIG.
Since the configuration of the target class identification device according to the present embodiment is basically the same as the configuration of FIG. 1 described in the first and second embodiments, reference is made to FIG. Omitted. In the third embodiment, only the operation of the teacher image extension unit 4 is different from that in the first embodiment, and the other operations are the same. Therefore, the following description will focus on operations different from those in the first embodiment. .

上述の実施の形態1〜2(図1、図5〜6)では、教師画像拡張部4において、高輝度点を中心に近傍画素に高輝度領域を拡張するか、あるいは、回転方向に高輝度領域を拡張したが、回転移動のような比較的一律な高輝度点の移動ではなく、個々の高輝度点間の輝度値の変動や、あるいは、移動方向は同じであるが、移動距離が高輝度点ごとに異なる等の状況もあるので、それらの状況を想定して、移動距離も考慮した、特定の方向への高輝度領域の拡張を行ってもよい。本実施の形態3においては、その場合について説明する。   In the above-described Embodiments 1 and 2 (FIGS. 1 and 5 to 6), the teacher image extension unit 4 extends a high-luminance region to neighboring pixels around a high-luminance point, or high luminance in the rotation direction. Although the area has been expanded, it is not a relatively uniform movement of high-intensity points such as rotational movement, but the variation in luminance value between individual high-intensity points or the movement direction is the same, but the movement distance is high. Since there are situations such as different brightness points, the high brightness region may be extended in a specific direction in consideration of the movement distances. This case will be described in the third embodiment.

たとえば、変動が予測される諸元パラメータとして、衛星等に搭載された観測レーダの軌道によって定義される、送信電波の入射角を考える。入射角の変動に伴い、倒れこみと呼ばれる現象が発生することにより、各高輝度点の輝度値及び分布位置も変動する。ここで倒れこみでは、高輝度点の輝度位置はレーダからの視線方向に移動し、また、高輝度点の移動距離は、電波の反射点の高さ方向の位置(すなわち目標上の反射点の地上からの高さ)に応じて決まることがわかっている。そこで、教師画像の各高輝度点に対し、レーダからの視線方向への平行移動を行い、高輝度点の平行移動軌跡で定義される領域を、高輝度領域として拡張する。   For example, the incident angle of the transmission radio wave defined by the orbit of an observation radar mounted on a satellite or the like is considered as a specification parameter whose fluctuation is predicted. As the incident angle varies, a phenomenon called “falling” occurs, and the luminance value and distribution position of each high luminance point also vary. In this case, the luminance position of the high luminance point moves in the direction of the line of sight from the radar, and the moving distance of the high luminance point is the height direction position of the reflection point of the radio wave (that is, the reflection point on the target). It is known that it depends on the height from the ground). Therefore, the high brightness point of the teacher image is translated in the direction of the line of sight from the radar, and the area defined by the parallel movement locus of the high brightness point is expanded as a high brightness area.

図7に視線方向への高輝度領域拡張例を示す。ここで、対象とする2つの教師画像は、比較的、入射角差が小さい場合を想定している。図7において、ドットで塗りつぶされた黒っぽい丸及び白っぽい丸が高輝度点を表す(以下では、黒っぽい丸を黒丸、白っぽい丸を白丸と呼ぶ。黒丸は、白丸よりも輝度値が高いとする)。また、図7における教師画像1,2は、画像前処理部3における前処理が行われているものとする。画像前処理部3における前処理までの動作は、実施の形態1と同じである。教師画像拡張部4は、画像前処理部3で前処理された、目標Bに対する入射角の異なる教師画像1(図7(a))と教師画像2(図7(b))を対象に、各高輝度点に対し、視線方向に距離±αの平行移動を行い、高輝度点の平行移動軌跡で定義される略々矩形の帯状領域を求め(図7(c),図7(d))、それを拡張後の高輝度領域とした拡張後教師画像データEを生成する。図7(c),(d)において、各高輝度点を中央に含む帯状領域が本実施の形態における拡張後の高輝度領域を表す。ここで、各高輝度点の移動距離αは、事前に反射点の高さがある程度予測可能な場合には、たとえば、事前に得られている反射点高さと倒れこみ距離の分布状況データに基づき、移動距離を予測して設定する。反射点高さが予測できない場合には、目標の全体形状から予測される倒れこみ距離範囲を指標に、たとえば、その中央値もしくは最大値等を設定する。   FIG. 7 shows an example of expanding the high luminance region in the line-of-sight direction. Here, it is assumed that two target teacher images have a relatively small incident angle difference. In FIG. 7, blackish circles and whitish circles filled with dots represent high luminance points (hereinafter, blackish circles are referred to as black circles and whitish circles are referred to as white circles. Black circles have higher luminance values than white circles). Further, it is assumed that the teacher images 1 and 2 in FIG. 7 are pre-processed by the image pre-processing unit 3. The operations up to the preprocessing in the image preprocessing unit 3 are the same as those in the first embodiment. The teacher image expansion unit 4 targets the teacher image 1 (FIG. 7 (a)) and the teacher image 2 (FIG. 7 (b)), which are pre-processed by the image preprocessing unit 3 and have different incident angles with respect to the target B. For each high-luminance point, a parallel movement of a distance ± α is performed in the line-of-sight direction to obtain a substantially rectangular belt-like region defined by the parallel movement locus of the high-luminance point (FIGS. 7C and 7D). ) To generate post-expansion teacher image data E in which the post-expansion high-intensity region is used. 7C and 7D, a band-like region including each high-luminance point in the center represents the high-luminance region after expansion in the present embodiment. Here, the movement distance α of each high-intensity point is based on, for example, the distribution state data of the reflection point height and the collapse distance obtained in advance if the height of the reflection point can be predicted to some extent in advance. , Predict and set the travel distance. If the height of the reflection point cannot be predicted, for example, the median value or the maximum value is set using the collapse distance range predicted from the target overall shape as an index.

次に、種類判定フィルタ生成部5が、拡張後教師画像データEから、目標Bの種類判定フィルタF(図7(e))を生成する。フィルタ生成手順としては、実施の形態1と同様に行えばよい。なお、種類判定フィルタFは、実施の形態1同様、複数の拡張後教師画像データEを統合して生成せずに、各拡張後教師画像データを、そのまま種類判定フィルタFとしても良い。画像照合部6では、この種類判定フィルタFを用いて、種類判定を行い、種類判定結果Rを種類判定ファイル7に格納する。種類判定フィルタ生成部5以降の動作は、実施の形態1と基本的に同じである。   Next, the type determination filter generation unit 5 generates a type determination filter F for the target B (FIG. 7E) from the expanded teacher image data E. The filter generation procedure may be performed in the same manner as in the first embodiment. As in the first embodiment, the type determination filter F may use each expanded teacher image data as it is as the type determination filter F without generating a plurality of expanded teacher image data E by integrating them. The image matching unit 6 performs type determination using the type determination filter F and stores the type determination result R in the type determination file 7. The operations after the type determination filter generation unit 5 are basically the same as those in the first embodiment.

なお、上記図7の例では、入射角差が比較的小さい場合を対象としているが、図8(a),(b)に示す教師画像3及び教師画像4のように、教師画像の入射角差の開きが比較的大きい場合には、複数の拡張後教師画像データを対象といたフィルタ生成により、高輝度領域の発散が起こりうる。   Note that the example of FIG. 7 is intended for a case where the difference in incident angle is relatively small, but the incident angle of the teacher image as in the teacher image 3 and the teacher image 4 shown in FIGS. 8 (a) and 8 (b). When the difference opening is relatively large, divergence of the high-luminance region may occur due to filter generation for a plurality of post-expansion teacher image data.

ここで、入射角はレーダ観測諸元として、観測時に与えられる情報であることを踏まえると、あえて入射角差が大きい教師画像間でのフィルタ生成を行わずに、独立したフィルタとする方法も考えられる。すなわち、フィルタ生成の際の入射角統合範囲を示す情報である入射角統合情報を事前に定義し、入射角統合情報に基づき入射角をグルーピングし、入射角グループごとにフィルタを生成する(図8(c)及び図8(d))ようにしてもよい。   Here, considering that the incident angle is the information given at the time of observation as the radar observation specifications, a method of creating an independent filter without generating a filter between teacher images with a large difference in incident angle is also considered. It is done. That is, incident angle integration information that is information indicating an incident angle integration range at the time of filter generation is defined in advance, incident angles are grouped based on the incident angle integration information, and a filter is generated for each incident angle group (FIG. 8). (C) and FIG. 8 (d)) may be used.

なお、高輝度領域の輝度値に関しては、入射角の違いによる輝度分布変動を考慮して、事前に設定された輝度正規化しきい値Sn以上の高輝度点の輝度を、すべて一様な値(例えばSn)に正規化し(輝度正規化値とする)、拡張高輝度領域内の輝度値も輝度正規化値に設定する方法が考えられる。これにより、輝度分布の変動に左右されないフィルタ生成が可能となる。   As for the luminance value of the high luminance region, the luminance of the high luminance point equal to or higher than the preset luminance normalization threshold Sn is considered to be a uniform value (in consideration of the luminance distribution variation due to the difference in incident angle). For example, a method of normalizing to Sn) (making it a luminance normalized value) and setting the luminance value in the extended high luminance region to the luminance normalized value can be considered. This makes it possible to generate a filter that is not affected by fluctuations in the luminance distribution.

以上のように、この発明の実施の形態3によれば、上記の実施の形態1と同様の効果が得られる。本実施の形態3においては、教師画像拡張部4は、移動距離も考慮した、特定の方向への高輝度領域拡張を行うことにより、高輝度領域の拡張範囲が限定され、誤検出の発生確率をおさえることができる。   As described above, according to the third embodiment of the present invention, the same effect as in the first embodiment can be obtained. In the third embodiment, the teacher image extension unit 4 extends the high luminance region in a specific direction in consideration of the moving distance, thereby limiting the extension range of the high luminance region, and the occurrence probability of erroneous detection. Can be suppressed.

また、実施の形態3においては、教師画像データを入射角ごとにグルーピングして、グループごとに種類判定フィルタを生成するようにしたので、入射角差の大きい場合に、個々の入射角グループの輝度分布状況に応じたフィルタ生成が可能となる。なお、ここでは、特定の観測諸元パラメータ値として入射角を例に挙げたが、その場合に限らず、他の観測諸元パラメータ値ごとにグルーピングを行ってもよい。また、実施の形態1,2においても、グルーピングを行ってもよく、その場合も同様の効果が得られる。   In the third embodiment, the teacher image data is grouped for each incident angle, and the type determination filter is generated for each group. Therefore, when the incident angle difference is large, the brightness of each incident angle group is determined. Filter generation according to the distribution situation is possible. Here, the incident angle is given as an example of the specific observation parameter value, but the present invention is not limited to this, and grouping may be performed for each other observation parameter value. In the first and second embodiments, grouping may be performed, and in this case, the same effect can be obtained.

また、本実施の形態3においては、入射角の変動に伴う輝度分布変動を考慮して、高輝度領域拡張の際の輝度値を正規化するようにしたので、輝度分布の変動に左右されないフィルタ生成が可能となる。なお、実施の形態3の説明では、特定の観測諸元パラメータ値として入射角を例に挙げたが、その場合に限らず、他の特定の観測諸元パラメータ値の変動に伴う輝度分布変動を補償するために、高輝度領域拡張の際の輝度値を正規化するようにしてもよい。また、実施の形態1,2においても、正規化を行ってもよく、その場合も同様の効果が得られる。   In the third embodiment, the luminance value at the time of expansion of the high luminance region is normalized in consideration of the luminance distribution variation accompanying the variation in the incident angle, so that the filter does not depend on the luminance distribution variation. Generation is possible. In the description of the third embodiment, the incident angle is given as an example of the specific observation specification parameter value. However, the present invention is not limited to this, and the luminance distribution change accompanying the change of other specific observation specification parameter value is not limited. In order to compensate, the luminance value at the time of expanding the high luminance region may be normalized. Also in the first and second embodiments, normalization may be performed, and in this case, the same effect can be obtained.

なお、この発明は、上記各実施の形態1〜3に限定されるものではなく、各実施の形態1〜3の可能な組み合わせをすべて含むことは云うまでもない。   In addition, this invention is not limited to said each Embodiment 1-3, It cannot be overemphasized that all the possible combinations of each Embodiment 1-3 are included.

1 教師画像データファイル、2 観測画像データファイル、3 画像前処理部、4 教師画像拡張部、5 種類判定フィルタ生成部、6 画像照合部、7 種類判定結果ファイル、F 種類判定フィルタ、K 拡張後教師画像データ、L 教師画像データ、P 前処理後画像データ、R 種類判定結果、T 観測画像データ。   1 teacher image data file, 2 observation image data file, 3 image preprocessing unit, 4 teacher image expansion unit, 5 type determination filter generation unit, 6 image collation unit, 7 type determination result file, F type determination filter, K after extension Teacher image data, L teacher image data, P pre-processed image data, R type determination result, T observation image data.

Claims (6)

観測目標の観測画像データを対象に上記観測目標の種類を判定するための目標類識別装置であって、
複数の観測条件での観測により得られた観測目標の教師画像データからなる教師画像データ群とその観測諸元データを格納する教師画像データファイルと、
種類判定対象となる観測画像データとその観測諸元データを格納する観測画像データファイルと、
上記教師画像データに対して、位置あわせ等のフィルタ生成前の前処理を行い、前処理後の前処理後教師画像データを生成する画像前処理部と、
上記前処理後教師画像データに対し、上記前処理後教師画像データの観測諸元の離散的分布を補うための高輝度領域の拡張を行い、拡張後教師画像データを生成する教師画像拡張部と、
上記拡張後教師画像データから種類判定フィルタを生成する種類判定フィルタ生成部と、
上記観測画像データと上記種類判定フィルタとの照合を行い、上記観測目標の種類判定を行う画像照合部と、
上記観測目標の種類判定結果を格納する種類判定結果ファイルと
を備えたことを特徴とする目標類識別装置。
A target class identification device for determining the type of observation target for observation image data of an observation target,
A teacher image data file for storing a supervised image data group composed of supervised image data of observation targets obtained by observation under a plurality of observation conditions, and its observation data;
An observation image data file for storing the observation image data to be subjected to the type determination and the observation specification data;
An image preprocessing unit that performs preprocessing before filter generation such as alignment on the teacher image data, and generates preprocessed teacher image data after preprocessing;
A teacher image extension unit that generates a post-expansion teacher image data by extending a high-luminance region to compensate for the discrete distribution of the observation data of the pre-processing teacher image data. ,
A type determination filter generation unit that generates a type determination filter from the expanded teacher image data;
Collating the observation image data with the type determination filter, and an image verification unit for determining the type of the observation target;
And a type determination result file for storing a type determination result of the observation target.
上記教師画像拡張部は、上記前処理後教師画像データ内の高輝度点の位置に基づき、それらの高輝度点の回転の中心点を求め、各高輝度点に対し当該中心点を中心とする所定の角度の回転移動を行い、上記高輝度点の回転移動軌跡で定義される領域を拡張後の高輝度領域として、高輝度領域を拡張させることを特徴とする請求項1に記載の目標類識別装置。   The teacher image extension unit obtains a center point of rotation of the high brightness point based on the position of the high brightness point in the pre-processed teacher image data, and centers the center point for each high brightness point. The target class according to claim 1, wherein the high brightness area is expanded by performing a rotational movement of a predetermined angle and setting the area defined by the rotational movement locus of the high brightness point as the expanded high brightness area. Identification device. 上記教師画像拡張部は、上記前処理後教師画像データ内の各高輝度点に対し、観測時の視線方向に基づく特定の方向へ所定の距離の平行移動を行い、上記高輝度点の平行移動軌跡で定義される領域を拡張後の高輝度領域として、高輝度領域を拡張させることを特徴とする請求項1に記載の目標類識別装置。   The teacher image extension unit translates each high-intensity point in the pre-processed teacher image data by a predetermined distance in a specific direction based on the viewing direction at the time of observation, and translates the high-intensity point The target class identification device according to claim 1, wherein the high-luminance region is expanded using the region defined by the locus as the high-luminance region after expansion. 前記教師画像拡張部は、上記前処理後教師画像データ内の各高輝度点からの距離に応じて高輝度領域の輝度値を変化させることにより高輝度領域の拡張を行うことを特徴とする請求項1に記載の目標類識別装置。   The teacher image extending unit extends the high brightness region by changing a brightness value of the high brightness region in accordance with a distance from each high brightness point in the pre-processed teacher image data. Item 1. A target class identification device according to Item 1. 前記教師画像拡張部は、上記教師画像データを特定の観測諸元パラメータ値に応じてグルーピングして、グループごとに上記種類判定フィルタを生成することを特徴とする請求項1に記載の目標類識別装置。   2. The target class identification according to claim 1, wherein the teacher image extension unit groups the teacher image data in accordance with a specific observation specification parameter value and generates the type determination filter for each group. apparatus. 前記教師画像拡張部は、特定の観測諸元パラメータの変動に伴う輝度分布変動を補償するために、各高輝度点の輝度値を正規化することを特徴とする請求項1に記載の目標類識別装置。   2. The target class according to claim 1, wherein the teacher image extension unit normalizes the luminance value of each high luminance point in order to compensate for luminance distribution variation accompanying variation of a specific observation parameter. Identification device.
JP2010282120A 2010-12-17 2010-12-17 Target classifier Expired - Fee Related JP5523298B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010282120A JP5523298B2 (en) 2010-12-17 2010-12-17 Target classifier

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010282120A JP5523298B2 (en) 2010-12-17 2010-12-17 Target classifier

Publications (2)

Publication Number Publication Date
JP2012127920A true JP2012127920A (en) 2012-07-05
JP5523298B2 JP5523298B2 (en) 2014-06-18

Family

ID=46645106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010282120A Expired - Fee Related JP5523298B2 (en) 2010-12-17 2010-12-17 Target classifier

Country Status (1)

Country Link
JP (1) JP5523298B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014095667A (en) * 2012-11-12 2014-05-22 Mitsubishi Electric Corp Target type discrimination device and target type discrimination method
JP2015021824A (en) * 2013-07-18 2015-02-02 三菱電機株式会社 Classification and identification filter generator and target classification and identification device
JP6049882B2 (en) * 2013-07-18 2016-12-21 三菱電機株式会社 Target classifier
CN111971683A (en) * 2018-04-12 2020-11-20 克勒克纳彭塔普拉斯特有限公司 Method and system for performing optical product authentication
CN112231920A (en) * 2020-10-22 2021-01-15 合肥阳光新能源科技有限公司 Method and system for determining parameters of micro-grid simulation model

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014095667A (en) * 2012-11-12 2014-05-22 Mitsubishi Electric Corp Target type discrimination device and target type discrimination method
JP2015021824A (en) * 2013-07-18 2015-02-02 三菱電機株式会社 Classification and identification filter generator and target classification and identification device
JP6049882B2 (en) * 2013-07-18 2016-12-21 三菱電機株式会社 Target classifier
JPWO2015008798A1 (en) * 2013-07-18 2017-03-02 三菱電機株式会社 Target classifier
CN111971683A (en) * 2018-04-12 2020-11-20 克勒克纳彭塔普拉斯特有限公司 Method and system for performing optical product authentication
CN112231920A (en) * 2020-10-22 2021-01-15 合肥阳光新能源科技有限公司 Method and system for determining parameters of micro-grid simulation model

Also Published As

Publication number Publication date
JP5523298B2 (en) 2014-06-18

Similar Documents

Publication Publication Date Title
US10607089B2 (en) Re-identifying an object in a test image
US8965114B2 (en) Object recognition apparatus, object recognition method, learning apparatus, learning method, storage medium and information processing system
US8705795B2 (en) Information processing apparatus, information processing method, and program
US20170269201A1 (en) Surrounding Environment Estimation Device and Surrounding Environment Estimating Method
US9046600B2 (en) Method and apparatus for intensity calibration of multi-beam lidar sensors
US9317735B2 (en) Information processing apparatus, information processing method, and program to calculate position and posture of an object having a three-dimensional shape
JP5523298B2 (en) Target classifier
JP7088288B2 (en) Image processing device, image processing method, and image processing program
US20160350936A1 (en) Methods and Systems for Detecting Moving Objects in a Sequence of Image Frames Produced by Sensors with Inconsistent Gain, Offset, and Dead Pixels
JP6566768B2 (en) Information processing apparatus, information processing method, and program
EP3440588A1 (en) Spatial data analysis
JP4818898B2 (en) Radar image processing device
US20210004947A1 (en) Evaluation system, evaluation device, evaluation method, evaluation program, and recording medium
JP6037790B2 (en) Target class identification device and target class identification method
JP2011257244A (en) Body shape detection device and method
Shang et al. Multi-point vibration measurement for mode identification of bridge structures using video-based motion magnification
KR20190036325A (en) Apparatus for autofocusing and cross range scaling of isar image using compressive sensing and method thereof
US20220122270A1 (en) Image change detection device and image change detection method
US20110280473A1 (en) Rotation estimation device, rotation estimation method, and record medium
WO2019150483A1 (en) Speed calculation device, speed calculation method, and program
KR20150090731A (en) An apparatus and method for building target identifying information database
JP2008215935A (en) Radar image processing device
CN109407087B (en) Target feature vector diagram matching method and system
JP6602606B2 (en) Representative still image determining device for determining representative still image, program, radar device, and aircraft equipped with radar device
WO2022059048A1 (en) Target identification device, target identification method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140408

R150 Certificate of patent or registration of utility model

Ref document number: 5523298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees