JP5523298B2 - 目標類識別装置 - Google Patents

目標類識別装置 Download PDF

Info

Publication number
JP5523298B2
JP5523298B2 JP2010282120A JP2010282120A JP5523298B2 JP 5523298 B2 JP5523298 B2 JP 5523298B2 JP 2010282120 A JP2010282120 A JP 2010282120A JP 2010282120 A JP2010282120 A JP 2010282120A JP 5523298 B2 JP5523298 B2 JP 5523298B2
Authority
JP
Japan
Prior art keywords
image data
observation
teacher image
type determination
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010282120A
Other languages
English (en)
Other versions
JP2012127920A (ja
Inventor
かおり 川上
啓 諏訪
俊夫 若山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010282120A priority Critical patent/JP5523298B2/ja
Publication of JP2012127920A publication Critical patent/JP2012127920A/ja
Application granted granted Critical
Publication of JP5523298B2 publication Critical patent/JP5523298B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

この発明は目標類識別装置に関し、特に、種類未知の目標のレーダ観測画像データを対象に、目標種別を判定するための目標類識別装置に関するものである。
従来行われてきた目標類識別方法としては、レーダ観測で得られた静止目標の観測画像データに対し、事前に得られている各機種の教師画像とのパターンマッチングを行い、目標種別を判定する方法が知られている。教師画像は、一般的に、シミュレーション画像(諸元既知)もしくは実画像(一部の諸元未知)のいずれかとする。
非特許文献1に記載の手法では、同一目標に対する観測諸元(目標主軸方向(向き))が異なる複数画像を統合して類識別フィルタを生成する。
フィルタ統合の前処理としては、輝度調整、大きさの正規化、中心位置合わせ等の処理を行う。
非特許文献1に記載の手法は、目標主軸方向等のパラメータ推定を行わずに、様々な向きの画像を統合することにより、向きの異なる画像に対応でき、また、教師画像とのマッチングではなく、フィルタとのマッチングを行うことにより、教師画像の選択に性能が依存しないという特徴がある。
Rajesh K. Shenoy,"Object detection and classification in SAR images using MINACE correlation filters", A project report for the degree of Master of Science, Carnegie Mellon University, Department of Electrical and Computer Engineering, April 10,1995
従来の目標類識別装置では、目標主軸方向が異なる画像間でフィルタを生成する場合、原理的には、目標を離散的に回転移動した画像を組み合わせたフィルタが生成される。
図2に、従来技術における目標主軸方向の異なる2教師画像によるフィルタ生成例を示す。ドットで塗りつぶされた、黒っぽい丸及び白っぽい丸が高輝度点を表す(以下、黒っぽい丸を黒丸、白っぽい丸を白丸と呼ぶ。黒丸は、白丸よりも、輝度値が高いとする)。目標Aに対する目標主軸方向の異なる教師画像1(図2(a))と教師画像2(図2(b))から目標Aの種類判定フィルタ(図2(c))が生成される。すなわち、図2(c)に示す目標Aの種類判定フィルタは、図2(a)および(b)の教師画像1,2を組み合わせたものである。
従来方法では、フィルタ生成時に様々な目標主軸方向(向き)の画像が得られていない場合、フィルタ生成に用いた教師画像と種類判定対象である観測画像との目標主軸方向(向き)差が大きい場合には、フィルタと分布状況が大きく異なり、対応できない。また、目標主軸方向差が小さい場合であっても、離散的な分布点に基づき生成されたフィルタでは、教師画像と観測画像の目標主軸方向差が開くほど、フィルタへの適合度が下がる傾向にある、という課題があった。
さらに、観測諸元としては目標主軸方向の他に、撮像日時、航空機/衛星等に搭載されたレーダから送信される電波の入射角、偏波、分解能等が考えられる。これらの観測諸元の異なる画像、特に入射角差が大きい画像間では、同一機種であっても、倒れこみと呼ばれる現象により、レーダ観測画像の輝度分布(輝度値、分布位置)等が異なる。
図3〜4に従来技術における入射角の異なる2教師画像によるフィルタ生成例を示す。図3が、入射角差が比較的小さい2教師画像によるフィルタ生成、図4が、入射角差が比較的大きい2教師画像によるフィルタ生成の例である。図3,4においても、黒丸及び白丸が、高輝度点を表す(黒丸は、白丸よりも輝度値が高いとする)。
図3において、目標Bに対する入射角の異なる教師画像1(図3(a))と教師画像2(図3(b))から目標Bの種類判定フィルタ(図3(c))が生成される。同様に、図4では、目標Bに対する入射角の異なる教師画像3(図4(a))と教師画像4(図4(b))から目標Bの種類判定フィルタ(図4(c))が生成される。
入射角の異なる画像間でフィルタ生成を行った場合、図4のように入射角差が比較的大きい場合は特に、輝度分布が発散して、その結果、異機種との適合度も高くなり、誤検出が発生しやすくなる。また図3のように、入射角差が比較的小さい画像間で生成したフィルタであっても、入射角は離散的に分布し、それに応じて輝度分布も変動するため、フィルタ適用画像との入射角差が開くほど、フィルタへの適合度が下がる傾向にある、という課題があった。
この発明は、かかる課題を解決するためになされたものであり、観測諸元パラメータの離散的分布の影響を補い、適合度の高いフィルタを生成して、高精度な目標類識別装置を得ることを目的とする。
この発明は、観測目標の観測画像データを対象に上記観測目標の種類を判定するための目標類識別装置であって、複数の観測条件での観測により得られた観測目標の教師画像データからなる教師画像データ群とその観測諸元データを格納する教師画像データファイルと、種類判定対象となる観測画像データとその観測諸元データを格納する観測画像データファイルと、上記教師画像データに対して、位置あわせ等のフィルタ生成前の前処理を行い、前処理後の前処理後教師画像データを生成する画像前処理部と、上記前処理後教師画像データに対し、上記前処理後教師画像データの観測諸元の離散的分布を補うための高輝度領域の拡張を行い、拡張後教師画像データを生成する教師画像拡張部と、上記拡張後教師画像データから種類判定フィルタを生成する種類判定フィルタ生成部と、上記観測画像データと上記種類判定フィルタとの照合を行い、上記観測目標の種類判定を行う画像照合部と、上記観測目標の種類判定結果を格納する種類判定結果ファイルとを備えたことを特徴とする目標類識別装置である。
この発明は、観測目標の観測画像データを対象に上記観測目標の種類を判定するための目標類識別装置であって、複数の観測条件での観測により得られた観測目標の教師画像データからなる教師画像データ群とその観測諸元データを格納する教師画像データファイルと、種類判定対象となる観測画像データとその観測諸元データを格納する観測画像データファイルと、上記教師画像データに対して、位置あわせ等のフィルタ生成前の前処理を行い、前処理後の前処理後教師画像データを生成する画像前処理部と、上記前処理後教師画像データに対し、上記前処理後教師画像データの観測諸元の離散的分布を補うための高輝度領域の拡張を行い、拡張後教師画像データを生成する教師画像拡張部と、上記拡張後教師画像データから種類判定フィルタを生成する種類判定フィルタ生成部と、上記観測画像データと上記種類判定フィルタとの照合を行い、上記観測目標の種類判定を行う画像照合部と、上記観測目標の種類判定結果を格納する種類判定結果ファイルとを備えたことを特徴とする目標類識別装置であるので、観測諸元パラメータの離散的分布の影響を補い、適合度の高いフィルタを生成して、高精度な種類判定を行うことを可能にする。
この発明の実施の形態1に係る目標類識別装置の構成を示すブロック図である。 従来技術による種類判定フィルタ生成例を示す説明図である。 従来技術による種類判定フィルタ生成例を示す説明図である。 従来技術による種類判定フィルタ生成例を示す説明図である。 この発明の実施の形態1による種類判定フィルタ生成例を示す説明図である。 この発明の実施の形態2による種類判定フィルタ生成例を示す説明図である。 この発明の実施の形態3による種類判定フィルタ生成例を示す説明図である。 この発明の実施の形態3による種類判定フィルタ生成例を示す説明図である。
実施の形態1.
図1は、この発明の実施の形態1に係る目標類識別装置の構成を示すブロック図である。図1に示すように、本実施の形態1に係る目標類識別装置は、様々な観測条件で得られた目標の複数の教師画像データである教師画像データ群とその観測諸元データを格納する教師画像データファイル1と、種類判定対象となる観測画像データとその観測諸元データを格納する観測画像データファイル2と、教師画像データ群に対して位置あわせ等のフィルタ生成前の前処理を行い、前処理後の前処理後教師画像データ群を生成する画像前処理部3と、前処理後教師画像データ群に対し、教師画像データ群の観測諸元の離散的分布を補うための拡張を行い、拡張後教師画像データ群を生成する教師画像拡張部4と、拡張後教師画像データ群から種類判定フィルタを生成する種類判定フィルタ生成部5と、種類判定対象である観測画像データと種類判定フィルタとの照合を行い、観測目標の種類判定を行う画像照合部6と、観測目標の種類判定結果を格納する種類判定結果ファイル7とを備えている。
なお、図1には示されていないが、観測画像データファイル2の入力側には、撮像装置および信号処理装置が接続されている。信号処理装置は、撮像装置で撮像された観測画像を基に観測画像データTを算出し、観測画像データファイル2に格納する。観測画像データファイル2には、観測画像データTの観測諸元データも同時に格納される。なお、観測諸元データとしては、例えば、観測時の観測レーダの送信電波の入射角、観測レーダの視線方向、目標主軸方向、観測日時、観測所要時間、観測地域、観測レーダの分解能や観測モード(多偏波観測等)などが挙げられる。
また、教師画像データファイル1は、事前に様々な観測条件で目標を観測することによって得られた、計算機等に蓄積されている種類既知の目標画像データ、もしくは、計算機シミュレーションで生成された各目標の画像データからなる、教師画像データLを格納している。教師画像データファイル1には、教師画像データLの観測諸元データも同時に格納される。
種類判定結果ファイル7は、後述する画像照合部6によって得られる種類判定結果データRを格納する。
画像前処理部3は、教師画像データファイル1からの教師画像データLを入力情報とし、教師画像データLに対して、輝度調整、大きさの正規化、中心位置合わせ等の前処理を行い、前処理後の画像を前処理後画像データPとして出力する。
教師画像拡張部4は、画像前処理部3から出力される前処理後画像データPに対して高輝度点領域の拡張を行い、拡張後教師画像データKを生成する。
種類判定フィルタ生成部5は、教師画像拡張部4から出力される拡張後教師画像データKから種類判定フィルタFを生成する。
画像照合部6は、種類判定フィルタ生成部5から出力される種類判定フィルタFを用いて、観測画像データファイル2に格納された観測画像データTの種類判定を行い、種類判定結果R(全体の出力情報)を生成し、種類判定結果ファイル7に格納する。
次に、図5の説明図を参照しながら、図1に示した各機能ブロック3〜6の動作について、さらに具体的に説明する。
まず、画像前処理部3は、教師画像データLを教師画像データファイル1から読み出して、当該教師画像データLを対象として、例えばLOG法等による輝度調整を行う。LOG法とは、画像の輝度の対数をとることにより、輝度差(濃淡差、振幅差)を小さくする方法であり、画像の視認性を向上させる。次に、1画素あたりの目標の大きさが、観測諸元に依存しないよう、事前に得られている各画像の観測諸元に基づき、スケール合わせる処理を行う。すなわち、大きさの正規化を行う。さらに、中心位置合わせとしては、教師画像の中から、基準となる画像である基準画像を任意に選定し、基準画像と各教師画像とを、1画素ずつずらしながら、重ね合わせを行い、基準画像と教師画像との相関係数が最大となったところを位置合わせ点とする。これらの処理を総じて前処理と呼ぶ。画像前処理部3は、こうした教師画像データLを対象とした前処理によって得られる画像データを、前処理後画像データPとして出力する。
続いて、教師画像拡張部4では、教師画像データの観測諸元の離散的分布を補うために、画像前処理部3から出力された前処理後画像データPを対象として、各高輝度点を中心に高輝度領域の拡張を行う。高輝度領域の拡張は、中心となる高輝度点Cの近傍のN個の近傍画素の輝度値を、高輝度点Cと同じ輝度値に変更する、あるいは、高輝度点Cの輝度値を最大値として、N個の近傍画素の輝度値を、高輝度点Cからの距離に反比例した値に設定するなどの方法がある。近傍画素の個数Nは、事前に指定、もしくは、オペレータによって設定される、あるいは、目標画像の総画素数等から事前に与えられた計算式に基づき自動的に算出する方法等がある。輝度領域拡張時に、他の高輝度点との拡張領域の重複がある場合は、たとえば、それぞれの輝度値のうち、最大の値に設定する。
図5は、高輝度領域の拡張例を示しており、ドットで塗りつぶされた、黒っぽい丸及び白っぽい丸が高輝度点を表す(以下、黒っぽい丸を黒丸、白っぽい丸を白丸と呼ぶ。黒丸は、白丸よりも輝度値が高いとする)。領域拡張対象となる高輝度点は、事前に設定された輝度しきい値Sb以上の輝度値を持つ画素、あるいは、目標画像内の輝度上位M個の画素などの方法で決定する。輝度しきい値Sbや輝度上位画素数Mは、事前に指定、もしくは、オペレータによって設定される、あるいは、目標画像の総画素数や最大輝度値等から、事前に与えられた計算式に基づき自動的に算出する等の設定方法等がある。目標Aに対する教師画像1(図5(a))と教師画像2(図5(b))に対し、各高輝度点の近傍のN個の画素を新たに高輝度領域とし(図5(c),図5(d))、それらを拡張後教師画像データEとして出力する。各高輝度点を中心とした矩形領域が拡張後の高輝度領域を表す。
続いて、種類判定フィルタ生成部5では、拡張後教師画像データEを対象に、種類判定フィルタFを生成する。具体的には、各拡張後教師画像データEを二次元フーリエ変換後、ラスタ走査によりベクトル化して教師画像ベクトルとし、教師画像ベクトル間の内積行列を求める。内積行列と各教師画像ベクトルの重み値からなるベクトルとの積が、全要素1のベクトルになるよう、各教師画像ベクトルの重み値を求める。算出された各教師画像ベクトルの重み値を用いて、重み付き教師画像ベクトルの和を求め、フィルタベクトルとする。以上の手順により、フィルタベクトルと全教師画像との相関がすべて1になるように、フィルタベクトル(すなわち、種類判定フィルタF)が算出される。図5(e)に、目標Aの種類判定フィルタFを示す。
なお、上記例では複数の拡張後教師画像データEを統合して、種類判定フィルタFを生成したが、各拡張後教師画像データEを、そのまま、それぞれ独立した種類判定フィルタとして用いても良い。
最後に画像照合部6では、観測画像データファイル2から種類判定対象である観測画像データを読み出し、当該観測画像データTと種類判定フィルタFとのパターンマッチング等により、種類判定を行う。パターンマッチングでは、観測画像データTと種類判定フィルタFとを1画素ずつずらしながら、相関係数を算出し、最も相関係数が高い位置での相関係数を求め、求めた相関係数が、事前に設定された種類判定しきい値Sr以上であれば、該当機種(種類)と判定し、種類判定結果Rとして出力するとともに、種類判定結果Rを種類判定結果ファイル7に格納する。
なお種類判定しきい値Srは、たとえば種類判定フィルタF生成の際に、事前に得られている種類既知の画像データのうち、フィルタ算出対象外である画像データのフィルタへの適合の度合を、たとえば平均正答率等から判定し、最も適合の度合いが高い値に設定する。
以上のように、本実施の形態1に係る目標類識別装置では、教師画像拡張部4において、教師画像データの高輝度領域を拡張することにより、諸元パラメータの離散的分布の影響で離散的に点在する高輝度点が補間され、諸元データの分布状況に依存しない汎用的な種類判定フィルタの生成が可能となる。また、高輝度領域の拡張の際に、高輝度点からの距離に応じて輝度値を設定することにより、教師画像の分布点を中心とした重み付き高輝度領域拡張が可能となり、高輝度領域の発散による、誤検出の発生を抑えることができる。さらに、事前に得られる諸元毎の教師画像数が限定される場合でも、諸元の異なる教師画像間の統合により、フィルタ生成が可能となるので、適合度の高いフィルタを得ることができる。
実施の形態2.
本実施の形態に係る目標類識別装置の構成は、上述の実施の形態1で説明した図1の構成と基本的に同じであるため、図1を参照することとし、ここでは説明を省略する。また、本実施の形態2においては、教師画像拡張部4の動作のみが実施の形態1と異なり、他の動作は同じであるため、以下では、実施の形態1と異なる動作を中心に説明する。
上述の実施の形態1(図1、図5)では、教師画像拡張部4において、高輝度点を中心に近傍画素に高輝度領域を拡張したが、離散的分布を考慮すべき観測諸元パラメータの変動予測に合わせて、高輝度点の分布点を予測して、回転方向に高輝度領域を拡張してもよい。本実施の形態2においては、その場合について説明する。
たとえば、変動が予測される諸元パラメータとして、目標主軸方向を考える。離散的に分布する目標主軸方向を補間する方法として、目標の回転移動による高輝度点の軌跡を用いる。具体的には、各教師画像において、輝度上位M個の高輝度点の位置から回転中心点を決定し(たとえば、輝度上位M個の高輝度点からなる凸包の中心点、あるいは、輝度上位M個の高輝度点の重心、等)、各高輝度点に対し、角度±θの回転移動を行い、高輝度点の回転移動軌跡で定義される領域を高輝度領域として拡張する。ここで、θは、事前に指定される、もしくは、オペレータにより設定される、あるいは、主軸方向が既知、もしくは、推定可能な教師画像データの主軸方向情報(平均角度差等)を用いて、事前に与えられた計算式により自動的に算出する等の設定方法が考えられる。
図6に回転方向への高輝度領域拡張例を示す。図6において、ドットで塗りつぶされた黒っぽい丸及び白っぽい丸が高輝度点を表す(以下では、黒っぽい丸を黒丸、白っぽい丸を白丸と呼ぶ。黒丸は、白丸よりも輝度値が高いとする)。また、図6における教師画像1,2は、画像前処理部3における前処理が行われているものとする。画像前処理部3における前処理までの動作は、実施の形態1と同じである。教師画像拡張部4は、画像前処理部3で前処理された、目標Aに対する目標主軸方向の異なる教師画像1(図6(a))と教師画像2(図6(b))に対し、それぞれの輝度上位M個の高輝度点の位置から回転の中心点(☆)を求め、各高輝度点に対し、当該中心点を中心とした角度±θの回転移動を行って(図6(c),図6(d))、各高輝度点の回転移動軌跡で定義される領域を高輝度領域として拡張して、拡張後教師画像データEを生成する。図6(c),(d)における各高輝度点を中央に含む帯状領域が、各高輝度点の回転移動軌跡で定義される領域であり、すなわち、本実施の形態における拡張後の高輝度領域である。
次に、種類判定フィルタ生成部5が、図6(c),(d)に示す拡張後教師画像データEを統合させて、目標Aの種類判定フィルタF(図6(e))を生成する。フィルタ生成手順としては、実施の形態1と同様に行えばよい。なお、種類判定フィルタFは、複数の拡張後教師画像データを必ずしも統合する必要はなく、実施の形態1同様、各拡張後教師画像データ(図6(c),(d))を、そのまま種類判定フィルタFとしても良い。画像照合部6では、この種類判定フィルタFを用いて種類判定を行い、種類判定結果Rを種類判定ファイル7に格納する。種類判定フィルタ生成部5以降の動作は、実施の形態1と基本的に同じである。
また、高輝度領域の輝度値に関しても、実施の形態1同様、高輝度点の輝度値と等しくする、あるいは、高輝度点の輝度値を最大値として、高輝度点からの距離に反比例した値に設定してもよい。
以上のように、この発明の実施の形態2によれば、上記の実施の形態1と同様の効果が得られる。本実施の形態2においては、教師画像拡張部4において、観測諸元の変動予測に合わせて、高輝度点の分布点を予測して、回転方向に高輝度領域を拡張するようにしたので、高輝度領域の拡張範囲が限定され、誤検出の発生確率をおさえることができる。
実施の形態3.
本実施の形態に係る目標類識別装置の構成は、上述の実施の形態1,2で説明した図1の構成と基本的に同じであるため、図1を参照することとし、ここでは説明を省略する。また、本実施の形態3においては、教師画像拡張部4の動作のみが実施の形態1と異なり、他の動作は同じであるため、以下では、実施の形態1と異なる動作を中心に説明する。
上述の実施の形態1〜2(図1、図5〜6)では、教師画像拡張部4において、高輝度点を中心に近傍画素に高輝度領域を拡張するか、あるいは、回転方向に高輝度領域を拡張したが、回転移動のような比較的一律な高輝度点の移動ではなく、個々の高輝度点間の輝度値の変動や、あるいは、移動方向は同じであるが、移動距離が高輝度点ごとに異なる等の状況もあるので、それらの状況を想定して、移動距離も考慮した、特定の方向への高輝度領域の拡張を行ってもよい。本実施の形態3においては、その場合について説明する。
たとえば、変動が予測される諸元パラメータとして、衛星等に搭載された観測レーダの軌道によって定義される、送信電波の入射角を考える。入射角の変動に伴い、倒れこみと呼ばれる現象が発生することにより、各高輝度点の輝度値及び分布位置も変動する。ここで倒れこみでは、高輝度点の輝度位置はレーダからの視線方向に移動し、また、高輝度点の移動距離は、電波の反射点の高さ方向の位置(すなわち目標上の反射点の地上からの高さ)に応じて決まることがわかっている。そこで、教師画像の各高輝度点に対し、レーダからの視線方向への平行移動を行い、高輝度点の平行移動軌跡で定義される領域を、高輝度領域として拡張する。
図7に視線方向への高輝度領域拡張例を示す。ここで、対象とする2つの教師画像は、比較的、入射角差が小さい場合を想定している。図7において、ドットで塗りつぶされた黒っぽい丸及び白っぽい丸が高輝度点を表す(以下では、黒っぽい丸を黒丸、白っぽい丸を白丸と呼ぶ。黒丸は、白丸よりも輝度値が高いとする)。また、図7における教師画像1,2は、画像前処理部3における前処理が行われているものとする。画像前処理部3における前処理までの動作は、実施の形態1と同じである。教師画像拡張部4は、画像前処理部3で前処理された、目標Bに対する入射角の異なる教師画像1(図7(a))と教師画像2(図7(b))を対象に、各高輝度点に対し、視線方向に距離±αの平行移動を行い、高輝度点の平行移動軌跡で定義される略々矩形の帯状領域を求め(図7(c),図7(d))、それを拡張後の高輝度領域とした拡張後教師画像データEを生成する。図7(c),(d)において、各高輝度点を中央に含む帯状領域が本実施の形態における拡張後の高輝度領域を表す。ここで、各高輝度点の移動距離αは、事前に反射点の高さがある程度予測可能な場合には、たとえば、事前に得られている反射点高さと倒れこみ距離の分布状況データに基づき、移動距離を予測して設定する。反射点高さが予測できない場合には、目標の全体形状から予測される倒れこみ距離範囲を指標に、たとえば、その中央値もしくは最大値等を設定する。
次に、種類判定フィルタ生成部5が、拡張後教師画像データEから、目標Bの種類判定フィルタF(図7(e))を生成する。フィルタ生成手順としては、実施の形態1と同様に行えばよい。なお、種類判定フィルタFは、実施の形態1同様、複数の拡張後教師画像データEを統合して生成せずに、各拡張後教師画像データを、そのまま種類判定フィルタFとしても良い。画像照合部6では、この種類判定フィルタFを用いて、種類判定を行い、種類判定結果Rを種類判定ファイル7に格納する。種類判定フィルタ生成部5以降の動作は、実施の形態1と基本的に同じである。
なお、上記図7の例では、入射角差が比較的小さい場合を対象としているが、図8(a),(b)に示す教師画像3及び教師画像4のように、教師画像の入射角差の開きが比較的大きい場合には、複数の拡張後教師画像データを対象といたフィルタ生成により、高輝度領域の発散が起こりうる。
ここで、入射角はレーダ観測諸元として、観測時に与えられる情報であることを踏まえると、あえて入射角差が大きい教師画像間でのフィルタ生成を行わずに、独立したフィルタとする方法も考えられる。すなわち、フィルタ生成の際の入射角統合範囲を示す情報である入射角統合情報を事前に定義し、入射角統合情報に基づき入射角をグルーピングし、入射角グループごとにフィルタを生成する(図8(c)及び図8(d))ようにしてもよい。
なお、高輝度領域の輝度値に関しては、入射角の違いによる輝度分布変動を考慮して、事前に設定された輝度正規化しきい値Sn以上の高輝度点の輝度を、すべて一様な値(例えばSn)に正規化し(輝度正規化値とする)、拡張高輝度領域内の輝度値も輝度正規化値に設定する方法が考えられる。これにより、輝度分布の変動に左右されないフィルタ生成が可能となる。
以上のように、この発明の実施の形態3によれば、上記の実施の形態1と同様の効果が得られる。本実施の形態3においては、教師画像拡張部4は、移動距離も考慮した、特定の方向への高輝度領域拡張を行うことにより、高輝度領域の拡張範囲が限定され、誤検出の発生確率をおさえることができる。
また、実施の形態3においては、教師画像データを入射角ごとにグルーピングして、グループごとに種類判定フィルタを生成するようにしたので、入射角差の大きい場合に、個々の入射角グループの輝度分布状況に応じたフィルタ生成が可能となる。なお、ここでは、特定の観測諸元パラメータ値として入射角を例に挙げたが、その場合に限らず、他の観測諸元パラメータ値ごとにグルーピングを行ってもよい。また、実施の形態1,2においても、グルーピングを行ってもよく、その場合も同様の効果が得られる。
また、本実施の形態3においては、入射角の変動に伴う輝度分布変動を考慮して、高輝度領域拡張の際の輝度値を正規化するようにしたので、輝度分布の変動に左右されないフィルタ生成が可能となる。なお、実施の形態3の説明では、特定の観測諸元パラメータ値として入射角を例に挙げたが、その場合に限らず、他の特定の観測諸元パラメータ値の変動に伴う輝度分布変動を補償するために、高輝度領域拡張の際の輝度値を正規化するようにしてもよい。また、実施の形態1,2においても、正規化を行ってもよく、その場合も同様の効果が得られる。
なお、この発明は、上記各実施の形態1〜3に限定されるものではなく、各実施の形態1〜3の可能な組み合わせをすべて含むことは云うまでもない。
1 教師画像データファイル、2 観測画像データファイル、3 画像前処理部、4 教師画像拡張部、5 種類判定フィルタ生成部、6 画像照合部、7 種類判定結果ファイル、F 種類判定フィルタ、K 拡張後教師画像データ、L 教師画像データ、P 前処理後画像データ、R 種類判定結果、T 観測画像データ。

Claims (6)

  1. 観測目標の観測画像データを対象に上記観測目標の種類を判定するための目標類識別装置であって、
    複数の観測条件での観測により得られた観測目標の教師画像データからなる教師画像データ群とその観測諸元データを格納する教師画像データファイルと、
    種類判定対象となる観測画像データとその観測諸元データを格納する観測画像データファイルと、
    上記教師画像データに対して、位置あわせ等のフィルタ生成前の前処理を行い、前処理後の前処理後教師画像データを生成する画像前処理部と、
    上記前処理後教師画像データに対し、上記前処理後教師画像データの観測諸元の離散的分布を補うための高輝度領域の拡張を行い、拡張後教師画像データを生成する教師画像拡張部と、
    上記拡張後教師画像データから種類判定フィルタを生成する種類判定フィルタ生成部と、
    上記観測画像データと上記種類判定フィルタとの照合を行い、上記観測目標の種類判定を行う画像照合部と、
    上記観測目標の種類判定結果を格納する種類判定結果ファイルと
    を備えたことを特徴とする目標類識別装置。
  2. 上記教師画像拡張部は、上記前処理後教師画像データ内の高輝度点の位置に基づき、それらの高輝度点の回転の中心点を求め、各高輝度点に対し当該中心点を中心とする所定の角度の回転移動を行い、上記高輝度点の回転移動軌跡で定義される領域を拡張後の高輝度領域として、高輝度領域を拡張させることを特徴とする請求項1に記載の目標類識別装置。
  3. 上記教師画像拡張部は、上記前処理後教師画像データ内の各高輝度点に対し、観測時の視線方向に基づく特定の方向へ所定の距離の平行移動を行い、上記高輝度点の平行移動軌跡で定義される領域を拡張後の高輝度領域として、高輝度領域を拡張させることを特徴とする請求項1に記載の目標類識別装置。
  4. 前記教師画像拡張部は、上記前処理後教師画像データ内の各高輝度点からの距離に応じて高輝度領域の輝度値を変化させることにより高輝度領域の拡張を行うことを特徴とする請求項1に記載の目標類識別装置。
  5. 前記教師画像拡張部は、上記教師画像データを特定の観測諸元パラメータ値に応じてグルーピングして、グループごとに上記種類判定フィルタを生成することを特徴とする請求項1に記載の目標類識別装置。
  6. 前記教師画像拡張部は、特定の観測諸元パラメータの変動に伴う輝度分布変動を補償するために、各高輝度点の輝度値を正規化することを特徴とする請求項1に記載の目標類識別装置。
JP2010282120A 2010-12-17 2010-12-17 目標類識別装置 Expired - Fee Related JP5523298B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010282120A JP5523298B2 (ja) 2010-12-17 2010-12-17 目標類識別装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010282120A JP5523298B2 (ja) 2010-12-17 2010-12-17 目標類識別装置

Publications (2)

Publication Number Publication Date
JP2012127920A JP2012127920A (ja) 2012-07-05
JP5523298B2 true JP5523298B2 (ja) 2014-06-18

Family

ID=46645106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010282120A Expired - Fee Related JP5523298B2 (ja) 2010-12-17 2010-12-17 目標類識別装置

Country Status (1)

Country Link
JP (1) JP5523298B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6037790B2 (ja) * 2012-11-12 2016-12-07 三菱電機株式会社 目標類識別装置及び目標類識別方法
JP2015021824A (ja) * 2013-07-18 2015-02-02 三菱電機株式会社 類識別フィルタ生成装置及び目標類識別装置
EP3023808A4 (en) * 2013-07-18 2017-09-06 Mitsubishi Electric Corporation Target type identification device
DE102018108741A1 (de) * 2018-04-12 2019-10-17 Klöckner Pentaplast Gmbh Verfahren für optische Produktauthentifizierung
CN112231920A (zh) * 2020-10-22 2021-01-15 合肥阳光新能源科技有限公司 一种微电网仿真模型的参数确定方法及系统

Also Published As

Publication number Publication date
JP2012127920A (ja) 2012-07-05

Similar Documents

Publication Publication Date Title
US10488507B2 (en) Surrounding environment estimation device and surrounding environment estimating method
US8965114B2 (en) Object recognition apparatus, object recognition method, learning apparatus, learning method, storage medium and information processing system
US10169664B2 (en) Re-identifying an object in a test image
US9046600B2 (en) Method and apparatus for intensity calibration of multi-beam lidar sensors
US8705795B2 (en) Information processing apparatus, information processing method, and program
US9317735B2 (en) Information processing apparatus, information processing method, and program to calculate position and posture of an object having a three-dimensional shape
JP5523298B2 (ja) 目標類識別装置
US9501839B1 (en) Methods and systems for detecting moving objects in a sequence of image frames produced by sensors with inconsistent gain, offset, and dead pixels
JP7088288B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
CA3020069A1 (en) Spatial data analysis
JP4818898B2 (ja) レーダ画像処理装置
JP6037790B2 (ja) 目標類識別装置及び目標類識別方法
JP2017158067A (ja) 監視システム、監視方法、および監視プログラム
CN104851102B (zh) 一种基于人类视觉系统的红外小目标检测方法
JP2011257244A (ja) 物体形状検出装置及び方法
KR20190036325A (ko) 압축 센싱을 이용한 isar 영상의 자동 초점 및 수직 거리 스케일링 장치와 그 방법
US20110280473A1 (en) Rotation estimation device, rotation estimation method, and record medium
US20220122270A1 (en) Image change detection device and image change detection method
JP2008215935A (ja) レーダ画像処理装置
WO2019150483A1 (ja) 速度算出装置、速度算出方法、及び、プログラム
KR20150090731A (ko) 표적 식별 정보 데이터베이스 구축 장치 및 방법
JP6278757B2 (ja) 特徴量生成装置、特徴量生成方法、およびプログラム
JP5371237B2 (ja) レーダ画像処理装置
WO2022059048A1 (ja) 目標識別装置、目標識別方法およびプログラム
KR20190070235A (ko) 비전 기반 위치 추정 기법을 이용한 6-자유도 상대 변위 추정 방법 및 그 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130918

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140408

R150 Certificate of patent or registration of utility model

Ref document number: 5523298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees