JP4188068B2 - Observation target class identification device - Google Patents
Observation target class identification device Download PDFInfo
- Publication number
- JP4188068B2 JP4188068B2 JP2002354908A JP2002354908A JP4188068B2 JP 4188068 B2 JP4188068 B2 JP 4188068B2 JP 2002354908 A JP2002354908 A JP 2002354908A JP 2002354908 A JP2002354908 A JP 2002354908A JP 4188068 B2 JP4188068 B2 JP 4188068B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- pixel
- normalization
- image data
- compressed image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
Description
【0001】
【発明の属する技術分野】
この発明は、レーダで観測した画像データに基づいて、3次元の目標の種類を決定する類識別問題を解決対象とした装置に関し、さらに詳しくは、3次元の目標の種類を解として求めることのできる観測目標の類識別装置に関するものである。
【0002】
【従来の技術】
従来、船舶や航空機などの観測目標の類識別装置としては、レーダで観測した画像データから、3次元の目標の類識別を行うものがある(たとえば、特許文献1参照)。
上記従装置においては、まず、追尾情報を含む観測データから各候補目標の進行方向/姿勢/回転運動などのパラメータである姿勢/運動パラメータ値を推定し、候補目標の3D形状データおよび姿勢/運動パラメータ値から辞書画像データを生成し、続いて、強度パラメータ、辞書画像データおよび観測データを入力情報として、観測データおよび辞書画像データに対してデータ圧縮を行い、圧縮画像データ間の目標位置のずれを補正して位置合わせデータを出力し、最後に、辞書画像データの位置合わせデータと観測データの位置合わせデータとの相関を算出して、相関が最大となる画像を検出するようになっている。
【0003】
上記従来装置によれば、各画像データに対して、特徴的な1点を位置合わせパラメータとしてユーザが指定し、これらの点を各々の画像の中心位置に移動して一致させている。この場合、ユーザは、個々の画像データの強度分布状況に基づいて、中心位置となる位置合わせパラメータを指定しなければならず、一度に多くのデータを対象とする場合には、人手による指定は困難である。
【0004】
【特許文献1】
特開平6−174838号公報(図1)
【0005】
【発明が解決しようとする課題】
従来の観測目標の類識別装置は以上のように、位置合わせの際に、ユーザは個々の画像データの強度分布状況に基づいて、中心位置となる位置合わせパラメータを指定しなければならず、一度に多くのデータを対象とする場合、人手による指定が困難になるという問題点があった。
【0006】
この発明は上記のような問題点を解決するためになされたもので、レーダ観測画像データを対象に、ユーザによる強度分布などのデータ解析の負荷を削減しつつ、レーダ観測画像データの性質に即した位置ずれに強い識別を実現した観測目標の類識別装置を得ることを目的とする。
【0007】
【課題を解決するための手段】
この発明に係る観測目標の類識別装置は、種類が不明の3次元の目標をレーダで観測した画像からなる観測データと、目標の種類の候補となる候補目標の学習用画像データを生成するための3次元の形状を表す3D形状データと、観測データを学習するための学習パラメータと、観測データおよび学習用画像データを圧縮するためのデータ圧縮基準となる画素を示す圧縮パラメータと、観測データの位置を正規化するための画素の順位を表す位置正規化パラメータとを入力情報として、観測データの種類判別結果を出力する観測目標の類識別装置であって、観測データおよび3D形状データを入力情報として、観測データに基づいて目標の進行方向および回転に関する運動パラメータ値を決定するとともに、候補目標の3D形状データおよび運動パラメータ値に基づいて、目標の種類の学習に用いられる学習用画像データを生成する学習用画像生成器と、観測データ、圧縮パラメータおよび学習用画像データを入力情報として、圧縮パラメータに基づいて観測データおよび学習用画像データを圧縮して圧縮画像データを生成する画素指定データ圧縮器と、位置正規化パラメータおよび圧縮画像データを入力情報として、圧縮画像データに対し、全画素を強度の降順にソート後、位置正規化パラメータで指定された順位の画素を基準位置として、基準位置が画像の中心位置となるように全画素を移動させ、位置合わせを行うことにより、画素の移動結果である学習用位置正規化データおよび判別対象位置正規化データを生成する位置正規化器と、学習パラメータおよび学習用位置正規化データを入力情報として、学習用位置正規化データに基づく種類学習を行い、種類学習結果を生成する種類学習器と、判別対象位置正規化データおよび種類学習結果を入力情報として、種類学習結果に基づいて判別対象位置正規化データの種類判別を行い、種類判別結果を出力する種類判別器とを備えたものである。
【0008】
【発明の実施の形態】
実施の形態1.
以下、図面を参照しながら、この発明の実施の形態1について詳細に説明する。
図1はこの発明の実施の形態1を示すブロック構成図である。
図1において、類識別装置12は、観測された3次元目標の種類を識別するために、学習用画像データD1を生成する学習用画像生成器1と、圧縮画像データD2を生成する画素指定データ圧縮器2と、種類学習結果D3を生成する種類学習器3と、種類判別結果D4を生成する種類判別器4と、画素指定データ圧縮器2と種類学習器3との間に挿入された位置正規化器5とを備えている。
類識別装置12には、3D形状データファイル13、観測データファイル14、種類判別結果ファイル15、圧縮パラメータファイル16、学習パラメータファイル17および位置正規化パラメータファイル18が接続されている。
【0009】
3D形状データファイル13は、3次元の形状を表す3D形状データD13を出力する。3D形状データD13は、後述するように、学習用画像生成器1において、目標の種類の候補となる候補目標の学習用画像データD1を生成するために用いられる。
観測データファイル14は、種類が不明の3次元の目標をレーダで観測した画像(追尾情報を含む)からなる観測データD0を出力する。
種類判別結果ファイル15は、類識別装置12から最終的に出力される種類判別結果D4を格納する。
【0010】
圧縮パラメータファイル16は、観測データD0および学習用画像データD1を圧縮するためのデータ圧縮基準となる画素を示す圧縮パラメータP16を出力する。
学習パラメータファイル17は、観測データD0を学習するための学習パラメータP17を出力する。
位置正規化パラメータファイル18は、観測データD0の位置を正規化するための画素の順位を表す位置正規化パラメータP18を出力する。
【0011】
類識別装置12は、各ファイル13、14、16〜18からの観測データD0、3D形状データD13、圧縮パラメータP16、学習パラメータP17および位置正規化パラメータP18を入力情報として、観測データD0の種類判別結果D4を生成し、種類判別結果D4を種類判別結果ファイル15に入力する。
類識別装置12内において、学習用画像生成器1は、観測データD0および3D形状データD13を入力情報として、判別対象となる目標の種類の学習に用いられる学習用画像データD1を生成する。
画素指定データ圧縮器2は、観測データD0、圧縮パラメータP16および学習用画像データD1を入力情報として、圧縮パラメータP16に基づいて観測データD0および学習用画像データD1を圧縮し、圧縮画像データD2を生成する。
【0012】
位置正規化器5は、位置正規化パラメータP18および圧縮画像データD2を入力情報として、位置正規化パラメータP18に基づいて圧縮画像データD2を構成する全画素の位置を移動して、全画素の移動結果である学習用位置正規化データD5aおよび判別対象位置正規化データD5bを生成する。
種類学習器3は、学習パラメータP17および学習用位置正規化データD5aを入力情報として、学習用位置正規化データD5aに基づく種類学習を行い、種類学習結果D3を生成する。
種類判別器4は、判別対象位置正規化データD5bおよび種類学習結果D3を入力情報として、種類学習結果D3に基づいて判別対象位置正規化データD5bの種類判別を行い、種類判別結果D4を出力する。
【0013】
なお、類識別装置12内の学習用画像生成器1は、具体的には、観測データD0に基づいて目標の進行方向および回転に関する運動パラメータ値を決定するとともに、候補目標の3D形状データD13および運動パラメータ値に基づいて学習用画像データD1を生成する。
【0014】
次に、図2および図3を参照しながら、図1に示したこの発明の実施の形態1による類識別動作について説明する。
図2は位置正規化器5による位置正規化処理を示す説明図である。
図2において、左側の図は正規化処理前の画像状態を示し、中央の図は、基準位置Lを算出後に、基準位置Lが画像の中心位置となるよう正規化処理した画像状態(位置正規化画像1)を示し、右側の図は、同様に正規化処理された同一種類の目標の別の画像(位置正規化画像2)を示している。
図3は種類学習器3および種類判別器4による学習処理および判別処理を示す説明図であり、横軸は属性1、縦軸は属性2に対応している。
【0015】
まず、図1において、類識別装置12内の学習用画像生成器1は、観測データファイル14からの観測データD0(目標の追尾情報を含む)を第1の入力情報とし、3D形状データファイル13からの候補目標の3D形状データD13を第2の入力情報として、学習用画像データD1を生成する。
このとき、学習用画像データD1の生成に必要なパラメータとしては、各候補目標の進行方向/回転運動などのパラメータである運動パラメータ値と、候補目標の姿勢に関するパラメータである姿勢パラメータ値とがある。
このうち、運動パラメータ値は、観測データD0から推定演算などにより決定される。
【0016】
また、姿勢パラメータ値は、学習用画像データD1を生成するために与えられた姿勢パラメータ生成基準に基づいて、複数のパラメータ値として生成される。具体例として、角度のパラメータθ[°]の場合、姿勢パラメータ生成基準として、パラメータ間隔が「30」として与えられたとすると、30度間隔のパラメータ値となり、θ=0,30,60,90,120,150,180が生成される。
【0017】
こうして決定された運動パラメータ値および姿勢パラメータ値に基づいて、学習用画像生成器1は、それぞれの候補目標の3D形状データD13および運動パラメータ値から学習用画像データD1を生成する。
なお、学習に必要なパラメータのうち、択一的に推定または決定されるものと、複数の値として生成されるものとの区別は、予想される推定精度や候補目標の性質または観測条件などに応じて、ユーザが決定してもよい。
【0018】
続いて、画素指定データ圧縮器2は、圧縮パラメータファイル16からの圧縮パラメータP16を第1の入力情報とし、学習用画像生成器1からの学習用画像データD1を第2の入力情報とし、観測データファイル14からの観測データD0を第3の入力情報として、各圧縮画像データD2a、D2bを生成する。
具体的には、観測データD0および学習用画像データD1に対し、圧縮パラメータP16として指定された画素IDに基づいて、画素IDが示す画素強度以下(または、画素強度未満)の画素の強度を「0」に変換してデータ圧縮を行い、このデータ圧縮結果を圧縮画像データD2として出力する。
【0019】
次に、位置正規化器5は、位置正規化パラメータファイル18からの位置正規化パラメータP18を第1の入力情報とし、画素指定データ圧縮器2からの圧縮画像データD2を第2の入力情報として、位置正規化のための画素の順位を表す位置正規化パラメータP18に基づいて圧縮画像データD2を構成する全画素の位置を移動し、圧縮画像データD2間の目標位置のずれを補正するための位置正規化を行い、全画素の移動結果(位置正規化結果)である学習用位置正規化データD5aおよび判別対象位置正規化データD5bを生成する。
【0020】
このとき、具体的な位置正規化方法としては、各圧縮画像データD2に対し、全画素を強度の降順にソート後、位置正規化パラメータP18で指定された順位の画素を基準位置として、基準位置が画像の中心位置となるように全画素を移動させ、位置合わせを行う方法がある。
図2において、小さな正方形が個々の画素を表し、個々の画素の塗りつぶしのパターンが画素強度を表し、塗りつぶしパターンが密なほど画素強度が強いものとする。
図2内の左側図(正規化前の画像)、中央図(位置正規化画像1)および右側図(位置正規化画像2)において、太枠で囲われている個所は、2つの画像の画素強度が一致している個所である。
図2のように位置正規化処理を施すことにより、2つの画像の多くの画素強度が一致するようになるので、類似性が明確になる。
【0021】
上記位置正規化方法によれば、ユーザは、レーダ観測画像データ(観測データD0)の個々の画像データの強度分布に基づいて具体的な位置合わせ点を指定することなく、基準位置とする画素の順位を指定することのみで、観測データD0の位置合わせが可能となる。
すなわち、ユーザは、画素数などの比較的容易に入手可能な情報に基づいて、位置ずれに強い識別を実現することができる。
【0022】
以下、種類学習器3は、学習パラメータP17および学習用位置正規化データD5aに基づいて種類学習結果D3を生成し、種類判別器4は、種類学習結果D3および判別対象位置正規化データD5bに基づいて種類判別結果D4を生成する。
このとき、種類学習器3による処理手法としては、たとえば境界線を決定する線形判別法が適用される。
線形判別法は、全教師データからの距離および方向に基づいて境界となる直線を求める方法であり、距離を最大にし、且つそれぞれの種類毎に、教師データからみた直線の方向が同じになるような直線を決定する。
【0023】
図3において、左図は線形判別法により学習された種類および境界線を示し、右図は線形判別法により判別された種類および境界線を示している。
図3の左図において、白三角マークは「種類1」の教師データ、黒四角マークは「種類2」の教師データであり、種類学習により左図内の直線ように境界線が決定される。
【0024】
最後に、種類判別器4は、種類学習器3からの種類学習結果D3を第1の入力情報とし、位置正規化器5からの判別対象位置正規化データD5b(種類判別対象の位置正規化データ)を第2の入力情報として、種類学習結果D3に基づいて判別対象位置正規化データD5bの種類判別を行い、種類判別結果D4を出力する。この種類判別結果D4は、類識別装置12の出力となり、種類判別結果ファイル15に入力される。
【0025】
このとき、種類判別器4においては、図3内の右図のように、種類学習結果D3として求められた境界線に基づいて種類判別が行われる。
すなわち、図3の右図において、「白三角マーク」が多く属する境界線の上側の領域を「種類1」の境界領域とし、逆に、「黒四角マーク」が多く属する境界線の下側の領域を「種類2」の境界領域とし、いずれの領域に属するかによって判別対象観測データD5bの種類を判別する。
なお、図3の右図において、「黒逆三角マーク」および「白菱形マーク」は、種類が未定の観測データであり、それぞれ、境界線により「種類1」および「種類2」と判別される。
【0026】
上記手法による種類学習および種類判別は、基本的には種類が2つの場合の境界線を決定する方法であるが、多数の種類を対象として判別を行う場合には、たとえば、トーナメント方式と呼ばれる方式が採用される。
トーナメント方式においては、2種類ずつ全ての種類の組み合わせで種類学習を行い、それぞれの境界線(判別平面)を決定した後、判別対象データがどちらの種類に近いかの種類判別を、勝ち残り方式で、複数の種類の組み合わせに対して行い、最終的に勝ち残った種類が目標の種類として決定される。
【0027】
このように、この発明の実施の形態1によれば、ユーザは、個々の画像データの強度分布に基づいて具体的な位置合わせ点を指定することなく、基準位置とする画素の順位を指定するのみで、レーダ観測画像データの位置合わせが可能となり、画素数などの比較的容易に入手可能な情報から、位置ずれに強い識別を実現することができる。
【0028】
実施の形態2.
なお、上記実施の形態1(図1)では、位置正規化器5において、位置正規化パラメータP18として指定された強度順位の画素を基準位置として位置正規化を実行したが、位置正規化器内に順位指定位置平均算出器および位置移動器を設け、位置正規化パラメータP18として指定された強度順位以上の画素の位置の平均に基づいて位置正規化を実行してもよい。
以下、図4を参照しながら、位置正規化器5A内に順位指定位置平均算出器51および位置移動器52を設けたこの発明の実施の形態2について説明する。
図4において、前述(図1参照)と同様のものについては、前述と同一符号を付して、または、符号の後に「A」を付して詳述を省略する。
【0029】
この場合、類識別装置12A内の位置正規化器5Aは、順位指定位置平均算出器51と位置移動器52とにより構成されており、位置正規化パラメータP18として指定された強度順位以上の画素の位置の平均に基づいて位置正規化を行うようになっている。
位置正規化器5A内の順位指定位置平均算出器51は、位置正規化パラメータP18に含まれる位置正規化画素順位Ncと圧縮画像データD2とを入力情報として、位置正規化画素順位Ncに基づく圧縮画像データD2の各縦横位置の平均値に基づいて、位置平均Mcを算出する。
位置移動器52は、位置平均Mcおよび圧縮画像データD2を入力情報として、位置平均Mcが圧縮画像データD2の各中心位置となるように、圧縮画像データD2を構成する全画素の位置を移動して、学習用位置正規化データD5aおよび判別対象位置正規化データD5bを出力する。
【0030】
次に、図4に示したこの発明の実施の形態2の具体的な処理動作について説明する。
この場合、類識別装置12A内の位置正規化器5Aにおいて、まず、順位指定位置平均算出器51は、位置正規化パラメータに含まれる位置正規化画素順位Ncを第1の入力情報とし、画素指定データ圧縮器2からの圧縮画像データD2を第2の入力情報とし、各圧縮画像データD2に対し、全画素を強度の降順にソート後、位置正規化画素順位Ncで与えられる強度上位Nc番目までの画素の縦横位置の平均値を位置平均Mcとして決定する。
【0031】
続いて、位置移動器52は、順位指定位置平均算出器51からの位置平均Mcと、画素指定データ圧縮器2からの圧縮画像データD2とを入力情報とし、位置平均Mcが各圧縮画像データの中心位置となるように、上記圧縮画像データを構成する全画素の位置を移動して、画素の移動結果を学習用位置正規化データD5aおよび判別対象位置正規化データD5bとして出力する。
なお、ここでは、位置正規化画素順位(強度上位)Nc番目までの画素を位置平均算出対象としたが、たとえば、指定された順位の画素が複数存在する場合には、同一順位の複数画素の位置平均Mcを算出して基準位置としてもよい。
【0032】
このように、この発明の実施の形態2によれば、位置正規化画素順位(強度上位)Ncの複数画素の位置平均Mcに基づいて、位置合わせの基準位置を決定することにより、強度上位Ncの画素の分布状況に見合った位置合わせが可能となる。
【0033】
実施の形態3.
なお、上記実施の形態2(図4)では、位置正規化パラメータP18として、位置正規化画素順位Ncを事前に与えたが、位置正規化の比率を表すパラメータとして位置正規化率Rcを与え、類識別装置内の位置正規化画素順位決定器により位置正規化画素順位Ncを自動的に決定してもよい。
以下、図5を参照しながら、位置正規化画素順位決定器を設けたこの発明の実施の形態2について説明する。
図5において、前述(図1、図4参照)と同様のものについては、前述と同一符号を付して、または、符号の後に「B」を付して詳述を省略する。
【0034】
この場合、類識別装置12Bにおいて、画素指定データ圧縮器2と位置正規化器5Bとの間には、位置正規化画素順位決定器56が挿入されている。
位置正規化画素順位決定器56は、位置正規化パラメータP18に含まれる位置正規化率Rcと圧縮画像データ2Dとを入力情報として、位置正規化画素順位Ncを決定する。
また、位置正規化器5Bは、位置正規化画素順位決定器56で決定された位置正規化画素順位Ncおよび圧縮画像データD2を入力情報として、学習用位置正規化データD5aおよび判別対象位置正規化データD5bを生成する。
【0035】
次に、図5に示したこの発明の実施の形態3による具体的な処理動作について説明する。
この場合、類識別装置12Bにおいて、位置正規化画素順位決定器56は、画素指定データ圧縮器2からの圧縮画像データD2を第1の入力情報とし、位置正規化パラメータP18に含まれる位置正規化率Rc(位置正規化画素順位Ncを決定するためのパラメータ)を第2の入力情報として、圧縮画像データD2および位置正規化率Rcに基づいて位置正規化画素順位Ncを決定する。
【0036】
このとき、具体的な位置正規化画素順位Ncの決定方法は、たとえば以下の通りである。
まず、位置正規化率Rcは、
【数1】
を満たす値として与えられる。ここで、位置正規化画素数Ncは、以下の式(1)に基づいて算出される。
【0037】
【数2】
【0038】
ただし、式(1)において、Nは総画素数を表し、圧縮画像データD2の一部として与えられるものとする。
このように、この発明の実施の形態3によれば、個々の画像の画素数などの情報が得られない状態であっても、位置正規化の指標となるパラメータ(位置正規化率Rc)を事前に与えることができ、この指標に基づいて位置正規化の基準となる位置正規化画素順位Ncを自動的に決定することができる。したがって、効率のよい位置正規化が可能となる。
【0039】
実施の形態4.
なお、上記実施の形態3(図5)では、位置正規化画素順位決定器56を設け、位置正規化率Rcに基づいて位置正規化画素順位Ncを自動的に決定したが、位置正規化画素順位決定器56に代えて位置正規化画素順位変更器を設け、位置正規化率Rcの変更割合を示すパラメータに基づいて位置正規化画素順位Ncを自動的に変更してもよい。
以下、図6を参照しながら、位置正規化画素順位変更器57を設けたこの発明の実施の形態4について説明する。
図6において、前述(図1、図4、図5参照)と同様のものについては、前述と同一符号を付して、または、符号の後に「C」を付して詳述を省略する。
【0040】
この場合、類識別装置12Cにおいて、画素指定データ圧縮器2と位置正規化器5Cとの間には、位置正規化画素順位変更器57が挿入されている。
位置正規化画素順位変更器57は、位置正規化パラメータP18に含まれる位置正規化画素順位Ncと圧縮画像データD2とを入力情報として、位置正規化変更率Uc(位置正規化率Rcの変更割合を示すパラメータ)を決定するとともに、位置正規化変更率Ucに基づいて位置正規化画素順位Ncを自動的に変更して位置正規化画素順位変更値Nc’を生成する。
また、位置正規化器5Cは、圧縮画像データD2および位置正規化画素順位変更値Nc’を入力情報として、学習用位置正規化データD5aおよび判別対象位置正規化データD5bを生成する。
【0041】
次に、図6に示したこの発明の実施の形態4による具体的な処理動作について説明する。
この場合、類識別装置12Cにおいて、位置正規化画素順位変更器57は、圧縮画像データD2を第1の入力情報とし、位置正規化パラメータP18に含まれる位置正規化画素順位Ncを第2の入力情報として、位置正規化率Rcを算出した後、位置正規化画素順位Ncを変更するためのパラメータとして位置正規化変更率Ucを決定し、位置正規化率Rcおよび位置正規化変更率Ucに基づいて位置正規化画素順位Ncを変更し、変更結果を位置正規化画素順位変更値Nc’として出力する。
【0042】
以下、位置正規化画素順位変更器57による具体的な位置正規化画素順位Ncの変更方法について説明する。
まず、圧縮画像データD2の一部として与えられた総画素数Nと、位置正規化画素順位Ncとを用いて、以下の式(2)により位置正規化率Rcを算出する。
【0043】
【数3】
【0044】
次に、以下の式(3)により、位置正規化画素順位変更値Nc’を算出する。
【0045】
【数4】
【0046】
ただし、式(3)において、位置正規化変更率Ucは、
【数5】
を満たす値であり、乱数などを用いてランダムに決定される。
【0047】
なお、ここでは、位置正規化率Rcを算出した後に、位置正規化画素順位変更値Nc’を算出したが、前述の実施の形態3(図5)で示したように位置正規化率Rcが事前に与えられている場合に適用することもできる。
この場合、位置正規化率Rcの算出処理を省略して、同様に位置正規化画素順位変更値Nc’を算出すればよい。
【0048】
このように、この発明の実施の形態4によれば、位置正規化の基準となる強度レベルを表す位置正規化画素順位Ncを、事前に与えられた指標に基づいて自動的に変更することにより、観測条件などによって変化する画像の質に応じた強度レベルでの位置の正規化が可能となる。
【0049】
実施の形態5.
なお、上記実施の形態3(図5)では、位置正規化画素順位決定器56において、位置正規化率Rcに基づいて位置正規化画素順位Ncを決定したが、圧縮パラメータP16に含まれる圧縮基準画素数と、位置正規化パラメータP18に含まれる圧縮率依存位置正規化率とを用いて、圧縮後のデータ量に対する比率により位置正規化画素順位Ncを決定してもよい。
以下、図7を参照しながら、圧縮後のデータ量に対する比率により位置正規化画素順位Ncを決定したこの発明の実施の形態5について説明する。
図7において、前述(図1、図4、図5参照)と同様のものについては、前述と同一符号を付して、または、符号の後に「D」を付して詳述を省略する。
【0050】
この場合、類識別装置12Dにおいて、画素指定データ圧縮器2と位置正規化器5Dとの間には、位置正規化画素順位決定器56Dが挿入されている。
位置正規化画素順位決定器56Dは、圧縮画像データD2と、圧縮パラメータP16に含まれるデータ圧縮後の画素数を表す圧縮基準画素数Nsと、位置正規化パラメータP18に含まれる圧縮率依存位置正規化率Rscとを入力情報として、位置正規化画素順位Ncを決定する。
また、位置正規化器5Dは、圧縮画像データD2および位置正規化画素順位Ncを入力情報として、学習用位置正規化データD5aおよび判別対象位置正規化データD5bを生成する
【0051】
次に、図7に示したこの発明の実施の形態5による具体的な処理動作について説明する。
この場合、類識別装置12Dにおいて、位置正規化画素順位決定器56Dは、画素指定データ圧縮器2からの圧縮画像データD2を第1の入力情報とし、圧縮パラメータファイル16からの圧縮基準画素数Ns(データ圧縮後の画素数を表すパラメータ)を第2の入力情報とし、位置正規化パラメータファイル18からの圧縮率依存位置正規化率Rsc(圧縮基準画素数Nsから位置正規化画素順位Ncを算出するためのパラメータ)を第3の入力情報として、圧縮基準画素数Nsおよび圧縮率依存位置正規化率Rscに基づいて位置正規化画素順位Ncを算出する。
【0052】
以下、位置正規化画素順位決定器56Dによる位置正規化画素順位の決定方法について説明する。
位置正規化画素順位Ncは、以下の式(4)に基づいて算出される。
【0053】
【数6】
【0054】
ただし、式(4)において、圧縮率依存位置正規化率Rscは、
【数7】
を満たす値として与えられる。
【0055】
このように、この発明の実施の形態5によれば、圧縮基準画素数Nsとして与えられる圧縮後の画素数Ns個のうち、事前にパラメータとして与えられている割合(圧縮率依存位置正規化率Rsc)の画素を位置正規化に適用することにより、圧縮状況に見合った強度レベルでの位置の正規化が可能となる。
【0056】
実施の形態6.
なお、上記実施の形態2(図4)では、位置正規化器5A内に順位指定位置平均算出器51を設け、位置正規化パラメータP18として指定された強度順位以上の全て画素を用いて位置平均Mcを算出したが、位置正規化器内にさらに位置平均算出画素選択器を設け、位置正規化パラメータP18として指定された強度順位以上の画素の中から、位置平均算出に適用する画素を選択して、位置平均Mcを算出してもよい。
以下、図8を参照しながら、位置正規化器5E内に位置平均算出画素選択器53を設けたこの発明の実施の形態6について説明する。
図8において、前述(図4参照)と同様のものについては、前述と同一符号を付して、または、符号の後に「E」を付して詳述を省略する。
【0057】
この場合、類識別装置12E内の位置正規化器5Eは、位置平均算出画素選択器53と、順位指定位置平均算出器51Eと、位置移動器52とにより構成されており、位置平均算出画素選択器53および順位指定位置平均算出器51Eにおいて、位置正規化パラメータP18として指定された強度順位以上の画素の中から、位置平均算出に適用する画素を選択して位置平均Mcを算出するようになっている。
【0058】
すなわち、位置平均算出画素選択器53は、位置正規化パラメータP18に含まれる位置正規化画素順位Ncおよび位置平均算出画素数Nrcと圧縮画像データD2とを入力情報として、位置正規化画素順位Ncで示される画素の中から位置平均算出画素数Nrcの画素を選択して位置平均算出画素Icとする。
また、順位指定位置平均算出器51Eは、圧縮画像データD2および位置平均算出画素Icを入力情報として位置平均Mcを算出し、位置移動器52は、位置平均Mcおよび圧縮画像データD2を入力情報として学習用位置正規化データD5aおよび判別対象位置正規化データD5bを生成する。
【0059】
次に、図8に示したこの発明の実施の形態6による具体的な処理動作について説明する。
類識別装置12E内の位置正規化器5Eにおいて、まず、位置平均算出画素選択器53は、画素指定データ圧縮器2からの圧縮画像データD2を第1の入力情報とし、位置正規化パラメータP18に含まれる位置正規化画素順位Ncを第2の入力情報とし、位置正規化パラメータP18に含まれる位置平均算出画素数Nrc(位置平均Mcの算出に用いられる画素数)を第3の入力情報として、各圧縮画像データD2に対し、全画素を強度の降順にソートした後、位置正規化画素順位Ncで与えられる強度上位Nc番目までの画素の中から、位置平均算出画素数Nrc個の画素を選択して、位置平均Mcの算出に用いられる画素を、位置平均算出画素Icとして出力する。
このとき、位置平均算出画素選択器53による具体的な選択方法としては、たとえば、乱数などを発生させて、ランダムに選択する方法がある。
【0060】
以下、順位指定位置平均算出器51Eは、画素指定データ圧縮器2からの圧縮画像データD2と、位置平均算出画素選択器53からの位置平均算出画素Icとを入力情報として、位置平均算出画素Icの位置平均Mcを算出する。
また、位置移動器52は、位置平均Mcおよび圧縮画像データD2に基づいて学習用位置正規化データD5aおよび判別対象位置正規化データD5bを生成する。
【0061】
このように、この発明の実施の形態6によれば、強度上位となる画素のうち、ランダムに選択した画素を使って位置平均Mcを求めることにより、画素数が比較的多い観測データD0において、画素数を絞り込むために、位置平均算出対象となる画素の強度を極端に高くすることなどによって、画素強度を偏らせることなく、位置平均算出処理の計算量を削減することができる。
【0062】
実施の形態7.
なお、上記実施の形態6(図8)では、強度上位Nc番目までの画素の中からランダムに位置平均算出画素Icを選択したが、強度上位Nc番目までの画素が形成する図形の形状に基づいて、位置平均算出画素Icを選択してもよい。
以下、図8とともに、図9の説明図を参照しながら、強度上位Nc番目までの画素が形成する図形の形状に基づいて、位置平均算出画素Icを選択したこの発明の実施の形態7について説明する。
図9においては、位置平均算出画素Icの別の選択方法として、強度上位Nc番目までの画素が形成する図形の形状に基づいて、位置平均算出画素Ic(0)〜Ic(6)を選択する方法が示されている。
【0063】
この場合、位置平均算出画素選択器53は、画素指定データ圧縮器2からの圧縮画像データD2を第1の入力情報とし、位置正規化パラメータP18に含まれる位置正規化画素順位Ncを第2の入力情報として、各圧縮画像データD2に対し、全画素を強度の降順にソートした後、強度上位Nc番目までの画素から形成される凸包の頂点に位置する画素(Nch個)を、位置平均算出画素Icとして出力する。
【0064】
図9は強度上位Nc番目までの画素から形成される凸包の例を示しており、図9において、各「黒丸マーク」は、強度上位Nc番目までの画素を表し、これらの画素を囲む多角形は、凸包を表している。
この場合、位置平均算出画素Icは、Ic(0)〜Ic(6)で表される。
【0065】
このように、この発明の実施の形態7によれば、強度上位の画素で構成される凸包の各頂点に位置する画素Ic(0)〜Ic(6)を、位置平均算出対象画素Icとして選択することにより、画素数が比較的多いデータにおいて、画素数を絞り込むために、位置平均算出対象となる画素の強度を極端に高くすることなどによって、画素強度を偏らせることなく、且つ強度上位である画素の分布領域全体を考慮して、位置平均算出処理の計算量を削減することができる。
【0066】
実施の形態8.
なお、上記実施の形態2(図4)では、位置正規化器5A内に順位指定位置平均算出器51を設け、全画素を強度の降順でソートし、位置正規化パラメータP18として指定された順位以上の画素の位置平均Mcを算出したが、順位指定位置平均算出器51に代えて位置基準決定器を設け、指定された強度順位以上の画素の最大位置および最小位置に基づいて位置正規化処理を実行してもよい。
以下、図10を参照しながら、位置正規化器5F内に位置基準決定器54を設けたこの発明の実施の形態8について説明する。
図10において、前述(図4参照)と同様のものについては、前述と同一符号を付して、または、符号の後に「F」を付して詳述を省略する。
【0067】
この場合、類識別装置12F内の位置正規化器5Fは、位置基準決定器54および位置移動器52Fにより構成されており、位置正規化画素順位Ncにより指定された強度順位以上の画素の最大位置および最小位置に基づいて、位置正規化処理を実行するようになっている。
位置基準決定器54は、位置正規化パラメータP18に含まれる位置正規化画素順位Ncと圧縮画像データD2とを入力情報として、位置正規化のための基準位置を表す位置正規化基準Lcを出力する。
また、位置移動器52Fは、圧縮画像データD2および位置正規化基準Lcを入力情報として、位置正規化基準Lcが圧縮画像データD2の各中心位置となるように、圧縮画像データD2を構成する全画素の位置を移動して、学習用位置正規化データD5aおよび判別対象位置正規化データD5bを出力する。
【0068】
次に、図11の説明図を参照しながら、図10に示したこの発明の実施の形態8による具体的な処理動作について説明する。
図11は位置正規化基準決定器54の処理動作を示す説明図であり、横軸はx座標、縦軸はy座標を示している。
図11において、観測データD0の全画素は、二次元(x,y)平面上の点とみなされており、「黒丸マーク」は、強度上位Nc画素を表し、「白丸マーク」は、位置正規化基準Lcおよび各線分を定義する4個の点CLc(0)〜CLc(3)を表している。
【0069】
また、強度上位Nc画素のx座標およびy座標の最小値、最大値は、それぞれ、(xmin,xmax)、(ymin,ymax)で表され、それらの組み合わせに基づいて、各点CLc(0)〜CLc(3)が定義されている。
すなわち、点CLc(0)およびCLc(2)を結ぶ線分と、点CLc(1)およびCLc(3)を結ぶ線分との交点が位置正規化基準Lcとなっている。
【0070】
図10において、位置正規化器5F内の位置基準決定器54は、画素指定データ圧縮器2からの圧縮画像データD2を第1の入力情報とし、位置正規化パラメータP18に含まれる位置正規化画素順位Ncを第2の入力情報として、各圧縮画像データD2に対し、全画素を強度の降順にソートした後、強度上位Nc番目までの圧縮画像データD2の全画素を二次元平面上の点とみなした場合に、位置正規化画素順位Ncで定義される画素の各座標の最小値および最大値の組み合わせから、位置正規化基準算出点CLc(位置正規化の基準算出に用いられる点)を定義し、これらの位置正規化基準算出点CLcを結んだ線分の交点(Cp)を、位置正規化のための基準位置を表す位置正規化基準Lcとして出力する。
【0071】
図11において、強度上位Nc画素の(x,y)座標の最小値、最大値(xmin,xmax,ymin,ymax)の組み合わせから定義される各点CLc(0)〜CLc(3)は、以下の式(5)のように表される。
【0072】
【数8】
【0073】
続いて、位置移動器52Fは、画素指定データ圧縮器2からの圧縮画像データD2を第1の入力情報とし、位置基準決定器54からの位置正規化基準Lcを第2の入力情報として、位置正規化基準Lcが各圧縮画像データD2の中心位置となるように、圧縮画像データD2を構成する全画素の位置を移動し、画素の移動結果を学習用位置正規化データD5aおよび判別対象位置正規化データD5bとして出力する。
【0074】
このように、この発明の実施の形態8によれば、強度上位の画素の2次元座標上の最大、最小値の組み合わせからなる4点を結んだ線分の交点を、位置正規化の基準位置(位置正規化基準Lc)とすることにより、強度上位である画素のうち、一部の画素が局所的に偏って(集中して)分布している場合であっても、その偏りの影響を受けることなく、強度上位である画素全体の分布状況に見合った位置の正規化を行うことが可能になる。
【0075】
実施の形態9.
なお、上記実施の形態2(図4)では、位置正規化器5A内に順位指定位置平均算出器51を設け、全画素を強度の降順でソートして、指定された順位以上の画素の位置平均Mcを算出したが、順位指定位置平均算出器51に代えて画素指定位置平均算出器を設け、画素IDにより指定された複数画素の位置平均を算出してもよい。
以下、図12を参照しながら、位置正規化器5G内に画素指定位置平均算出器55を設けたこの発明の実施の形態9について説明する。
図12において、前述(図4参照)と同様のものについては、前述と同一符号を付して、または、符号の後に「G」を付して詳述を省略する。
【0076】
この場合、類識別装置12G内の位置正規化器5Gは、画素指定位置平均算出器55および位置移動器52Gにより構成されており、画素指定位置平均算出器55は、画素IDにより指定された複数画素の位置平均Mcを算出する。
すなわち、画素指定位置平均算出器55は、位置正規化パラメータP18に含まれる複数の画素位置を表す位置正規化画素番号Mcnと、圧縮画像データD2とを入力情報として、圧縮画像データD2に対し、位置正規化画素番号Mcnから位置平均Mcを算出する。
また、位置移動器52Gは、位置平均Mcおよび圧縮画像データD2を入力情報として、位置平均Mcが圧縮画像データD2の各中心位置となるように、圧縮画像データD2を構成する全画素の位置を移動して、学習用位置正規化データD5aおよび判別対象位置正規化データD5bを出力する。
【0077】
次に、図12に示したこの発明の実施の形態9による具体的な処理動作について説明する。
位置正規化器5Gにおいて、まず、画素指定位置平均算出器55は、位置正規化パラメータP18として指定される位置正規化画素番号Mcn(複数の画素位置を示す)を第1の入力情報とし、画素指定データ圧縮器2からの圧縮画像データD2を第2の入力情報として、圧縮画像データD2に対し、位置正規化画素番号Mcnで指定された複数の画素に対して位置平均Mcを算出する。
続いて、位置移動器52Gは、位置平均Mcおよび圧縮画像データD2を入力情報として、位置平均Mcが圧縮画像データD2の各中心位置となるように、圧縮画像データD2を構成する全画素の位置を移動して、学習用位置正規化データD5aおよび判別対象位置正規化データD5bを出力する。
【0078】
このように、この発明の実施の形態9によれば、画像の画素数が少ない場合など、ユーザが画素の分布状況を比較的容易に把握可能な場合に、直接、位置平均Mcの算出を行う画素を指定して位置平均Mcの算出に用いることにより、全画像を対象としたソート処理が不要となり、ユーザの保有情報を有効に利用した効率のよい位置合わせが可能となる。
【0079】
【発明の効果】
以上のように、この発明によれば、種類が不明の3次元の目標をレーダで観測した画像からなる観測データと、目標の種類の候補となる候補目標の学習用画像データを生成するための3次元の3D形状データと、観測データを学習するための学習パラメータと、観測データおよび学習用画像データを圧縮するためのデータ圧縮基準となる画素を示す圧縮パラメータと、観測データの位置を正規化するための画素の順位を表す位置正規化パラメータとを入力情報として、観測データの種類判別結果を出力する観測目標の類識別装置であって、観測データおよび3D形状データを入力情報として、観測データに基づいて目標の進行方向および回転に関する運動パラメータ値を決定するとともに、候補目標の3D形状データおよび運動パラメータ値に基づいて、目標の種類の学習に用いられる学習用画像データを生成する学習用画像生成器と、観測データ、圧縮パラメータおよび学習用画像データを入力情報として、圧縮パラメータに基づいて観測データおよび学習用画像データを圧縮して圧縮画像データを生成する画素指定データ圧縮器と、位置正規化パラメータおよび圧縮画像データを入力情報として、圧縮画像データに対し、全画素を強度の降順にソート後、位置正規化パラメータで指定された順位の画素を基準位置として、基準位置が画像の中心位置となるように全画素を移動させ、位置合わせを行うことにより、全画素の移動結果である学習用位置正規化データおよび判別対象位置正規化データを生成する位置正規化器と、学習パラメータおよび学習用位置正規化データを入力情報として、学習用位置正規化データに基づく種類学習を行い、種類学習結果を生成する種類学習器と、判別対象位置正規化データおよび種類学習結果を入力情報として、種類学習結果に基づいて判別対象位置正規化データの種類判別を行い、種類判別結果を出力する種類判別器とを備えたので、レーダ観測画像データを対象に、ユーザによる強度分布などのデータ解析の負荷を削減しつつ、レーダ観測画像データの性質に即した位置ずれに強い識別を実現した観測目標の類識別装置が得られる効果がある。
【図面の簡単な説明】
【図1】 この発明の実施の形態1を示すブロック構成図である。
【図2】 この発明の実施の形態1による位置正規化処理を示す説明図である。
【図3】 この発明の実施の形態1による学習処理および判別処理を示す説明図である。
【図4】 この発明の実施の形態2を示すブロック構成図である。
【図5】 この発明の実施の形態3を示すブロック構成図である。
【図6】 この発明の実施の形態4を示すブロック構成図である。
【図7】 この発明の実施の形態5を示すブロック構成図である。
【図8】 この発明の実施の形態6を示すブロック構成図である。
【図9】 この発明の実施の形態7による位置平均算出画素の選択処理動作を示す説明図である。
【図10】 この発明の実施の形態8を示すブロック構成図である。
【図11】 この発明の実施の形態8による位置正規化基準の決定処理動作を示す説明図である。
【図12】 この発明の実施の形態9を示すブロック構成図である。
【符号の説明】
1 学習用画像生成器、2 画素指定データ圧縮器、3 種類学習器、4 種類判別器、5、5A〜5G 位置正規化器、12、12A〜12G 類識別装置、13 3D形状データファイル、14 観測データファイル、15 種類判別結果ファイル、16 圧縮パラメータファイル、17 学習パラメータファイル、18 位置正規化パラメータファイル、51 順位指定位置平均算出器、52、52F、52G 位置移動器、53 位置平均算出画素選択器、54 位置基準決定器、55 画素指定位置平均算出器、56、56D 位置正規化画素順位決定器、57 位置正規化画素順位変更器、D0 観測データ、D1 学習用画像データ、D2 圧縮画像データ、D3 種類学習結果、D4 種類判別結果、D5a 学習用位置正規化データ、D5b 判別対象位置正規化データ、D133D形状データ、Ic 位置平均算出画素、Lc 位置正規化基準、Mc 位置平均、Mcn 位置正規化画素番号、Nc 位置正規化画素順位、Nc’ 位置正規化画素順位変更値、Nrc 位置平均算出画素数、Ns 圧縮基準画素数、P16 圧縮パラメータ、P17 学習パラメータ、P18 位置正規化パラメータ、Rc 位置正規化率、Rsc 圧縮率依存位置正規化率、Vs 強度基準値。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus that solves a class identification problem for determining a three-dimensional target type based on image data observed by a radar, and more specifically, to obtain a three-dimensional target type as a solution. The present invention relates to a class identification device for observation targets.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there is an apparatus for classifying an observation target such as a ship or an aircraft that performs class identification of a three-dimensional target from image data observed by a radar (for example, see Patent Document 1).
In the slave apparatus, first, posture / motion parameter values that are parameters such as the traveling direction / posture / rotational motion of each candidate target are estimated from observation data including tracking information, and the 3D shape data and posture / motion of the candidate target are estimated. Generate dictionary image data from parameter values, and then perform data compression on the observation data and dictionary image data using the intensity parameter, dictionary image data, and observation data as input information, and shift the target position between the compressed image data Is corrected and the alignment data is output, and finally, the correlation between the alignment data of the dictionary image data and the alignment data of the observation data is calculated, and an image having the maximum correlation is detected. .
[0003]
According to the above-described conventional apparatus, for each image data, the user designates one characteristic point as an alignment parameter, and these points are moved to coincide with the center position of each image. In this case, the user must specify the alignment parameter that is the center position based on the intensity distribution status of the individual image data. Have difficulty.
[0004]
[Patent Document 1]
Japanese Patent Laid-Open No. 6-174838 (FIG. 1)
[0005]
[Problems to be solved by the invention]
As described above, in the conventional observation target class identification device, the user must designate the alignment parameter to be the center position based on the intensity distribution status of each image data. However, when a large amount of data is targeted, it is difficult to specify manually.
[0006]
The present invention has been made to solve the above-described problems. For radar observation image data, while reducing the load of data analysis such as intensity distribution by the user, it is suitable for the characteristics of the radar observation image data. An object of the present invention is to obtain an observation target type classifying device that realizes strong discrimination against the misalignment.
[0007]
[Means for Solving the Problems]
The observation target class identification device according to the present invention generates observation data composed of images obtained by observing a three-dimensional target of unknown type with a radar, and learning image data for candidate targets that are candidates for the target type. 3D shape data representing a three-dimensional shape, learning parameters for learning observation data, compression parameters indicating pixels serving as a data compression reference for compressing observation data and learning image data, and observation data An observation target type identification device that outputs a type discrimination result of observation data by using, as input information, a position normalization parameter that represents a pixel order for normalizing the position, and inputs the observation data and 3D shape data as input information And determining motion parameter values related to the direction and rotation of the target based on the observation data, and the 3D shape data of the candidate target and A learning image generator for generating learning image data used for learning of the target type based on the dynamic parameter value, and observation based on the compression parameter using the observation data, the compression parameter, and the learning image data as input information A pixel designation data compressor that compresses data and learning image data to generate compressed image data, and a position normalization parameter and compressed image data as input information, After all pixels are sorted in descending order of intensity for compressed image data, the pixels in the order specified by the position normalization parameter are used as reference positions, and all pixels are moved so that the reference position becomes the center position of the image. By doing the combination The position normalizer for generating the learning position normalization data and the discrimination target position normalization data, which are the pixel movement results, and the learning parameter and the learning position normalization data as input information to the learning position normalization data. Based on the type learning result, the type of the classification target position normalized data is determined based on the type learning result. And a type discriminator for outputting the type discrimination result.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, the first embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a first embodiment of the present invention.
In FIG. 1, the
A 3D
[0009]
The 3D
The
The type
[0010]
The
The
The position
[0011]
The
In the
The pixel
[0012]
The
The
The
[0013]
Specifically, the
[0014]
Next, the class identification operation according to the first embodiment of the present invention shown in FIG. 1 will be described with reference to FIGS.
FIG. 2 is an explanatory diagram showing position normalization processing by the
In FIG. 2, the left diagram shows the image state before normalization processing, and the middle diagram shows the image state (position normalization after normalization processing so that the reference position L becomes the center position of the image after calculating the reference position L. The right image shows another image of the same kind of target (position normalized image 2) that has been similarly normalized.
FIG. 3 is an explanatory diagram showing learning processing and discrimination processing by the
[0015]
First, in FIG. 1, the
At this time, parameters necessary for generating the learning image data D1 include a motion parameter value that is a parameter such as a traveling direction / rotational motion of each candidate target, and a posture parameter value that is a parameter related to the posture of the candidate target. .
Among these, the motion parameter value is determined from the observation data D0 by estimation calculation or the like.
[0016]
In addition, the posture parameter values are generated as a plurality of parameter values based on the posture parameter generation reference given for generating the learning image data D1. As a specific example, in the case of the angle parameter θ [°], if the parameter interval is given as “30” as the posture parameter generation reference, the parameter value becomes an interval of 30 degrees, and θ = 0, 30, 60, 90, 120, 150, 180 are generated.
[0017]
Based on the motion parameter value and the posture parameter value determined in this way, the
Of the parameters required for learning, the distinction between those that are alternatively estimated or determined and those that are generated as multiple values depends on the estimated accuracy, the nature of the candidate target, the observation conditions, etc. The user may decide accordingly.
[0018]
Subsequently, the pixel
Specifically, with respect to the observation data D0 and the learning image data D1, based on the pixel ID specified as the compression parameter P16, the intensity of a pixel equal to or lower than the pixel intensity indicated by the pixel ID (or less than the pixel intensity) is set to “ Data is compressed by converting it to “0”, and this data compression result is output as compressed image data D2.
[0019]
Next, the
[0020]
At this time, as a specific position normalization method, for each compressed image data D2, after sorting all the pixels in descending order of intensity, the pixel in the order specified by the position normalization parameter P18 is used as the reference position, and the reference position There is a method of performing alignment by moving all the pixels so that becomes the center position of the image.
In FIG. 2, a small square represents an individual pixel, a fill pattern of each pixel represents pixel intensity, and the denser the fill pattern, the stronger the pixel intensity.
In the left view (image before normalization), the central view (position normalized image 1), and the right view (position normalized image 2) in FIG. 2, the portions surrounded by thick frames are pixels of two images. This is where the intensities match.
By performing the position normalization process as shown in FIG. 2, many pixel intensities of the two images coincide with each other, so that the similarity becomes clear.
[0021]
According to the above-described position normalization method, the user can specify the reference pixel position without specifying a specific alignment point based on the intensity distribution of the individual image data of the radar observation image data (observation data D0). It is possible to align the observation data D0 only by specifying the rank.
That is, the user can realize identification that is resistant to misalignment based on information that is relatively easily available, such as the number of pixels.
[0022]
Hereinafter, the
At this time, as a processing method by the
The linear discriminant method is a method for obtaining a straight line as a boundary based on the distance and direction from all the teacher data. The distance is maximized and the direction of the straight line as seen from the teacher data is the same for each type. Determine a straight line.
[0023]
In FIG. 3, the left figure shows the types and boundary lines learned by the linear discrimination method, and the right figure shows the types and boundary lines discriminated by the linear discrimination method.
In the left diagram of FIG. 3, the white triangle mark is the “
[0024]
Finally, the
[0025]
At this time, the
That is, in the right diagram of FIG. 3, the region above the boundary line to which many “white triangle marks” belong is defined as the boundary region of “
In the right diagram of FIG. 3, “black inverted triangle mark” and “white rhombus mark” are observation data whose types are undetermined, and are identified as “
[0026]
Type learning and type discrimination by the above method is basically a method of determining a boundary line when there are two types, but when discrimination is made for a large number of types, for example, a method called a tournament method Is adopted.
In the tournament method, type learning is performed with all types of combinations of two types, and after determining each boundary line (discrimination plane), the type discrimination of which type the discrimination target data is close to is the winning type. Then, the combination of a plurality of types is performed, and the type that has finally won is determined as the target type.
[0027]
As described above, according to the first embodiment of the present invention, the user designates the rank of the pixel as the reference position without designating a specific alignment point based on the intensity distribution of the individual image data. As a result, it is possible to align the radar observation image data, and it is possible to realize identification that is resistant to misalignment from relatively easily available information such as the number of pixels.
[0028]
In the first embodiment (FIG. 1), the
Hereinafter, a second embodiment of the present invention in which a rank designated position
In FIG. 4, the same components as those described above (see FIG. 1) are denoted by the same reference numerals as those described above, or “A” is appended to the reference numerals and detailed description thereof is omitted.
[0029]
In this case, the position normalizer 5A in the
The rank designation position
The
[0030]
Next, a specific processing operation of the second embodiment of the present invention shown in FIG. 4 will be described.
In this case, in the position normalizer 5A in the
[0031]
Subsequently, the
Here, the pixels up to the Nc-th position normalized pixel rank (highest intensity) are set as the position average calculation target. However, for example, when there are a plurality of pixels of the designated rank, The position average Mc may be calculated as a reference position.
[0032]
As described above, according to the second embodiment of the present invention, by determining the reference position for alignment based on the position average Mc of the plurality of pixels in the position normalized pixel rank (higher intensity) Nc, the higher intensity Nc It is possible to perform alignment corresponding to the distribution status of the pixels.
[0033]
In the second embodiment (FIG. 4), the position normalization pixel rank Nc is given in advance as the position normalization parameter P18. However, the position normalization rate Rc is given as a parameter representing the position normalization ratio, The position normalized pixel rank Nc may be automatically determined by a position normalized pixel rank determiner in the class identification device.
Hereinafter, a second embodiment of the present invention in which a position normalized pixel rank determining unit is provided will be described with reference to FIG.
In FIG. 5, the same components as those described above (see FIGS. 1 and 4) are denoted by the same reference numerals as those described above, or “B” is appended after the reference numerals and detailed description thereof is omitted.
[0034]
In this case, in the class identification device 12B, a position normalized
The position normalized pixel
Further, the position normalizer 5B uses the position normalized pixel rank Nc determined by the position normalized
[0035]
Next, a specific processing operation according to the third embodiment of the present invention shown in FIG. 5 will be described.
In this case, in the class identification device 12B, the position normalized
[0036]
At this time, a specific method for determining the position normalized pixel rank Nc is, for example, as follows.
First, the position normalization rate Rc is
[Expression 1]
Is given as a value that satisfies Here, the position normalized pixel number Nc is calculated based on the following equation (1).
[0037]
[Expression 2]
[0038]
However, in Expression (1), N represents the total number of pixels and is given as a part of the compressed image data D2.
As described above, according to the third embodiment of the present invention, the parameter (position normalization rate Rc) serving as an index for position normalization is set even when information such as the number of pixels of each image cannot be obtained. The position normalization pixel rank Nc that is a reference for position normalization can be automatically determined based on this index. Therefore, efficient position normalization is possible.
[0039]
In the third embodiment (FIG. 5), the position normalized pixel
Hereinafter, a fourth embodiment of the present invention in which a position normalized
In FIG. 6, the same components as those described above (see FIGS. 1, 4 and 5) are denoted by the same reference numerals as those described above, or by adding “C” after the reference numerals and detailed description thereof will be omitted.
[0040]
In this case, in the
The position normalization pixel
Further, the
[0041]
Next, a specific processing operation according to the fourth embodiment of the present invention shown in FIG. 6 will be described.
In this case, in the
[0042]
Hereinafter, a specific method of changing the position normalized pixel order Nc by the position normalized pixel
First, the position normalization rate Rc is calculated by the following equation (2) using the total number of pixels N given as a part of the compressed image data D2 and the position normalized pixel rank Nc.
[0043]
[Equation 3]
[0044]
Next, the position normalized pixel rank change value Nc ′ is calculated by the following equation (3).
[0045]
[Expression 4]
[0046]
However, in the expression (3), the position normalization change rate Uc is
[Equation 5]
Which is determined at random using random numbers or the like.
[0047]
Here, after calculating the position normalization rate Rc, the position normalization pixel rank change value Nc ′ is calculated. However, as shown in the third embodiment (FIG. 5), the position normalization rate Rc is It can also be applied when given in advance.
In this case, the process of calculating the position normalization rate Rc may be omitted, and the position normalized pixel rank change value Nc ′ may be calculated in the same manner.
[0048]
As described above, according to the fourth embodiment of the present invention, by automatically changing the position normalization pixel rank Nc representing the intensity level as a reference for position normalization based on the index given in advance. In addition, it is possible to normalize the position at an intensity level corresponding to the quality of the image that changes depending on the observation conditions.
[0049]
In the third embodiment (FIG. 5), the position normalized pixel
Hereinafter, a fifth embodiment of the present invention in which the position normalized pixel rank Nc is determined based on the ratio to the data amount after compression will be described with reference to FIG.
In FIG. 7, the same components as those described above (see FIGS. 1, 4 and 5) are denoted by the same reference numerals as those described above, or by “D” after the reference numerals and detailed description thereof is omitted.
[0050]
In this case, in the class identification device 12D, a position normalized
The position normalization pixel
Further, the
[0051]
Next, a specific processing operation according to the fifth embodiment of the present invention shown in FIG. 7 will be described.
In this case, in the class identification device 12D, the position normalized pixel
[0052]
Hereinafter, a method of determining the position normalized pixel order by the position normalized
The position normalized pixel rank Nc is calculated based on the following equation (4).
[0053]
[Formula 6]
[0054]
However, in equation (4), the compression rate dependent position normalization rate Rsc is
[Expression 7]
Is given as a value that satisfies
[0055]
Thus, according to the fifth embodiment of the present invention, the ratio (compression ratio-dependent position normalization ratio) given in advance as a parameter out of the number of compressed pixels Ns given as the compression reference pixel number Ns. By applying the pixel of Rsc) to the position normalization, it is possible to normalize the position at an intensity level suitable for the compression state.
[0056]
In the second embodiment (FIG. 4), the rank specified position
Hereinafter, a sixth embodiment of the present invention in which the position average
In FIG. 8, the same components as those described above (see FIG. 4) are denoted by the same reference numerals as those described above, or “E” is appended to the reference numerals and detailed description thereof is omitted.
[0057]
In this case, the position normalizer 5E in the
[0058]
That is, the position average
The rank designation position
[0059]
Next, a specific processing operation according to the sixth embodiment of the present invention shown in FIG. 8 will be described.
In the position normalizer 5E in the
At this time, as a specific selection method by the position average
[0060]
Hereinafter, the rank designation position
Further, the
[0061]
As described above, according to the sixth embodiment of the present invention, by obtaining the position average Mc using randomly selected pixels among the pixels with higher intensity, in the observation data D0 having a relatively large number of pixels, In order to narrow down the number of pixels, the amount of calculation of the position average calculation process can be reduced without biasing the pixel intensity by, for example, extremely increasing the intensity of the pixel that is the position average calculation target.
[0062]
Embodiment 7 FIG.
In the sixth embodiment (FIG. 8), the position average calculation pixel Ic is randomly selected from the pixels up to the highest intensity Nc. However, based on the shape of the figure formed by the pixels up to the highest intensity Nc. Thus, the position average calculation pixel Ic may be selected.
Hereinafter, referring to the explanatory diagram of FIG. 9 together with FIG. 8, the seventh embodiment of the present invention in which the position average calculation pixel Ic is selected based on the shape of the figure formed by the pixels up to the highest Nc-th intensity will be described. To do.
In FIG. 9, as another method for selecting the position average calculation pixel Ic, the position average calculation pixels Ic (0) to Ic (6) are selected based on the shape of the figure formed by the pixels up to the Nc-th highest intensity. The method is shown.
[0063]
In this case, the position average
[0064]
FIG. 9 shows an example of a convex hull formed from pixels up to the highest intensity Nc. In FIG. 9, each “black circle mark” represents a pixel up to the highest intensity Nc, and many pixels surrounding these pixels. The square represents a convex hull.
In this case, the position average calculation pixel Ic is represented by Ic (0) to Ic (6).
[0065]
As described above, according to the seventh embodiment of the present invention, the pixels Ic (0) to Ic (6) located at the vertices of the convex hull composed of pixels with higher intensity are used as the position average calculation target pixel Ic. By selecting, in the data with a relatively large number of pixels, in order to narrow down the number of pixels, the intensity of the pixels that are the position average calculation target is made extremely high without increasing the intensity of the pixels. The calculation amount of the position average calculation process can be reduced in consideration of the entire pixel distribution area.
[0066]
Embodiment 8 FIG.
In the second embodiment (FIG. 4), the rank designation position
Hereinafter, an eighth embodiment of the present invention in which a
In FIG. 10, the same parts as those described above (see FIG. 4) are denoted by the same reference numerals as those described above, or “F” is added after the reference numerals, and detailed description thereof is omitted.
[0067]
In this case, the position normalizer 5F in the
The
Further, the
[0068]
Next, a specific processing operation according to the eighth embodiment of the present invention shown in FIG. 10 will be described with reference to the explanatory diagram of FIG.
FIG. 11 is an explanatory diagram showing the processing operation of the position
In FIG. 11, all the pixels of the observation data D0 are regarded as points on the two-dimensional (x, y) plane, the “black circle mark” represents the higher intensity Nc pixel, and the “white circle mark” represents the position normality. The four points CLc (0) to CLc (3) that define the conversion standard Lc and each line segment are shown.
[0069]
In addition, the minimum value and the maximum value of the x coordinate and y coordinate of the higher intensity Nc pixel are represented by (xmin, xmax) and (ymin, ymax), respectively, and based on the combination thereof, each point CLc (0) ~ CLc (3) is defined.
That is, the intersection of the line segment connecting the points CLc (0) and CLc (2) and the line segment connecting the points CLc (1) and CLc (3) is the position normalization reference Lc.
[0070]
In FIG. 10, the
[0071]
In FIG. 11, it is defined from the combination of the minimum value and the maximum value (xmin, xmax, ymin, ymax) of the (x, y) coordinates of the higher intensity Nc pixel. Each point CLc (0) to CLc (3) are expressed as the following formula (5).
[0072]
[Equation 8]
[0073]
Subsequently, the
[0074]
As described above, according to the eighth embodiment of the present invention, the intersection point of the line segment connecting the four points consisting of the combination of the maximum and minimum values on the two-dimensional coordinates of the pixel with higher intensity is used as the reference position for position normalization. By using (position normalization reference Lc), even if some pixels are locally biased (concentrated) among the pixels having higher intensity, the influence of the bias is reduced. Without receiving it, it becomes possible to normalize the position corresponding to the distribution status of the entire pixel having higher intensity.
[0075]
Embodiment 9 FIG.
In the second embodiment (FIG. 4), the rank designation position
Hereinafter, the ninth embodiment of the present invention in which the pixel designated position
In FIG. 12, the same components as those described above (see FIG. 4) are denoted by the same reference numerals as those described above, or “G” is appended to the reference numerals and detailed description thereof is omitted.
[0076]
In this case, the
That is, the pixel designation position
Further, the
[0077]
Next, a specific processing operation according to the ninth embodiment of the present invention shown in FIG. 12 will be described.
In the
Subsequently, the
[0078]
As described above, according to the ninth embodiment of the present invention, the position average Mc is directly calculated when the user can grasp the pixel distribution state relatively easily, such as when the number of pixels of the image is small. By specifying a pixel and using it for calculation of the position average Mc, sorting processing for all images is not necessary, and efficient alignment using the user's possessed information effectively becomes possible.
[0079]
【The invention's effect】
As described above, according to the present invention, it is possible to generate observation data including images obtained by observing a three-dimensional target of unknown type with a radar, and learning image data for candidate targets that are candidates for the target type. Normalize the three-dimensional 3D shape data, a learning parameter for learning observation data, a compression parameter indicating a pixel serving as a data compression reference for compressing the observation data and learning image data, and the position of the observation data An observation target class identification device that outputs, as input information, a position normalization parameter that represents the order of pixels to be used, and outputs observation data type discrimination results, using observation data and 3D shape data as input information 3D shape data and motion parameter values of the candidate target are determined based on A learning image generator for generating learning image data to be used for learning of the target type based on the observation parameters, the compression parameters, and the learning image data as input information. A pixel designation data compressor that compresses image data to generate compressed image data, and a position normalization parameter and compressed image data as input information, After all pixels are sorted in descending order of intensity for compressed image data, the pixels in the order specified by the position normalization parameter are used as reference positions, and all pixels are moved so that the reference position becomes the center position of the image. By doing the combination , A position normalizer for generating learning position normalized data and discrimination target position normalized data, which are the movement results of all pixels, and learning position normalized data using learning parameters and learning position normalized data as input information Type learning based on the type learning result, type learning device that generates the type learning result, classification target position normalized data and type learning result as input information, type discrimination of the classification target position normalized data based on the type learning result Since it has a type discriminator that outputs the type discrimination result, it is possible to shift the position of the radar observation image data according to the characteristics of the radar observation image data while reducing the load of data analysis such as intensity distribution by the user. This makes it possible to obtain a class identification device for observation targets that realizes strong classification.
[Brief description of the drawings]
FIG. 1 is a block configuration diagram showing a first embodiment of the present invention.
FIG. 2 is an explanatory diagram showing position normalization processing according to the first embodiment of the present invention.
FIG. 3 is an explanatory diagram showing learning processing and discrimination processing according to
FIG. 4 is a block configuration diagram showing a second embodiment of the present invention.
FIG. 5 is a block diagram showing a third embodiment of the present invention.
FIG. 6 is a block diagram showing a fourth embodiment of the present invention.
FIG. 7 is a block diagram showing a fifth embodiment of the present invention.
FIG. 8 is a block diagram showing a sixth embodiment of the present invention.
FIG. 9 is an explanatory diagram showing a position average calculation pixel selection processing operation according to Embodiment 7 of the present invention;
FIG. 10 is a block diagram showing an eighth embodiment of the invention.
FIG. 11 is an explanatory diagram showing a position normalization reference determination processing operation according to Embodiment 8 of the present invention;
FIG. 12 is a block diagram showing a ninth embodiment of the invention.
[Explanation of symbols]
DESCRIPTION OF
Claims (9)
前記観測データおよび前記3D形状データを入力情報として、前記観測データに基づいて前記目標の進行方向および回転に関する運動パラメータ値を決定するとともに、前記候補目標の3D形状データおよび前記運動パラメータ値に基づいて、前記目標の種類の学習に用いられる前記学習用画像データを生成する学習用画像生成器と、
前記観測データ、前記圧縮パラメータおよび前記学習用画像データを入力情報として、前記圧縮パラメータに基づいて前記観測データおよび前記学習用画像データを圧縮して圧縮画像データを生成する画素指定データ圧縮器と、
前記位置正規化パラメータおよび前記圧縮画像データを入力情報として、前記圧縮画像データに対し、全画素を強度の降順にソート後、前記位置正規化パラメータで指定された順位の画素を基準位置として、前記基準位置が画像の中心位置となるように全画素を移動させ、位置合わせを行うことにより、前記全画素の移動結果である学習用位置正規化データおよび判別対象位置正規化データを生成する位置正規化器と、
前記学習パラメータおよび前記学習用位置正規化データを入力情報として、前記学習用位置正規化データに基づく種類学習を行い、種類学習結果を生成する種類学習器と、
前記判別対象位置正規化データおよび前記種類学習結果を入力情報として、前記種類学習結果に基づいて前記判別対象位置正規化データの種類判別を行い、前記種類判別結果を出力する種類判別器と
を備えたことを特徴とする観測目標の類識別装置。Observation data composed of images obtained by observing a three-dimensional target of unknown type with a radar, 3D shape data representing a three-dimensional shape for generating candidate target learning image data that is a candidate of the target type, and , A learning parameter for learning the observation data, a compression parameter indicating a pixel serving as a data compression reference for compressing the observation data and the learning image data, and a position for normalizing the position of the observation data An observation target class identification device that outputs a type discrimination result of the observation data, using as input information a position normalization parameter that represents the order of pixels,
Using the observation data and the 3D shape data as input information, a motion parameter value related to the direction and rotation of the target is determined based on the observation data, and based on the 3D shape data and the motion parameter value of the candidate target A learning image generator for generating the learning image data used for learning the target type;
A pixel designation data compressor that generates compressed image data by compressing the observation data and the learning image data based on the compression parameter, using the observation data, the compression parameter, and the learning image data as input information;
Using the position normalization parameter and the compressed image data as input information, after sorting all pixels in descending order of intensity for the compressed image data, using the pixels in the order specified by the position normalization parameter as a reference position, Position normalization that generates learning position normalization data and discrimination target position normalization data, which are the movement results of all pixels, by moving all the pixels so that the reference position becomes the center position of the image and performing alignment And
A type learner that performs type learning based on the learning position normalized data and generates a type learning result using the learning parameter and the learning position normalized data as input information;
A type discriminator that performs type discrimination of the discrimination target location normalization data based on the type learning result using the discrimination target position normalized data and the type learning result as input information, and outputs the type discrimination result. An apparatus for classifying observation targets characterized by the fact that
前記順位指定位置平均算出器は、前記位置正規化パラメータに含まれる位置正規化画素順位と前記圧縮画像データとを入力情報として、前記位置正規化画素順位に基づく前記圧縮画像データの各縦横位置の平均値に基づいて位置平均を算出し、
前記位置移動器は、前記位置平均および前記圧縮画像データを入力情報として、前記位置平均が前記圧縮画像データの各中心位置となるように、前記圧縮画像データを構成する全画素の位置を移動して、前記学習用位置正規化データおよび前記判別対象位置正規化データを出力することを特徴とする請求項1に記載の観測目標の類識別装置。The position normalizer includes a rank designation position average calculator and a position mover,
The rank-designated position average calculator uses the position normalized pixel rank included in the position normalization parameter and the compressed image data as input information for each vertical and horizontal position of the compressed image data based on the position normalized pixel rank. Calculate the position average based on the average value,
The position mover uses the position average and the compressed image data as input information, and moves the positions of all the pixels constituting the compressed image data so that the position average becomes each central position of the compressed image data. 2. The observation target class identification device according to claim 1, wherein the learning position normalization data and the discrimination target position normalization data are output.
前記位置正規化画素順位決定器は、前記位置正規化パラメータに含まれる位置正規化率と前記圧縮画像データとを入力情報として位置正規化画素順位を決定し、
前記位置正規化器は、前記圧縮画像データおよび前記位置正規化画素順位を入力情報として、前記学習用位置正規化データおよび前記判別対象位置正規化データを生成することを特徴とする請求項1に記載の観測目標の類識別装置。A position normalized pixel rank determiner inserted between the pixel designation data compressor and the position normalizer;
The position normalization pixel rank determiner determines a position normalization pixel rank using the position normalization rate included in the position normalization parameter and the compressed image data as input information;
The position normalizer generates the learning position normalized data and the discrimination target position normalized data using the compressed image data and the position normalized pixel rank as input information. A class identification device for the described observation target.
前記位置正規化画素順位変更器は、前記位置正規化パラメータに含まれる位置正規化画素順位と前記圧縮画像データとを入力情報として、前記位置正規化画素順位を変更するためのパラメータとなる位置正規化変更率を決定するとともに、前記位置正規化変更率に基づいて前記位置正規化画素順位を変更して位置正規化画素順位変更値を生成し、
前記位置正規化器は、前記圧縮画像データおよび前記位置正規化画素順位変更値を入力情報として、前記学習用位置正規化データおよび前記判別対象位置正規化データを生成することを特徴とする請求項1に記載の観測目標の類識別装置。A position normalization pixel rank changer inserted between the pixel designation data compressor and the position normalizer;
The position normalization pixel rank changer is a position normalization that is a parameter for changing the position normalization pixel rank, using the position normalization pixel rank included in the position normalization parameter and the compressed image data as input information. And determining a normalized change rate, and changing the position normalized pixel rank based on the position normalized change rate to generate a position normalized pixel rank change value,
The position normalizer generates the learning position normalized data and the discrimination target position normalized data using the compressed image data and the position normalized pixel rank change value as input information. The observation target type identification device according to 1.
前記位置正規化画素順位決定器は、前記圧縮画像データと、前記圧縮パラメータに含まれるデータ圧縮後の画素数を表す圧縮基準画素数と、前記位置正規化パラメータに含まれる圧縮率依存位置正規化率とを入力情報として、位置正規化画素順位を決定し、
前記位置正規化器は、前記圧縮画像データおよび前記位置正規化画素順位を入力情報として、前記学習用位置正規化データおよび前記判別対象位置正規化データを生成することを特徴とする請求項1に記載の観測目標の類識別装置。A position normalized pixel rank determiner inserted between the pixel designation data compressor and the position normalizer;
The position normalized pixel rank determiner includes the compressed image data, a compression reference pixel number indicating the number of pixels after data compression included in the compression parameter, and a compression rate dependent position normalization included in the position normalization parameter. Using the rate as input information, the position normalized pixel ranking is determined,
The position normalizer generates the learning position normalized data and the discrimination target position normalized data using the compressed image data and the position normalized pixel rank as input information. A class identification device for the described observation target.
前記位置平均算出画素選択器は、前記位置正規化パラメータに含まれる位置正規化画素順位および位置平均算出画素数と前記圧縮画像データとを入力情報として、前記位置正規化画素順位で示される画素の中から前記位置平均算出画素数の画素を選択して、後記位置平均の算出に用いる位置平均算出画素とし、
前記順位指定位置平均算出器は、前記圧縮画像データおよび前記位置平均算出画素を入力情報として、前記圧縮画像データの各縦横位置の平均値に基づいて前記位置平均を算出し、
前記位置移動器は、前記位置平均および前記圧縮画像データを入力情報として、前記位置平均が前記圧縮画像データの各中心位置となるように、前記圧縮画像データを構成する全画素の位置を移動して、前記学習用位置正規化データおよび前記判別対象位置正規化データを出力することを特徴とする請求項1に記載の観測目標の類識別装置。The position normalizer includes a position average calculation pixel selector, a rank designation position average calculator and a position mover,
The position average calculation pixel selector uses the position normalization pixel rank, the position average calculation pixel number included in the position normalization parameter, and the compressed image data as input information, and outputs the pixels indicated by the position normalization pixel rank. Select the pixel of the position average calculation pixel number from among the position average calculation pixels used for calculation of the position average described later,
The rank designation position average calculator calculates the position average based on the average value of the vertical and horizontal positions of the compressed image data, using the compressed image data and the position average calculation pixel as input information,
The position mover uses the position average and the compressed image data as input information, and moves the positions of all the pixels constituting the compressed image data so that the position average becomes each central position of the compressed image data. 2. The observation target class identification device according to claim 1, wherein the learning position normalization data and the discrimination target position normalization data are output.
前記位置基準決定器は、前記位置正規化パラメータに含まれる位置正規化画素順位と前記圧縮画像データとを入力情報として、前記圧縮画像データの全画素を二次元平面上の点とみなした場合に、前記位置正規化画素順位で定義される画素の各座標の最小値/最大値の組み合わせから、位置正規化の基準算出に用いられる位置正規化基準算出点を定義し、前記位置正規化基準算出点を結んだ線分の交点を、位置正規化のための基準位置を表す位置正規化基準として出力し、
前記位置移動器は、前記圧縮画像データおよび前記位置正規化基準を入力情報として、前記位置正規化基準が前記圧縮画像データの各中心位置となるように、前記圧縮画像データを構成する全画素の位置を移動して、前記学習用位置正規化データおよび前記判別対象位置正規化データを出力することを特徴とする請求項1に記載の観測目標の類識別装置。The position normalizer includes a position reference determiner and a position mover;
The position reference determiner, when the position normalized pixel order included in the position normalization parameter and the compressed image data are input information, and all the pixels of the compressed image data are regarded as points on a two-dimensional plane. A position normalization reference calculation point used for position normalization reference calculation is defined from a combination of minimum value / maximum value of each coordinate of the pixel defined by the position normalization pixel order, and the position normalization reference calculation is performed. The intersection of the line segments connecting the points is output as a position normalization reference representing the reference position for position normalization,
The position mover receives the compressed image data and the position normalization reference as input information, and sets all the pixels constituting the compressed image data so that the position normalization reference is a center position of the compressed image data. The observation target class identification device according to claim 1, wherein the learning position normalization data and the discrimination target position normalization data are output by moving a position.
前記画素指定位置平均算出器は、前記位置正規化パラメータに含まれる複数の画素位置を表す位置正規化画素番号と前記圧縮画像データとを入力情報として、前記圧縮画像データに対し、前記位置正規化画素番号から位置平均を算出し、
前記位置移動器は、前記位置平均および前記圧縮画像データを入力情報として、前記位置平均が前記圧縮画像データの各中心位置となるように、前記圧縮画像データを構成する全画素の位置を移動して、前記学習用位置正規化データおよび前記判別対象位置正規化データを出力することを特徴とする請求項1に記載の観測目標の類識別装置。The position normalizer includes a pixel designated position average calculator and a position mover,
The pixel designated position average calculator uses the position normalized pixel numbers representing a plurality of pixel positions included in the position normalization parameter and the compressed image data as input information, and the position normalization is performed on the compressed image data. Calculate the position average from the pixel number,
The position mover uses the position average and the compressed image data as input information, and moves the positions of all the pixels constituting the compressed image data so that the position average becomes each central position of the compressed image data. 2. The observation target class identification device according to claim 1, wherein the learning position normalization data and the discrimination target position normalization data are output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002354908A JP4188068B2 (en) | 2002-12-06 | 2002-12-06 | Observation target class identification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002354908A JP4188068B2 (en) | 2002-12-06 | 2002-12-06 | Observation target class identification device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004184370A JP2004184370A (en) | 2004-07-02 |
JP4188068B2 true JP4188068B2 (en) | 2008-11-26 |
Family
ID=32755753
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002354908A Expired - Fee Related JP4188068B2 (en) | 2002-12-06 | 2002-12-06 | Observation target class identification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4188068B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3023808A4 (en) * | 2013-07-18 | 2017-09-06 | Mitsubishi Electric Corporation | Target type identification device |
-
2002
- 2002-12-06 JP JP2002354908A patent/JP4188068B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004184370A (en) | 2004-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6944331B2 (en) | Locating regions in a target image using color matching, luminance pattern matching and hue plane pattern matching | |
US20170192515A1 (en) | Hand gesture recognition for cursor control | |
CN111652292B (en) | Similar object real-time detection method and system based on NCS and MS | |
CN110490158B (en) | Robust face alignment method based on multistage model | |
JP4932177B2 (en) | Coin classification device and coin classification method | |
KR20180014677A (en) | System and method for improved scoring of 3d poses and spurious point removal in 3d image data | |
JP2006350704A (en) | Learning method of discriminator, and face discrimination method, device, and program | |
CN102103698A (en) | Image processing apparatus and image processing method | |
JP5372183B2 (en) | Coin classification device and coin classification method | |
CN107292299B (en) | Side face recognition methods based on kernel specification correlation analysis | |
CN108287303A (en) | A kind of breaker mechanic property scene charged test method based on NCC-P-S optimization algorithms | |
CN116934747B (en) | Fundus image segmentation model training method, fundus image segmentation model training equipment and glaucoma auxiliary diagnosis system | |
CN111798404A (en) | Iris image quality evaluation method and system based on deep neural network | |
CN117576747B (en) | Face data acquisition and analysis method, system and storage medium based on deep learning | |
JP4188068B2 (en) | Observation target class identification device | |
CN113298007A (en) | Small sample SAR image target identification method | |
Wei et al. | CFPA-Net: cross-layer feature fusion and parallel attention network for detection and classification of prohibited items in x-ray baggage images | |
CN110473169A (en) | A kind of emulation picture confidence evaluation method | |
JP4140826B2 (en) | Observation target class identification device | |
CN106056599B (en) | A kind of object recognition algorithm and device based on Object Depth data | |
JP4140827B2 (en) | Observation target class identification device | |
CN114494891A (en) | Dangerous article identification device and method based on multi-scale parallel detection | |
CN113538404A (en) | Cover plate glass defect detection method and system based on anchor point selection | |
Colombo et al. | Face^ 3 a 2D+ 3D Robust Face Recognition System | |
Almehio et al. | Level-line primitives for image registration with figures of merit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050926 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071225 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080603 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080703 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20080808 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080909 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080910 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110919 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110919 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120919 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130919 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |