JP4034003B2 - Flying object image processing apparatus and flying object image processing method - Google Patents

Flying object image processing apparatus and flying object image processing method Download PDF

Info

Publication number
JP4034003B2
JP4034003B2 JP11546799A JP11546799A JP4034003B2 JP 4034003 B2 JP4034003 B2 JP 4034003B2 JP 11546799 A JP11546799 A JP 11546799A JP 11546799 A JP11546799 A JP 11546799A JP 4034003 B2 JP4034003 B2 JP 4034003B2
Authority
JP
Japan
Prior art keywords
target
image
flying object
relative position
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP11546799A
Other languages
Japanese (ja)
Other versions
JP2000304499A (en
Inventor
岳也 島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP11546799A priority Critical patent/JP4034003B2/en
Publication of JP2000304499A publication Critical patent/JP2000304499A/en
Application granted granted Critical
Publication of JP4034003B2 publication Critical patent/JP4034003B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明は、飛来する標的(例えば、ミサイル弾頭)に飛翔体を直撃して、その標的を撃破する際、その標的の照準点に飛翔体を誘導する飛翔体の画像処理装置及び飛翔体の画像処理方法に関するものである。
【0002】
【従来の技術】
図25は飛翔体の前方に搭載されたカメラにより撮影された画像を示す画像図であり、図26〜図28は例えば特開平6−323788号公報に示された従来の飛翔体の画像処理装置を説明する説明図である。図において、1は迎撃目標である標的、2は近赤外線波長センサにより取得された近赤外線画像のうち、標的1の排気画像を示す排気画像データセグメント、3は中赤外線波長センサにより取得された中赤外線画像のうち、標的1の本体画像を示す本体画像データセグメント、4は中赤外線波長センサにより取得された中赤外線画像のうち、標的1の排気画像を示す排気画像データセグメントである。
【0003】
従来の画像処理装置においては、近赤外線波長センサ及び中赤外線波長センサを用いて、排気画像データセグメント2,4と本体画像データセグメント3を取得すると、図28に示すように、中赤外線波長センサの排気画像データセグメント4に対して、図心O,慣性主軸ξの傾き角α,主軸方向の長さL1 ,直交軸方向の長さL2 を求める。
同様にして、近赤外線波長センサの排気画像データセグメント2、及び中赤外線波長センサの本体画像データセグメント3に対しても、同様の諸量を求める。
【0004】
各画像データセグメント2,3,4に対する諸量を求めると、近赤外線波長センサにより取得された画像と、中赤外線波長センサにより取得された画像に対して、各画像データセグメント2,3,4の位置相関を取ることにより、標的1の排気と、それ以外のものを識別する。
即ち、中赤外線画像における画像データセグメントの中で、その位置が近赤外線画像における画像データセグメントを含み、慣性主軸ξの傾き角αが接近しているものを標的1の排気画像データセグメント4として認識する。
【0005】
次に、中赤外線波長センサの排気画像データセグメント4の慣性主軸ξの傾き角αから標的1の機軸を検出する。
一般に高温の排気画像データセグメント2が、それより低温の排気画像データセグメント4より、標的1の本体に近い位置にあることを利用して、中赤外線波長センサの排気画像データセグメント4の図心Oから近赤外線波長センサの排気画像データセグメント2の図心Oに向かう方向を機首方向として検出する。
【0006】
そして、標的1の先端部である中赤外線波長センサの本体画像データセグメント3の図心Oと、中赤外線波長センサの排気画像データセグメント4の図心Oとの中点を最適な誘導点とする誘導信号を出力することで、飛翔体を標的1に誘導する。
上記のように、標的1の本体画像情報と排気画像情報の双方に基づいて誘導点を算出しているため、本体画像の図心と排気画像の図心との位置ずれによる誘導点の誤検出を防止することができ、誘導精度を向上させることができる。
【0007】
【発明が解決しようとする課題】
従来の飛翔体の画像処理装置は以上のように構成されているので、中赤外線波長センサの本体画像データセグメント3の図心Oと、中赤外線波長センサの排気画像データセグメント4の図心Oとの中点を誘導点とするが、一般的に標的画像に対する二次元的な図心は、標的1の三次元的な重心の画像面に対する光学的射影点に対応しているとは限らないため(標的1の姿勢により、図心と重心が一致する場合と一致しない場合がある)、標的画像の図心から必ずしも標的1の照準点を正確に求めることができず、標的1の撃破率が低下するなどの課題があった。
ここで、標的1の照準点とは、その点に飛翔体が命中した場合、標的1を撃破できる可能性が最も高いピンポイントであり、それは例えば標的の重心である。
【0008】
この発明は上記のような課題を解決するためになされたもので、標的の照準点を正確に算定することができる飛翔体の画像処理装置及び飛翔体の画像処理方法を得ることを目的とする。
【0009】
【課題を解決するための手段】
この発明に係る飛翔体の画像処理装置は、方向特定手段により特定された慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定する推定手段を設けたものである。
【0010】
この発明に係る飛翔体の画像処理装置は、方向特定手段により特定された慣性主軸方向から標的の全幅値を計算し、その全幅値と標的の形状に関するデータから標的の相対位置及び相対姿勢を推定する推定手段を設けたものである。
【0011】
この発明に係る飛翔体の画像処理装置は、推定手段により推定された相対位置及び相対姿勢から標的の推定画像を生成して、その推定画像と標的画像の誤差を計算し、その誤差が減少する方向に標的の全幅値を更新する更新手段を設けたものである。
【0012】
この発明に係る飛翔体の画像処理装置は、誤差の勾配を計算し、その勾配を用いて標的の全幅値を更新する更新手段を設けたものである。
【0013】
この発明に係る飛翔体の画像処理装置は、標的画像及び推定画像の面積と断面二次モーメントを計算し、その面積と断面二次モーメントを用いて標的の全幅値を更新する更新手段を設けたものである。
【0014】
この発明に係る飛翔体の画像処理装置は、方向特定手段により特定された慣性主軸方向において標的の最大幅を与える線分の両端点に位置する画素の輝度値と、標的画像の特徴点における開口率とから標的の全幅値を計算し、その全幅値と標的の形状に関するデータから標的の相対位置及び相対姿勢を推定する推定手段を設けたものである。
【0015】
この発明に係る飛翔体の画像処理装置は、第1の方向特定手段により特定された慣性主軸方向と第2の方向特定手段により特定された慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定する推定手段を設けたものである。
【0016】
この発明に係る飛翔体の画像処理装置は、第1の方向特定手段により特定された慣性主軸方向に基づいて標的の最大幅を与える線分の両端点に位置する画素を選択するとともに、第2の方向特定手段により特定された慣性主軸方向に基づいて標的の最大幅を与える線分の両端点に位置する画素を選択し、それらの画素の位置関係から標的の相対位置及び相対姿勢を推定する推定手段を設けたものである。
【0017】
この発明に係る飛翔体の画像処理方法は、標的画像から標的の幾何特性量を演算し、その幾何特性量から標的の慣性主軸方向を特定すると、その慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定し、その相対位置及び相対姿勢から標的の照準点を算定するようにしたものである。
【0018】
この発明に係る飛翔体の画像処理方法は、標的の慣性主軸方向から標的の全幅値を計算し、その全幅値と標的の形状に関するデータから標的の相対位置及び相対姿勢を推定するようにしたものである。
【0019】
この発明に係る飛翔体の画像処理方法は、標的の相対位置及び相対姿勢から標的の推定画像を生成して、その推定画像と標的画像の誤差を計算し、その誤差が減少する方向に標的の全幅値を更新するようにしたものである。
【0020】
この発明に係る飛翔体の画像処理方法は、誤差の勾配を計算し、その勾配を用いて標的の全幅値を更新するようにしたものである。
【0021】
この発明に係る飛翔体の画像処理方法は、標的画像及び推定画像の面積と断面二次モーメントを計算し、その面積と断面二次モーメントを用いて標的の全幅値を更新するようにしたものである。
【0022】
この発明に係る飛翔体の画像処理方法は、標的の慣性主軸方向において標的の最大幅を与える線分の両端点に位置する画素の輝度値と、標的画像の特徴点における開口率とから標的の全幅値を計算し、その全幅値と標的の形状に関するデータから標的の相対位置及び相対姿勢を推定するようにしたものである。
【0023】
この発明に係る飛翔体の画像処理方法は、一方の慣性主軸方向と他方の慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定し、その相対位置及び相対姿勢から標的の照準点を算定するようにしたものである。
【0024】
この発明に係る飛翔体の画像処理方法は、一方の慣性主軸方向に基づいて標的の最大幅を与える線分の両端点に位置する画素を選択するとともに、他方の慣性主軸方向に基づいて標的の最大幅を与える線分の両端点に位置する画素を選択し、それらの画素の位置関係から標的の相対位置及び相対姿勢を推定するようにしたものである。
【0025】
【発明の実施の形態】
以下、この発明の実施の一形態を説明する。
実施の形態1.
図1はこの発明の実施の形態1による飛翔体の画像処理装置を示す構成図であり、図において、11は飛翔体の前方に搭載され、標的を撮影する画像センサ、12は画像センサ11により撮影された画像のうち、標的部分と背景部分を識別する前処理装置、13は前処理装置12により識別された標的部分(以下、標的画像という)から標的の幾何特性量を算出する幾何特性算出装置(特性量演算手段)、14は幾何特性算出装置13により算出された幾何特性量から標的の慣性主軸方向を2個推定する慣性主軸推定装置(方向特定手段)、15は標的の特徴点における標的先端部を検出する特徴点検出装置(推定手段)である。
【0026】
16は標的の形状及び照準点に関するモデルデータを格納する標的データベース(推定手段)、17は慣性主軸推定装置14により推定された2個の慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定する相対状態量推定装置(推定手段)、18は特徴点検出装置15により検出された標的先端部等を参照して、2個の慣性主軸方向から機軸を選択する機軸選択装置、19は2個の慣性主軸方向から標的の全幅値を計算する全幅算出装置、20は全幅算出装置19により計算された全幅値と標的データベース16に格納されている標的の形状に関するモデルデータとを照合して、標的の相対位置及び相対姿勢を推定する照合処理装置、21は相対状態量推定装置17により推定された相対位置及び相対姿勢と標的の照準点に関するモデルデータから標的の照準点を算定する照準点算定装置(照準点算定手段)である。
なお、図2はこの発明の実施の形態1による飛翔体の画像処理方法を示すフローチャートである。
【0027】
次に動作について説明する。
この実施の形態1では、標的として例えばミサイル弾頭を想定し、その形状を図3に示すような円錐31で近似する。
以下の二つの座標系を定義する。
【0028】
・カメラ座標系(XC ,YC ,ZC
カメラ座標系は、飛翔体の前方に搭載された画像センサ11におけるカメラ光学中心に原点OC を持ち、ZC 軸を光軸方向に定める。また、XC 軸を画像面32の水平方向に定め、YC 軸をXC 軸及びZC 軸と垂直方向に定める。
・標的固定座標系(XB ,YB ,ZB
標的固定座標系は、円錐31の底面中心に原点OB を持ち、底面内にXB ,YB 軸、対称軸方向にZB 軸を定める。
【0029】
この時、飛翔体に搭載された画像センサ11は、飛翔体の前方に位置する標的を含む画像を取得する(ステップST1)。
前処理装置12は、画像センサ11が標的を含む画像を取得すると、その画像を構成する画素のうち、標的部分を構成する画素と背景部分を構成する画素を識別し、各画素を二値化処理する(ステップST2)。
具体的には、画像センサ11により取得された画像を構成する画素のうち、標的部分を構成する画素の画素値は、背景部分を構成する画素の画素値と比べて大きい性質があるので、その画像を構成する各画素の画素値を閾値と比較し、その閾値より大きい画素値を有する画素を、標的部分を構成する画素と認識し、その閾値より小さい画素値を有する画素を、背景部分を構成する画素と認識する。
ここで、画像センサ11の画像サイズをIW ×IH 、前処理後の画像における(i,j)番目の画素値をI(i,j)で記述すると、下記のように表すことができる。
【0030】
【数1】

Figure 0004034003
【0031】
幾何特性算出装置13は、前処理装置12が標的部分を構成する画素と背景部分を構成する画素を識別すると、標的部分の幾何特性量、即ち、標的の面積S,図心(xc ,yc ),断面二次モーメントJxx,Jxy,Jyyを下記に示すように計算する(ステップST3)。
【0032】
【数2】
Figure 0004034003
【0033】
慣性主軸推定装置14は、幾何特性算出装置13が幾何特性量を計算すると、標的の断面二次モーメントJxx,Jxy,Jyyに基づいて、標的画像における慣性主軸方向を推定する(ステップST4)。
一般に慣性主軸は、図4の33,34に示すように、標的画像内において2個存在し(最大,最小慣性主軸に対応)、その各々は直交関係を有しているが、そのいずれかと画像面水平方向36とのなす角度をαとすれば、下記の関係を満足する。なお、図4において、35は図心、37は画像面の垂直方向である。
tan2α=2Jxy/(Jyy−Jxx
0≦α≦π
【0034】
また、特徴点検出装置15は、幾何特性算出装置13が幾何特性量を計算すると、標的の特徴点である標的先端部を検出する(ステップST5)。
図5に示すように、飛翔体に対する標的の姿勢によって、標的先端部39が可視な場合(右)と、可視でない場合(左)が存在する。なお、図5において、38は標的機軸、40は最小慣性主軸である。
そこで、標的先端部39が可視な場合には、例えば文献(徐、辻、"3次元ビジョン"、共立出版、pp.36−37、1998)等で紹介されているSUSANオペレータ等のコーナ検出器を用いて、標的先端部39の位置(xv ,yv )を検出する。
【0035】
SUSANオペレータでは、図6に示すように、例えば、円形のマスクa〜dを画像に対してそれぞれ重ね合わせると、そのマスクa〜d内の画素の中で、マスク中心の画素の輝度値と同じ輝度値を持つ画素の個数を数え上げる処理を実行する。
例えば、背景42内にある画素P1 を中心とするマスクa、並びに、標的41内にある画素P2 を中心とするマスクbでは、その個数がマスク面積と等しくなる。一方、直線輪郭上の画素P3 を中心とするマスクcでは、その個数がマスク面積の半分となり、また、コーナ画素P4 を中心とするマスクdでは、その個数がマスク面積の1/4となる。
【0036】
標的画像における各画素に対して、上記のような処理を実施し、その個数が最小となる画素、即ち、画素P4 を標的先端部39として検出する。
なお、個数に対する閾値を設けることで、標的先端部39が可視か否かも判別することができるので、図5における左右どちらの場合かを判別することができる。
【0037】
次に、相対状態量推定装置17は、飛翔体に対する標的の相対位置及び相対姿勢を推定する。
具体的には、まず、機軸選択装置18が、慣性主軸推定装置14により推定された2個の慣性主軸のうち、どちらが標的の機軸に対応するのかを判別する。
図5に示すように、飛翔体に対する標的の姿勢によって二種類の画像が存在するが、右図のような場合には、特徴点検出装置15により標的先端部39が検出されるため、その標的先端部39と2個の慣性主軸との間の距離を計算し、小さい方を標的機軸38として選択する(ステップST6)。
一方、左図のような場合には、特徴点検出装置15により標的先端部39が検出されないため、慣性主軸回りの慣性モーメントが大きい方(最大慣性主軸)を標的機軸38として選択する(ステップST6)。
【0038】
そして、全幅算出装置19は、機軸選択装置18が標的機軸38を選択すると、図7に示すように、標的画像における2個の慣性主軸方向の全幅値を算出する(ステップST7)。機軸方向の全幅値をh、機軸方向と直交する方向の全幅値をdとする。
なお、全幅値の算出方法としては、例えば、慣性主軸を平行移動しながら、慣性主軸上に存在する画素の画素値(前処理装置12による前処理後の画素値)をスキャンし、“1”の画素値が最も連続する線分の長さを標的の全幅値とする。
【0039】
そして、照合処理装置20は、全幅算出装置19が標的の全幅値h,dを算出すると、標的データベース16には、図8に示すように、標的であるミサイル弾頭の形状に関するデータ(高さH、底面直径D)が格納されているので、これらのデータと全幅値h,dを照合して、標的の相対位置及び相対姿勢を推定する(ステップST8)。
【0040】
例えば、図5の左図に示すような標的画像の場合、標的の相対姿勢は、カメラ座標系から標的固定座標系に対する3−2−1オイラー角を用いて表すと下記のように与えられる。
θx =±cos-1(h/d)
θy =π
θz =αmin −π
また、標的の相対位置は下記のように与えられる。
C (rB )=D[xc −IW /2]/d
C (rB )=D[yc −IH /2]/d
C (rB )=D・f/d
ここで、αmin は画像面水平方向からの最小慣性主軸40の傾き角、fはカメラ焦点距離である。
【0041】
一方、図5の右図に示すような標的画像の場合、標的の相対姿勢は、下記のように与えられる。
Figure 0004034003
また、標的の相対位置は下記のように与えられる。
C (rB )=D[xv −IW /2]/d−H・sinθx ・sinθz
C (rB )=D[yv −IH /2]/d+H・sinθx ・cosθz
C (rB )=D・f/d
ここで、αsym は画像面水平方向からの標的機軸38の傾き角である。
【0042】
最後に、照準点算定装置21は、相対状態量推定装置17が標的の相対位置及び相対姿勢を推定すると、下記に示すように、標的データベース16に格納されている照準点43の位置情報を参照して、その相対位置及び相対姿勢から標的の照準点を算定する(ステップST9)。
【0043】
【数3】
Figure 0004034003
【0044】
以上で明らかなように、この実施の形態1によれば、標的画像から標的の幾何特性量を演算し、その幾何特性量から標的の慣性主軸方向を特定すると、その慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定し、その相対位置及び相対姿勢から標的の照準点を算定するように構成したので、飛翔体に対する標的の相対位置及び相対姿勢が変化しても、標的の照準点を正確に算定することができる効果を奏する。
【0045】
実施の形態2.
図9はこの発明の実施の形態2による飛翔体の画像処理装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
22は相対状態量推定装置17により推定された相対位置及び相対姿勢から標的の推定画像(二値化画像)を生成する推定画像生成装置(更新手段)、23は推定画像生成装置22により生成された推定画像と前処理装置12により前処理された標的画像の誤差である推定誤差を計算する推定誤差算出装置(更新手段)、24は推定誤差算出装置23により計算された推定誤差の勾配を計算する勾配計算装置(更新手段)、25は勾配計算装置24により計算された勾配に基づいて推定誤差が減少する方向に標的の全幅値d,hを更新する高次全幅更新装置(更新手段)である。
【0046】
次に動作について説明する。
上記実施の形態1では、相対状態量推定装置17が標的の相対位置と相対姿勢を推定すると、その相対位置と相対姿勢から直ちに標的の照準点を算定するものについて示したが、その相対位置と相対姿勢から推定画像を生成して、その推定画像と標的画像の誤差を求め、その誤差が最小化するように標的の全幅値d,hを更新してから、標的の照準点を算定するようにしてもよい。
【0047】
上記実施の形態1の場合、慣性主軸方向の全幅値d,hをピクセル精度で算出して、標的の相対位置及び相対姿勢を推定するので、飛翔体に対する標的の相対位置が比較的近距離にあり、標的画像に対する画像センサ分解能が十分に確保されている場合には問題ないが、飛翔体に対する標的の相対位置が遠距離にあり、標的画像に対する画像センサ分解能が十分に確保されない場合には、相対位置及び相対姿勢の推定精度が劣化する。
【0048】
そこで、この実施の形態2では、標的画像に対する画像センサ分解能が十分に確保されない場合でも、相対位置及び相対姿勢の推定精度を高めるため以下に示す処理を実行する。
【0049】
例えば、標的の相対位置が比較的遠距離にあり、図10に示すような画像が取得されたものとする。この場合には、標的の慣性主軸方向の最大幅h’,d’は、図中×印が付された4個の画素の中心を基準として測定される。
この最大幅h’,d’は、実際に測定されるべきd,hに対し、常に画像センサ11における量子化分の誤差が含まれる。
この量子化誤差が、照合処理装置20における標的の相対位置及び相対姿勢の推定値に対する推定誤差として現れ、その結果、照準点の算定精度を低下させることになる。
【0050】
同様な状況を図11及び図12を用いて説明する。両図には仮想的に標的の輪郭が実線で描かれている。このような2つの画像においては、どちらの場合においても、図中斜線で示された4個の画素の中心を基準として全幅値が算出されるため、照合処理装置20において推定される相対位置及び相対姿勢の値には、両者の間で差が生じない。
【0051】
しかしながら、それぞれの画像を領域全体で眺めれば、図中黒く塗りつぶされた画素44,45が輝度値を持つか否かの差が存在する。
即ち、図11の場合には、画素44,45が輝度値を持ち、図12の場合には、画素44,45が輝度値を持たない。
したがって、慣性主軸方向の最大幅といった一次元直線上の特徴量ではなく、画像全体に渡る更に高次の特徴量を利用すれば、両者の差異を推定量に反映することが可能であり、画像センサ11における量子化誤差の影響を低減することができる。
【0052】
推定画像生成装置22は、相対状態量推定装置17が相対位置及び相対姿勢を推定すると、その相対位置及び相対姿勢から標的の推定画像(二値化画像)を生成する。
そして、推定誤差算出装置23は、推定画像生成装置22が標的の推定画像を生成すると、その推定画像と前処理装置12により前処理された標的画像(二値化画像)の誤差である推定誤差eを計算する。
即ち、推定画像と標的画像における画素間の輝度の二乗誤差、あるいは、等価的に輝度差の絶対値の総和を次のように定義して、推定誤差eを計算する。なお、二値化画像のため、両画像間における画素値の二乗誤差の総和と絶対値の総和は同じ値となる。
【0053】
【数4】
Figure 0004034003
【0054】
勾配計算装置24は、推定誤差算出装置23が推定誤差eを計算すると、その推定誤差eを全幅値d,hで遍微分して、その推定誤差eの勾配∂e/∂d,∂e/∂hを計算する。
【0055】
そして、高次全幅更新装置25は、勾配計算装置24が推定誤差eの勾配∂e/∂d,∂e/∂hを計算すると、その勾配∂e/∂d,∂e/∂hを用いて、その推定誤差eが減少する方向に慣性主軸方向の全幅値d,hを更新する。
即ち、前回の全幅値(ここでは説明の便宜上、前回の全幅値をdold ,hold で表す)から(∂e/∂d)・Δd,(∂e/∂h)・Δhを減算することにより、慣性主軸方向の全幅値d,hを更新する(ここでは説明の便宜上、更新後の全幅値をdnew ,hnew で表す)。
new =dold −(∂e/∂d)・Δd
new =hold −(∂e/∂h)・Δh
ただし、Δd,Δhは推定誤差eを減少させるように決定される刻み幅である。
【0056】
照合処理装置20は、高次全幅更新装置25が慣性主軸方向の全幅値d,hを更新すると、上記実施の形態1と同様にして、更新後の全幅値に基づいて相対位置及び相対姿勢の候補値を算出する。
このようにして、照合処理装置20が相対位置と相対姿勢の候補値を算出すると、今度は、その相対位置と相対姿勢の候補値から標的の推定画像を生成して、上記の処理を繰り返し、更に相対位置及び相対姿勢の候補値を算出する。
【0057】
そして、推定誤差算出装置23は、上記の処理が複数回繰り返された後、推定誤差eが停留値を取るところで、標的の相対位置及び相対姿勢の候補値を確定値として、照準点算定装置21に出力する。
照準点算定装置21は、推定誤差算出装置23が標的の相対位置及び相対姿勢を出力すると、上記実施の形態1と同様にして、飛翔体に対する標的の照準点を算出する。
【0058】
以上で明らかなように、この実施の形態2によれば、標的の相対位置及び相対姿勢から標的の推定画像を生成して、その推定画像と標的画像の誤差を計算し、その誤差が減少する方向に標的の全幅値を更新するように構成したので、全幅値をサブピクセル精度で算出可能となり、飛翔体に対する標的の相対距離が比較的遠距離の場合においても、画像センサ11の量子化誤差の影響が抑えられるようになり、その結果、標的の相対位置及び相対姿勢を精度よく推定することができる効果を奏する。
【0059】
また、二つの慣性主軸方向の全幅値d,hをパラメータとする2変数に対する勾配計算を実施して全幅値d,hを更新し、その全幅値d,hを用いて照合処理装置20から間接的に標的の相対位置と相対姿勢を推定するように構成したので、標的の相対位置及び相対姿勢の6変数をパラメータとして直接的に勾配計算を実施するよりも、効率的に相対位置と相対姿勢を推定することができる効果を奏する。
【0060】
実施の形態3.
図13はこの発明の実施の形態3による飛翔体の画像処理装置を示す構成図であり、図において、図9と同一符号は同一または相当部分を示すので説明を省略する。
26は標的画像及び推定画像の面積と断面二次モーメントを算出する高次特徴量算出装置(更新手段)、27は高次特徴量算出装置26により算出された面積と断面二次モーメントを用いて標的の全幅値を更新する高次全幅更新装置(更新手段)である。
【0061】
次に動作について説明する。
上記実施の形態2では、推定誤差eの勾配を計算し、その勾配を用いて慣性主軸方向の全幅値d,hを更新するものについて示したが、標的画像及び推定画像の面積と断面二次モーメントを算出し、その面積と断面二次モーメントを用いて標的の全幅値d,hを更新するようにしてもよい。
【0062】
具体的には、高次特徴量算出装置26は、推定画像生成装置22より生成された標的の推定画像の面積と、機軸に垂直な慣性主軸回りの断面二次モーメントを算出する。
ここで、断面二次モーメントに関しては、標的画像が図14の左図のような場合には、図心35を通る標的機軸38に垂直な慣性主軸40回りの値を計算する。
一方、図14の右図のような場合には、標的先端部39を通る標的機軸38に垂直な軸46回りの値を計算する。
【0063】
高次全幅更新装置27は、高次特徴量算出装置26が高次特徴量(面積及び断面二次モーメント)を算出すると、その高次特徴量と、幾何特性算出装置13により算出された幾何特性量(面積及び断面二次モーメント)を用いて、両者間の差を評価関数とする。
即ち、標的面積の差を第1の評価関数とし、断面二次モーメントの差を第2の評価関数とする。
【0064】
そして、高次全幅更新装置27は、第1の評価関数が減少する方向に、標的機軸38に垂直な慣性主軸40方向の全幅値を更新し、第2の評価関数が減少する方向に、機軸方向の全幅値を更新する。
即ち、図14の左図のような画像の場合には、原画像である標的画像と推定画像に対して算出された標的面積を用いて、標的機軸38に垂直な慣性主軸40の方向の全幅値dを次のように更新する。
new =dold ×(Sorg /Sest1/2
ここで、Sorg は標的画像における標的面積であり、Sest は推定画像における標的面積である。
【0065】
標的機軸38の方向の全幅値hは、標的機軸38に垂直な慣性主軸回りの断面二次モーメントに基づいて次のように更新する。
new =hold ×(Jξξ org /Jξξ est1/3
ξξ=Jyy・sin2 α+Jxx・cos2 α−Jxy・sin2α
ここで、Jξξ org は標的画像における標的機軸38に垂直な慣性主軸40回りの断面二次モーメント、Jξξ est は推定画像における標的機軸38に垂直な慣性主軸40回りの断面二次モーメントである。
【0066】
一方、図14の右図のような画像の場合には、原画像である標的画像と推定画像に対して算出された標的面積を用いて、標的機軸38に垂直な慣性主軸40の方向の全幅値dを、図14の左図の場合と同様に更新する。
標的機軸38の方向の全幅値hは、標的機軸38に垂直な慣性主軸回りの断面二次モーメントに基づいて次のように更新する。
new =hold ×(Jξ’ξ’ org /Jξ’ξ’ est1/3
ここで、Jξ’ξ’ org は標的画像における標的先端部39を通る標的機軸38に垂直な慣性主軸46回りの断面二次モーメント、Jξ’ξ’ est は推定画像における標的先端部39を通る標的機軸38に垂直な慣性主軸46回りの断面二次モーメントである。
【0067】
その他は上記実施の形態2と同様であるため説明を省略する。
以上で明らかなように、この実施の形態3によれば、標的画像及び推定画像の面積と断面二次モーメントを計算し、その面積と断面二次モーメントを用いて標的の全幅値を更新するように構成したので、全幅値をサブピクセル精度で算出可能となり、飛翔体に対する標的の相対距離が比較的遠距離の場合においても、画像センサ11の量子化誤差の影響が抑えられるようになり、その結果、標的の相対位置及び相対姿勢を精度よく推定することができる効果を奏する。
【0068】
また、標的の相対位置と相対姿勢を推定する際、比較的簡単に算出することが可能な標的画像の面積や断面二次モーメントに基づいて推定することができるので、勾配計算等の複雑な演算処理が不要になり、その結果、上記実施の形態2よりも、飛翔体に対する標的の相対位置や相対姿勢を効率的に推定することができる効果を奏する。
【0069】
実施の形態4.
図15はこの発明の実施の形態4による飛翔体の画像処理装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
61は多値化処理を実施して標的部分と背景部分を識別する前処理装置、62は前処理装置61により識別された標的部分(以下、標的画像という)から標的の幾何特性量を算出する幾何特性算出装置(特性量演算手段)、63は標的の特徴点における標的先端部を検出する特徴点検出装置(推定手段)、64は標的画像の特徴点における開口率を算出する開口率算出装置(推定手段)である。
【0070】
65は慣性主軸方向において標的の最大幅を与える線分の両端点に位置する画素の輝度値と、標的画像の特徴点における開口率とから標的の全幅値を計算し、その全幅値と標的の形状に関するモデルデータから標的の相対位置及び相対姿勢を推定する相対状態量推定装置(推定手段)、66は慣性主軸方向において標的の最大幅を与える線分の両端点に位置する画素の輝度値と、標的画像の特徴点における開口率とから標的の全幅値を計算する高次全幅算出装置である。
【0071】
次に動作について説明する。
前処理装置61は、画像センサ11が標的を含む画像を取得すると、その画像を構成する画素のうち、標的部分を構成する画素と背景部分を構成する画素を識別し、各画素を多値化処理する。
即ち、背景部分を構成する画素の画素値を零とする一方、標的領域では、その領域における最大輝度値で、標的部分を構成する画素の画素値を正規化し、標的領域において階調を持った画像を生成する。
【0072】
幾何特性算出装置62は、前処理装置61が各画素の多値化処理を実施すると、標的部分の幾何特性量、即ち、標的の面積S,図心(xc ,yc ),断面二次モーメントJxx,Jxy,Jyyを計算する。
幾何特性算出装置62の計算は、計算対象となる画像が多値化画像になるだけで、基本的には上記実施の形態1における幾何特性算出装置13と同様の計算である(計算においては、標的部分を構成する画素の輝度値を全て1に置き換えればよい)。
【0073】
慣性主軸推定装置14は、幾何特性算出装置13が幾何特性量を計算すると、上記実施の形態1と同様に、標的の断面二次モーメントJxx,Jxy,Jyyに基づいて、標的画像における慣性主軸方向を推定する。
また、特徴点検出装置63は、幾何特性算出装置62が幾何特性量を計算すると、上記実施の形態1と同様に、標的の特徴点である標的先端部を検出する。
【0074】
なお、SUSANオペレータ等のコーナ検出器を用いて標的先端部を検出する場合、多値化画像に対しても二値化画像の場合と同様に円形のマスクを作用させ、そのマスク内の画素の中で、マスク中心の画素の輝度値と近い輝度値を持つ画素数を数え上げる。標的画像における各画素に対してこの処理を実施し、その個数が最小となる画素を標的先端部として検出する。
【0075】
そして、開口率算出装置64は、特徴点検出装置63により標的の特徴点である標的先端部が検出された場合には、その標的先端部における開口率を算出する。
即ち、標的先端部の近傍領域における画素値に基づいて標的先端部の開口率を算出する。
【0076】
図16に示すように、特徴点検出装置63により検出された標的先端部39を中心とする円形マスク47を標的画像に重ね合わせて、マスク内領域において、その中心の画素の輝度と近い輝度値を有する画素の個数N(xv ,yv )を数える。
そして、画素の個数N(xv ,yv )を数えると、マスク面積Mで除算して、開口率φを算出する。
φ=N(xv ,yv )/M
なお、N(xv ,yv )に関しては、仮に、特徴点検出装置63において、SUSANオペレータを用いるのであれば、これは既に計算された値である。従って、開口率の算出処理は、SUSANオペレータに対する付加的な処理として済ませることができる。
【0077】
次に、相対状態量推定装置65は、飛翔体に対する標的の相対位置及び相対姿勢を推定する。
具体的には、まず、機軸選択装置18が上記実施の形態1と同様に、慣性主軸推定装置14により推定された2個の慣性主軸のうち、どちらが標的の機軸に対応するのかを判別する。
【0078】
そして、高次全幅算出装置66は、開口率算出装置64により算出された標的先端部における開口率、並びに、二つの慣性主軸方向それぞれにおいて標的の最大幅を与える線分の両端点に対応する画素の輝度値に基づいて、慣性主軸方向それぞれにおける標的の全幅値をサブピクセル精度で算出する。
【0079】
一例として、図17のような標的画像について考える。
図17において、慣主軸方向の最大幅を与える線分48,49の両端点に対応する画素は、図中斜線で示されるP1 〜P4 である。
標的先端部を示す画素P1 を拡大したのが図18である。
【0080】
標的領域における各画素の輝度値は、近似的にその画素を占める標的領域の面積に比例するものと考えられる。
即ち、標的領域内部では画素値が一様に1であり、標的輪郭部における画素値は各画素に占める標的領域の割合(面積比率)で与えられるものと、近似的に見なすことができる。
【0081】
そこで、図18に示すように画素P1 を、開口率算出装置64で求めた開口率φを用いて、二つの領域(図中斜線で示された領域50とそれ以外の領域51)に分割する。
即ち、図18に示すように、標的画像の図心35を通る機軸38上の1点を頂点V1 とし、頂点V1 から標的機軸38に対して、対称に角度ψ=2πφをなす直線52,53を描いて、画素を二つの領域50,51に分割する。
そして、画素P1 の面積に対する図中斜線で示された領域50の面積比率が、画素P1 の持つ輝度値と等しくなるように画素P1 内における頂点V1 の位置を決定する。
【0082】
また、図17における特徴点以外の画素P2 〜P4 においては、例えば、P2 において、図19に示すように画素P2 を通る標的機軸38に垂直な慣性主軸54a上の1点をV2 とし、頂点V2 を通り慣性主軸54aに垂直な直線54bで画素を二つの領域(図中斜線で示された領域55とそれ以外の領域56)に分割する。
そして、画素P2 の面積に対する図中斜線で示された領域55の面積比率が、画素P2 の持つ輝度値と等しくなるように点V2 の位置を決定する。画素P3 ,P4 においても同様な手法で点V3 ,V4 を決定する。
【0083】
こうして決定された点V1 〜V4 の位置から、二つの慣性主軸方向それぞれにおける標的最大幅をサブピクセル精度で算出し、機軸方向の全幅をh、それと直交する方向の全幅をdとする。
【0084】
そして、照合処理装置20は、全幅算出装置19が標的の全幅値d,hを算出すると、上記実施の形態1と同様に、標的の相対位置及び相対姿勢を推定する。
最後に、照準点算定装置21は、相対状態量推定装置65が標的の相対位置及び相対姿勢を推定すると、上記実施の形態1と同様に、標的の照準点を算定する。
【0085】
以上で明らかなように、この実施の形態4によれば、標的の慣性主軸方向において標的の最大幅を与える線分の両端点に位置する画素の輝度値と、標的画像の特徴点における開口率とから標的の全幅値をサブピクセル精度で計算し、その全幅値と標的の形状に関するモデルデータから標的の相対位置及び相対姿勢を推定するように構成したので、飛翔体に対する標的の相対距離が比較的遠距離の場合においても、画像センサ11の量子化誤差の影響が抑えられるようになり、その結果、標的の相対位置及び相対姿勢を精度よく推定することができる効果を奏する。
【0086】
また、標的の相対位置と相対姿勢を推定する際、勾配計算等の複雑な繰り返し演算処理を必要としないため、飛翔体に対する標的の相対位置及び相対姿勢に関して、効率的な推定を行なうことができる効果を奏する。
【0087】
実施の形態5.
図20はこの発明の実施の形態5による飛翔体の画像処理装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
67は前方三次元世界を画像センサ68,69に出力するハーフミラー、68は画像センサ11と同様の画像センサ、69は画像センサ68が撮影する標的画像に対して画像面内で水平方向及び垂直方向にそれぞれ0.5画素変位する位置に配置された画像センサ、70は画像センサ68側の標的画像に係る慣性主軸方向と画像センサ69側の標的画像に係る慣性主軸方向とに基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定する相対状態量推定装置(推定手段)、71は二つの慣性主軸方向における標的の最大幅を与える線分の両端点に対応する画素を選択する主軸両端点選択装置、72は主軸両端点選択装置71により選択された各画素の位置関係から標的の全幅値をサブピクセル精度で算出する高次全幅算出装置である。
【0088】
次に動作について説明する。
まず、ハーフミラー67は、飛翔体前方の標的を含む三次元世界を画像センサ68,69に出力する。
画像センサ68,69は、一方の画像センサで取得される画像が他方の画像センサで取得される画像に対し、画像面内水平方向で0.5画素、画像面内垂直方向に0.5画素並進変位したものとなるように配置されている。
このような配置は図21に示すように、一方の画像センサ、例えば、画像センサ68を光軸aに対して固定した状態で、画像センサ69を光軸a,bが形成する平面内の光軸bに垂直な矢印c、並びに、上記平面に垂直な方向の矢印d方向に並進変位させることによって実現することができる。
【0089】
画像センサ68で取得された飛翔体前方の標的を含む第一画像、並びに、画像センサ69で取得された飛翔体前方の標的を含む第二画像に対してそれぞれ、上記実施の形態1と同様に、前処理装置12,幾何特性算出装置13,慣性主軸推定装置14及び特徴点検出装置15が動作する。
【0090】
次に、相対状態量推定装置70は、飛翔体に対する標的の相対位置及び相対姿勢を推定する。
まず、前処理後の第一画像、並びに、第二画像のそれぞれに対して、機軸選択装置18が、慣性主軸推定装置14により推定された二つの慣性主軸のうち、どちらが標的の機軸に対応するのかを判別する。
【0091】
次に、第一画像、並びに、第二画像のそれぞれに対して、主軸両端点選択装置71,71が、二つの慣性主軸方向それぞれにおける標的の最大幅を与える線分48,49の両端点に対応する画素を選択して、その位置を出力する。
例えば、図22においては、第一画像に対する場合を示したものであり、図中斜線で示された画素P1 〜P4 を選択するとともに、第一画像におけるそれぞれの位置を出力する。
第二画像に対しても同様な処理を実施し、慣性主軸方向の最大幅を与える線分の両端点に対応する画素Q1 〜Q4 を選択し、第二画像におけるそれぞれの位置を出力する。
【0092】
高次全幅算出装置72は、主軸両端点選択装置71によりそれぞれ選択された第一画像に対する画素P1 〜P4 、並びに、第二画像に対する画素Q1 〜Q4 の相対的な位置関係に基づいて、標的画像における主軸方向の最大幅をサブピクセル精度で算出する。
例えば、画像センサ69では、画像センサ68で得られた画像を画像面内水平方向に+0.5画素、垂直方向に+0.5画素だけ平行移動したものが得られるものとする。
【0093】
この時、両画像において標的先端部39に対応する特徴点を画素P1 ,Q1 とすれば、図23の左図に示すように、実際の標的先端部39が画素P1 において、画素内を水平、垂直方向に4分割した時の第3象限84にある場合、第二画像における実際の標的先端部39は右図に示すように同じ画素内の第1象限85にあるため、両画像において検出される画素P1 とQ1 の位置に差異は生じない。
【0094】
しかるに、例えば、実際の標的先端部39が、図24の左図に示すように第1象限86にある場合、第二画像における実際の標的先端部39は右図に示すように画像面内水平方向に+1画素、垂直方向に+1画素だけ並進変位した画素Q1 における第3象限87にあるため、両画像において検出される画素P1 と画素Q1 の間の位置関係は、画素Q1 は画素P1 に対して画像面内水平方向に+1画素、垂直方向に+1画素だけ並進変位している。
【0095】
同様に、実際の標的先端部39が第二象限にある場合には、画素Q1 は画素P1 に対して画像面内垂直方向にのみ+1画素並進変位したものとなり、実際の標的先端部39が第4象限にある場合には、画素Q1 は画素P1 に対して画像面内水平方向にのみ+1画素並進変位したものとなる。
【0096】
即ち、各画素Pi とQi (i=1,2,3,4)の画像面における相対的な位置関係を調べることによって、実際の標的主軸方向両端点が第一画像における画素Pi 内のどの象限にいるのかを判別することができる。
標的の二つの慣性主軸方向における最大幅は、この象限の中心点、例えば図23及び図24では×印で示した点C1 を基準として、サブピクセル精度で、その値を算出する。
【0097】
そして、照合処理装置20は、高次全幅算出装置66が標的の全幅値h,dを算出すると、上記実施の形態1と同様に、標的の相対位置及び相対姿勢を推定する。
最後に、照準点算定装置21は、相対状態量推定装置17が標的の相対位置及び相対姿勢を推定すると、上記実施の形態1と同様に、標的の照準点を算定する。
【0098】
以上で明らかなように、この実施の形態5によれば、画像センサ68側の標的画像に係る慣性主軸方向と画像センサ69側の標的画像に係る慣性主軸方向とに基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定するように構成したので、見かけ上、画像センサの分解能を水平方向、垂直方向ともに2倍にすることができるようになり、その結果、飛翔体に対する標的の相対距離が比較的遠距離の場合においても、画像センサの量子化誤差の影響が抑えられるため、標的の相対位置及び相対姿勢を精度よく推定し、それを用いて標的の照準点を精度よく算定することができる効果を奏する。
【0099】
また、標的の相対位置と相対姿勢を推定する際、勾配計算等の複雑な繰り返し演算処理を必要としないため、飛翔体に対する標的の相対位置及び相対姿勢に関して、効率的な推定を行なうことができる効果を奏する。
【0100】
【発明の効果】
以上のように、この発明によれば、方向特定手段により特定された慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定する推定手段を設けるように構成したので、飛翔体に対する標的の相対位置及び相対姿勢が変化しても、標的の照準点を正確に算定することができる効果がある。
【0101】
この発明によれば、方向特定手段により特定された慣性主軸方向から標的の全幅値を計算し、その全幅値と標的の形状に関するデータから標的の相対位置及び相対姿勢を推定する推定手段を設けるように構成したので、簡単に標的の相対位置と相対姿勢を推定することができる効果がある。
【0102】
この発明によれば、推定手段により推定された相対位置及び相対姿勢から標的の推定画像を生成して、その推定画像と標的画像の誤差を計算し、その誤差が減少する方向に標的の全幅値を更新する更新手段を設けるように構成したので、飛翔体に対する標的の相対距離が比較的遠距離の場合においても、画像センサの量子化誤差の影響が抑えられるようになり、その結果、標的の相対位置及び相対姿勢を精度よく推定することができる効果がある。
【0103】
この発明によれば、誤差の勾配を計算し、その勾配を用いて標的の全幅値を更新する更新手段を設けるように構成したので、飛翔体に対する標的の相対位置や相対姿勢を精度よく推定することができる効果がある。
【0104】
この発明によれば、標的画像及び推定画像の面積と断面二次モーメントを計算し、その面積と断面二次モーメントを用いて標的の全幅値を更新する更新手段を設けるように構成したので、飛翔体に対する標的の相対位置や相対姿勢を効率的に推定することができる効果がある。
【0105】
この発明によれば、方向特定手段により特定された慣性主軸方向において標的の最大幅を与える線分の両端点に位置する画素の輝度値と、標的画像の特徴点における開口率とから標的の全幅値を計算し、その全幅値と標的の形状に関するデータから標的の相対位置及び相対姿勢を推定する推定手段を設けるように構成したので、飛翔体に対する標的の相対距離が比較的遠距離の場合においても、画像センサの量子化誤差の影響が抑えられるようになり、その結果、標的の相対位置及び相対姿勢を精度よく推定することができる効果がある。
【0106】
この発明によれば、第1の方向特定手段により特定された慣性主軸方向と第2の方向特定手段により特定された慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定する推定手段を設けるように構成したので、飛翔体に対する標的の相対距離が比較的遠距離の場合においても、画像センサの量子化誤差の影響が抑えられるようになり、その結果、標的の相対位置及び相対姿勢を精度よく推定し、それを用いて標的の照準点を精度よく算定することができる効果がある。
【0107】
この発明によれば、第1の方向特定手段により特定された慣性主軸方向に基づいて標的の最大幅を与える線分の両端点に位置する画素を選択するとともに、第2の方向特定手段により特定された慣性主軸方向に基づいて標的の最大幅を与える線分の両端点に位置する画素を選択し、それらの画素の位置関係から標的の相対位置及び相対姿勢を推定する推定手段を設けるように構成したので、飛翔体に対する標的の相対位置や相対姿勢を精度よく推定することができる効果がある。
【0108】
この発明によれば、標的画像から標的の幾何特性量を演算し、その幾何特性量から標的の慣性主軸方向を特定すると、その慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定し、その相対位置及び相対姿勢から標的の照準点を算定するように構成したので、飛翔体に対する標的の相対位置及び相対姿勢が変化しても、標的の照準点を正確に算定することができる効果がある。
【0109】
この発明によれば、標的の慣性主軸方向から標的の全幅値を計算し、その全幅値と標的の形状に関するデータから標的の相対位置及び相対姿勢を推定するように構成したので、簡単に標的の相対位置と相対姿勢を推定することができる効果がある。
【0110】
この発明によれば、標的の相対位置及び相対姿勢から標的の推定画像を生成して、その推定画像と標的画像の誤差を計算し、その誤差が減少する方向に標的の全幅値を更新するように構成したので、飛翔体に対する標的の相対距離が比較的遠距離の場合においても、画像センサの量子化誤差の影響が抑えられるようになり、その結果、標的の相対位置及び相対姿勢を精度よく推定することができる効果がある。
【0111】
この発明によれば、誤差の勾配を計算し、その勾配を用いて標的の全幅値を更新するように構成したので、飛翔体に対する標的の相対位置や相対姿勢を精度よく推定することができる効果がある。
【0112】
この発明によれば、標的画像及び推定画像の面積と断面二次モーメントを計算し、その面積と断面二次モーメントを用いて標的の全幅値を更新するように構成したので、飛翔体に対する標的の相対位置や相対姿勢を効率的に推定することができる効果がある。
【0113】
この発明によれば、標的の慣性主軸方向において標的の最大幅を与える線分の両端点に位置する画素の輝度値と、標的画像の特徴点における開口率とから標的の全幅値を計算し、その全幅値と標的の形状に関するデータから標的の相対位置及び相対姿勢を推定するように構成したので、飛翔体に対する標的の相対距離が比較的遠距離の場合においても、画像センサの量子化誤差の影響が抑えられるようになり、その結果、標的の相対位置及び相対姿勢を精度よく推定することができる効果がある。
【0114】
この発明によれば、一方の慣性主軸方向と他方の慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定し、その相対位置及び相対姿勢から標的の照準点を算定するように構成したので、飛翔体に対する標的の相対距離が比較的遠距離の場合においても、画像センサの量子化誤差の影響が抑えられるようになり、その結果、標的の相対位置及び相対姿勢を精度よく推定し、それを用いて標的の照準点を精度よく算定することができる効果がある。
【0115】
この発明によれば、一方の慣性主軸方向に基づいて標的の最大幅を与える線分の両端点に位置する画素を選択するとともに、他方の慣性主軸方向に基づいて標的の最大幅を与える線分の両端点に位置する画素を選択し、それらの画素の位置関係から標的の相対位置及び相対姿勢を推定するように構成したので、飛翔体に対する標的の相対位置や相対姿勢を精度よく算定することができる効果がある。
【図面の簡単な説明】
【図1】 この発明の実施の形態1による飛翔体の画像処理装置を示す構成図である。
【図2】 この発明の実施の形態1による飛翔体の画像処理方法を示すフローチャートである。
【図3】 カメラ座標系及び標的固定座標系を示す説明図である。
【図4】 標的画像の慣性主軸方向を示す説明図である。
【図5】 飛翔体に対する標的の姿勢によって画像(標的形状)が異なることを示す説明図である。
【図6】 コーナ検出器の一例を示すSUSANオペレータの原理を説明する説明図である。
【図7】 二つの慣性主軸方向における最大幅を示す説明図である。
【図8】 標的データベースに蓄えられたデータを示す説明図である。
【図9】 この発明の実施の形態2による飛翔体の画像処理装置を示す構成図である。
【図10】 画像センサにおける量子化誤差の影響を説明する説明図である。
【図11】 画像センサにおける量子化誤差の影響を説明する説明図である。
【図12】 画像センサにおける量子化誤差の影響を説明する説明図である。
【図13】 この発明の実施の形態3による飛翔体の画像処理装置を示す構成図である。
【図14】 慣性主軸方向における全幅値の更新を説明する説明図である。
【図15】 この発明の実施の形態4による飛翔体の画像処理装置を示す構成図である。
【図16】 標的先端部における画像開口率の算出を説明する説明図である。
【図17】 慣性主軸方向の最大幅を与える線分と、その両端点に対応する画素を示す説明図である。
【図18】 画素P1 における端点V1 の決定を説明する説明図である。
【図19】 画素P2 における端点V2 の決定を説明する説明図である。
【図20】 この発明の実施の形態5による飛翔体の画像処理装置を示す構成図である。
【図21】 画像センサ68,69の配置を説明する説明図である。
【図22】 慣性主軸方向の最大幅を与える線分の両端点に対応する画素を示す説明図である。
【図23】 標的先端部の第一画像と第二画像の相対的な位置関係(相対位置誤差なし)を示す説明図である。
【図24】 標的先端部の第一画像と第二画像の相対的な位置関係(相対位置誤差あり)を示す説明図である。
【図25】 飛翔体の前方に搭載されたカメラにより撮影された画像を示す画像図である。
【図26】 従来の飛翔体の画像処理装置を説明する説明図である。
【図27】 従来の飛翔体の画像処理装置を説明する説明図である。
【図28】 従来の飛翔体の画像処理装置を説明する説明図である。
【符号の説明】
13,62 幾何特性算出装置(特性量演算手段)、14 慣性主軸推定装置(方向特定手段)、15,63 特徴点検出装置(推定手段)、16 標的データベース(推定手段)、17,65,70 相対状態量推定装置(推定手段)、21 照準点算定装置(照準点算定手段)、22 推定画像生成装置(更新手段)、23 推定誤差算出装置(更新手段)、24 勾配計算装置(更新手段)、25,27 高次全幅更新装置(更新手段)、26 高次特徴量算出装置(更新手段)、64 開口率算出装置(推定手段)。[0001]
BACKGROUND OF THE INVENTION
The present invention is directed to an image processing apparatus for a flying object and an image of the flying object that directs the flying object to an aiming point of the target when the flying object is directly hit by a flying target (for example, a missile warhead) and the target is destroyed. It relates to a processing method.
[0002]
[Prior art]
FIG. 25 is an image diagram showing an image photographed by a camera mounted in front of the flying object. FIGS. 26 to 28 are, for example, a conventional flying object image processing apparatus disclosed in Japanese Patent Laid-Open No. 6-323788. It is explanatory drawing explaining these. In the figure, reference numeral 1 is a target which is an intercept target, 2 is an exhaust image data segment indicating an exhaust image of the target 1 among the near infrared images acquired by the near infrared wavelength sensor, and 3 is a medium acquired by the mid infrared wavelength sensor. Of the infrared image, a main body image data segment indicating a main body image of the target 1, 4 is an exhaust image data segment indicating an exhaust image of the target 1 among the mid-infrared images acquired by the mid-infrared wavelength sensor.
[0003]
In the conventional image processing apparatus, when the exhaust image data segments 2 and 4 and the main body image data segment 3 are acquired using the near-infrared wavelength sensor and the mid-infrared wavelength sensor, as shown in FIG. For the exhaust image data segment 4, the centroid O, the inclination angle α of the inertial main axis ξ, the length L in the main axis direction1, Length L in orthogonal axis direction2Ask for.
Similarly, the same various quantities are obtained for the exhaust image data segment 2 of the near-infrared wavelength sensor and the main body image data segment 3 of the mid-infrared wavelength sensor.
[0004]
When various amounts for the image data segments 2, 3, and 4 are obtained, the image data segments 2, 3, and 4 are obtained for the image acquired by the near infrared wavelength sensor and the image acquired by the mid infrared wavelength sensor. By taking the position correlation, the exhaust of the target 1 and the others are identified.
That is, among the image data segments in the mid-infrared image, those whose positions include the image data segment in the near-infrared image and the inclination angle α of the principal axis of inertia ξ is close are recognized as the exhaust image data segment 4 of the target 1. To do.
[0005]
Next, the axis of the target 1 is detected from the inclination angle α of the principal axis of inertia ξ of the exhaust image data segment 4 of the mid-infrared wavelength sensor.
In general, the centroid O of the exhaust image data segment 4 of the mid-infrared wavelength sensor is utilized by utilizing the fact that the hot exhaust image data segment 2 is closer to the body of the target 1 than the cooler exhaust image data segment 4. To the centroid O of the exhaust image data segment 2 of the near infrared wavelength sensor is detected as the nose direction.
[0006]
The midpoint between the centroid O of the main body image data segment 3 of the mid-infrared wavelength sensor, which is the tip of the target 1, and the centroid O of the exhaust image data segment 4 of the mid-infrared wavelength sensor is set as the optimum induction point. The flying object is guided to the target 1 by outputting the guidance signal.
As described above, since the induction point is calculated based on both the main body image information and the exhaust image information of the target 1, the erroneous detection of the induction point due to the positional deviation between the centroid of the main body image and the centroid of the exhaust image. Can be prevented, and the guidance accuracy can be improved.
[0007]
[Problems to be solved by the invention]
Since the conventional flying object image processing apparatus is configured as described above, the centroid O of the main body image data segment 3 of the mid-infrared wavelength sensor and the centroid O of the exhaust image data segment 4 of the mid-infrared wavelength sensor. The guide point is the midpoint, but in general, the two-dimensional centroid for the target image does not necessarily correspond to the optical projection point for the image plane of the three-dimensional center of gravity of the target 1. (Depending on the posture of the target 1, the centroid and the center of gravity may or may not match.) The aim point of the target 1 cannot always be accurately obtained from the centroid of the target image, and the target 1 destruction rate is reduced. There were issues such as.
Here, the aiming point of the target 1 is a pinpoint that is most likely to be able to destroy the target 1 when the flying object hits the point, and is, for example, the center of gravity of the target.
[0008]
The present invention has been made in order to solve the above-described problems, and an object thereof is to obtain a flying object image processing apparatus and a flying object image processing method capable of accurately calculating a target aiming point. .
[0009]
[Means for Solving the Problems]
The flying object image processing apparatus according to the present invention is provided with estimating means for estimating the relative position and relative posture of the target with respect to the flying object based on the inertial principal axis direction specified by the direction specifying means.
[0010]
The flying object image processing device according to the present invention calculates a target full width value from the inertial principal axis direction specified by the direction specifying means, and estimates a target relative position and relative posture from the total width value and data related to the target shape. Estimating means is provided.
[0011]
The flying object image processing apparatus according to the present invention generates a target estimated image from the relative position and relative posture estimated by the estimating means, calculates an error between the estimated image and the target image, and reduces the error. Update means for updating the full width value of the target in the direction is provided.
[0012]
The flying object image processing apparatus according to the present invention is provided with update means for calculating the gradient of the error and updating the full width value of the target using the gradient.
[0013]
The flying object image processing apparatus according to the present invention includes an updating unit that calculates an area and a cross-sectional secondary moment of the target image and the estimated image, and updates the full width value of the target using the area and the cross-sectional secondary moment. Is.
[0014]
The flying object image processing apparatus according to the present invention includes a luminance value of pixels located at both end points of a line segment that gives the maximum width of the target in the inertial principal axis direction specified by the direction specifying means, and an opening at a feature point of the target image. An estimation means is provided for calculating the full width value of the target from the rate and estimating the relative position and relative posture of the target from the data relating to the full width value and the shape of the target.
[0015]
The flying object image processing apparatus according to the present invention includes a relative position of the target with respect to the flying object based on the inertia main axis direction specified by the first direction specifying means and the inertia main axis direction specified by the second direction specifying means, and An estimation means for estimating the relative posture is provided.
[0016]
The flying object image processing apparatus according to the present invention selects pixels located at both end points of a line segment that gives the maximum target width based on the inertial principal axis direction specified by the first direction specifying means, and the second Based on the inertial principal axis direction specified by the direction specifying means, pixels located at both end points of the line segment that gives the maximum width of the target are selected, and the relative position and relative posture of the target are estimated from the positional relationship of these pixels. An estimation means is provided.
[0017]
The flying object image processing method according to the present invention calculates a geometric characteristic amount of a target from a target image, and specifies the inertia principal axis direction of the target from the geometric characteristic amount. Based on the inertia principal axis direction, the target object relative to the flying object is calculated. The relative position and relative posture are estimated, and the aiming point of the target is calculated from the relative position and relative posture.
[0018]
The flying object image processing method according to the present invention calculates the full width value of the target from the inertial principal axis direction of the target, and estimates the relative position and relative posture of the target from the data related to the full width value and the shape of the target. It is.
[0019]
According to the flying object image processing method of the present invention, an estimated image of a target is generated from the relative position and relative posture of the target, an error between the estimated image and the target image is calculated, and the error of the target is reduced. The full width value is updated.
[0020]
The flying object image processing method according to the present invention calculates an error gradient and updates the full width value of the target using the gradient.
[0021]
The flying object image processing method according to the present invention calculates the area and the cross-sectional secondary moment of the target image and the estimated image, and updates the full width value of the target using the area and the cross-sectional secondary moment. is there.
[0022]
The flying object image processing method according to the present invention is based on the luminance values of pixels located at both end points of a line segment that gives the maximum width of the target in the direction of the principal axis of the target and the aperture ratio at the feature point of the target image. The full width value is calculated, and the relative position and the relative posture of the target are estimated from the data about the full width value and the shape of the target.
[0023]
The flying object image processing method according to the present invention estimates the relative position and relative attitude of the target with respect to the flying object based on one inertial principal axis direction and the other inertial principal axis direction, and targets the target from the relative position and relative attitude. The point is calculated.
[0024]
The flying object image processing method according to the present invention selects pixels located at both end points of a line segment that gives the maximum width of the target based on one inertial principal axis direction, and selects the target based on the other inertial principal axis direction. Pixels located at both end points of the line segment giving the maximum width are selected, and the relative position and relative posture of the target are estimated from the positional relationship of these pixels.
[0025]
DETAILED DESCRIPTION OF THE INVENTION
An embodiment of the present invention will be described below.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing an image processing apparatus for a flying object according to Embodiment 1 of the present invention. In the figure, 11 is an image sensor mounted in front of the flying object and images a target, and 12 is an image sensor 11. Among the captured images, a preprocessing device for identifying a target portion and a background portion, and 13 is a geometric characteristic calculation for calculating a target geometric characteristic amount from a target portion identified by the preprocessing device 12 (hereinafter referred to as a target image). Device (characteristic amount calculation means), 14 is an inertia main axis estimation apparatus (direction specifying means) for estimating two target inertia main axis directions from the geometric characteristic amount calculated by the geometric characteristic calculation device 13, and 15 is a target feature point. It is the feature point detection apparatus (estimating means) which detects a target front-end | tip part.
[0026]
Reference numeral 16 denotes a target database (estimating means) for storing model data relating to the target shape and aiming point, and 17 denotes the relative position and relative of the target with respect to the projectile based on the two inertial principal axis directions estimated by the inertial principal axis estimation device 14. A relative state quantity estimating device (estimating means) 18 for estimating a posture, an axis selecting device 19 for selecting an axis from two inertial spindle directions with reference to a target tip detected by the feature point detecting device 15, 19 Is a full width calculation device that calculates the full width value of the target from two inertial main axis directions, and 20 is a comparison between the full width value calculated by the full width calculation device 19 and model data relating to the shape of the target stored in the target database 16. The collation processing device 21 for estimating the relative position and relative posture of the target, and 21 indicates the relative position and relative posture estimated by the relative state quantity estimating device 17 and the target illumination. A sighting point calculating device to calculate the aiming point of target from the model data about the point (aiming point calculation means).
FIG. 2 is a flowchart showing the flying object image processing method according to the first embodiment of the present invention.
[0027]
Next, the operation will be described.
In the first embodiment, for example, a missile warhead is assumed as a target, and its shape is approximated by a cone 31 as shown in FIG.
The following two coordinate systems are defined.
[0028]
・ Camera coordinate system (XC , YC , ZC )
The camera coordinate system has an origin O at the camera optical center in the image sensor 11 mounted in front of the flying object.C With ZC The axis is determined in the direction of the optical axis. XC The axis is set in the horizontal direction of the image plane 32, and YC X axisC Axis and ZC Determine in the direction perpendicular to the axis.
・ Target fixed coordinate system (XB , YB , ZB )
The target fixed coordinate system has an origin O at the center of the bottom surface of the cone 31.B With X in the bottomB , YB Z in the direction of the axis of symmetryB Define the axis.
[0029]
At this time, the image sensor 11 mounted on the flying object acquires an image including a target located in front of the flying object (step ST1).
When the image sensor 11 acquires an image including a target, the preprocessing device 12 identifies a pixel constituting the target portion and a pixel constituting the background portion from among the pixels constituting the image, and binarizes each pixel. Process (step ST2).
Specifically, among the pixels constituting the image acquired by the image sensor 11, the pixel value of the pixel constituting the target portion is larger than the pixel value of the pixel constituting the background portion. The pixel value of each pixel constituting the image is compared with a threshold value, a pixel having a pixel value larger than the threshold value is recognized as a pixel constituting the target portion, and a pixel having a pixel value smaller than the threshold value is regarded as the background portion. Recognized as a constituent pixel.
Here, the image size of the image sensor 11 is set to IW × IH When the (i, j) -th pixel value in the pre-processed image is described as I (i, j), it can be expressed as follows.
[0030]
[Expression 1]
Figure 0004034003
[0031]
When the preprocessing device 12 identifies the pixels constituting the target portion and the pixels constituting the background portion, the geometric characteristic calculation device 13 identifies the geometric characteristic amount of the target portion, that is, the target area S, the centroid (xc , Yc ), Sectional moment Jxx, Jxy, JyyIs calculated as shown below (step ST3).
[0032]
[Expression 2]
Figure 0004034003
[0033]
When the geometric characteristic calculation device 13 calculates the geometric characteristic amount, the inertial spindle estimation device 14 calculates the target cross-sectional secondary moment Jxx, Jxy, JyyBased on the above, the inertial principal axis direction in the target image is estimated (step ST4).
In general, there are two main inertia axes in the target image (corresponding to the maximum and minimum inertia main axes), as shown by 33 and 34 in FIG. 4, each of which has an orthogonal relationship. If the angle formed with the surface horizontal direction 36 is α, the following relationship is satisfied. In FIG. 4, 35 is the centroid, and 37 is the vertical direction of the image plane.
tan2α = 2Jxy/ (Jyy-Jxx)
0 ≦ α ≦ π
[0034]
Further, when the geometric characteristic calculation device 13 calculates the geometric characteristic amount, the feature point detection device 15 detects the target tip that is the target feature point (step ST5).
As shown in FIG. 5, there are a case where the target tip 39 is visible (right) and a case where it is not visible (left) depending on the posture of the target with respect to the flying object. In FIG. 5, reference numeral 38 denotes a target axis, and reference numeral 40 denotes a minimum inertia spindle.
Therefore, when the target tip 39 is visible, for example, a corner detector such as a SUSAN operator introduced in the literature (Xu, Hajime, “3D Vision”, Kyoritsu Shuppan, pp. 36-37, 1998), etc. To position the target tip 39 (xv , Yv ) Is detected.
[0035]
In the SUSAN operator, as shown in FIG. 6, for example, when circular masks a to d are respectively superimposed on an image, the luminance value of the pixel at the center of the mask among the pixels in the masks a to d is the same. A process of counting the number of pixels having luminance values is executed.
For example, the pixel P in the background 421And the pixel P in the target 412The number of masks b centered at is equal to the mask area. On the other hand, the pixel P on the straight contourThree, The number of masks is half of the mask area, and the corner pixel PFourThe number of masks d centered at is 1/4 of the mask area.
[0036]
The above processing is performed on each pixel in the target image, and the pixel having the smallest number, that is, the pixel PFourIs detected as the target tip 39.
It is possible to determine whether the target tip 39 is visible or not by providing a threshold value for the number, so that it is possible to determine whether the target tip 39 is left or right in FIG.
[0037]
Next, the relative state quantity estimation device 17 estimates the relative position and relative posture of the target with respect to the flying object.
Specifically, first, the axle selection device 18 determines which of the two inertial spindles estimated by the inertial spindle estimation device 14 corresponds to the target axle.
As shown in FIG. 5, there are two types of images depending on the posture of the target with respect to the flying object. However, in the case shown in the right figure, the target tip 39 is detected by the feature point detection device 15. The distance between the tip 39 and the two inertial main axes is calculated, and the smaller one is selected as the target machine axis 38 (step ST6).
On the other hand, in the case shown in the left figure, since the target tip 39 is not detected by the feature point detection device 15, the one having the larger inertia moment around the inertia main axis (maximum inertia main axis) is selected as the target aircraft axis 38 (step ST6). ).
[0038]
Then, when the axis selection device 18 selects the target axis 38, the full width calculation device 19 calculates the full width value in the direction of two inertial main axes in the target image as shown in FIG. 7 (step ST7). The full width value in the direction of the axis is h, and the full width value in the direction orthogonal to the direction of the axis is d.
As a method for calculating the full width value, for example, the pixel value of the pixel existing on the inertial main axis (the pixel value after preprocessing by the preprocessing device 12) is scanned while moving the inertial main axis in parallel. The length of the line segment with the most continuous pixel value is defined as the full width value of the target.
[0039]
Then, when the full width calculation device 19 calculates the full width values h and d of the target, the collation processing device 20 stores in the target database 16 data related to the shape of the target missile warhead (height H) as shown in FIG. Since the bottom surface diameter D) is stored, the relative position and the relative posture of the target are estimated by comparing these data with the full width values h and d (step ST8).
[0040]
For example, in the case of a target image as shown in the left diagram of FIG. 5, the relative posture of the target is given as follows using the 3-2-1 Euler angle from the camera coordinate system to the target fixed coordinate system.
θx = ± cos-1(H / d)
θy= Π
θz= Αmin−π
The relative position of the target is given as follows.
xC (RB) = D [xc -IW / 2] / d
yC (RB) = D [yc -IH / 2] / d
zC (RB) = D · f / d
Where αmin Is the tilt angle of the minimum principal axis of inertia 40 from the horizontal direction of the image plane, and f is the camera focal length.
[0041]
On the other hand, in the case of the target image as shown in the right diagram of FIG. 5, the relative posture of the target is given as follows.
Figure 0004034003
The relative position of the target is given as follows.
xC (RB) = D [xv -IW / 2] / dH · sin θx ・ Sinθz
yC (RB) = D [yv -IH / 2] / d + H · sin θx ・ Cos θz
zC (RB) = D · f / d
Where αsym Is the inclination angle of the target machine axis 38 from the horizontal direction of the image plane.
[0042]
Finally, when the relative state quantity estimating device 17 estimates the relative position and relative posture of the target, the aiming point calculation device 21 refers to the position information of the aiming point 43 stored in the target database 16 as shown below. Then, the aiming point of the target is calculated from the relative position and the relative posture (step ST9).
[0043]
[Equation 3]
Figure 0004034003
[0044]
As apparent from the above, according to the first embodiment, when the geometric characteristic amount of the target is calculated from the target image and the inertia principal axis direction of the target is specified from the geometric characteristic amount, the flight is performed based on the inertia principal axis direction. Since the relative position and relative posture of the target with respect to the body are estimated and the aiming point of the target is calculated from the relative position and relative posture, even if the relative position and relative posture of the target with respect to the flying object change, the target There is an effect that the aiming point can be accurately calculated.
[0045]
Embodiment 2. FIG.
FIG. 9 is a block diagram showing a flying object image processing apparatus according to Embodiment 2 of the present invention. In the figure, the same reference numerals as those in FIG.
22 is an estimated image generating device (updating unit) that generates an estimated image (binarized image) of the target from the relative position and relative posture estimated by the relative state quantity estimating device 17, and 23 is generated by the estimated image generating device 22. An estimation error calculation device (update means) that calculates an estimation error that is an error between the estimated image and the target image preprocessed by the preprocessing device 12, and 24 calculates the gradient of the estimation error calculated by the estimation error calculation device 23. A gradient calculating device (updating unit) 25 is a high-order full-width updating unit (updating unit) that updates the target full width values d and h in a direction in which the estimation error decreases based on the gradient calculated by the gradient calculating unit 24. is there.
[0046]
Next, the operation will be described.
In the first embodiment, when the relative state quantity estimation device 17 estimates the relative position and relative posture of the target, the target aiming point is immediately calculated from the relative position and relative posture. An estimated image is generated from the relative posture, an error between the estimated image and the target image is obtained, and the target full width values d and h are updated so that the error is minimized, and then the target aiming point is calculated. It may be.
[0047]
In the case of the first embodiment, since the full width values d and h in the inertial principal axis direction are calculated with pixel accuracy and the target relative position and posture are estimated, the target relative position with respect to the flying object is relatively short. Yes, there is no problem when the image sensor resolution for the target image is sufficiently secured, but the relative position of the target with respect to the flying object is at a long distance, and when the image sensor resolution for the target image is not sufficiently secured, The estimation accuracy of the relative position and the relative posture deteriorates.
[0048]
Therefore, in the second embodiment, even when the image sensor resolution with respect to the target image is not sufficiently ensured, the following processing is executed in order to improve the estimation accuracy of the relative position and the relative posture.
[0049]
For example, it is assumed that the relative position of the target is relatively far and an image as shown in FIG. 10 is acquired. In this case, the maximum widths h ′ and d ′ in the direction of the principal axis of inertia of the target are measured with reference to the centers of the four pixels marked with “X” in the drawing.
The maximum widths h ′ and d ′ always include an error of quantization in the image sensor 11 with respect to d and h to be actually measured.
This quantization error appears as an estimation error with respect to the estimated value of the relative position and relative posture of the target in the verification processing device 20, and as a result, the calculation accuracy of the aiming point is lowered.
[0050]
A similar situation will be described with reference to FIGS. In both figures, the outline of the target is virtually drawn with a solid line. In these two images, in both cases, the full width value is calculated with reference to the center of the four pixels indicated by the hatched lines in the figure, so the relative position estimated by the collation processing device 20 and There is no difference between the values of the relative postures.
[0051]
However, if each image is viewed as a whole area, there is a difference whether or not the pixels 44 and 45 painted black in the figure have luminance values.
That is, in the case of FIG. 11, the pixels 44 and 45 have a luminance value, and in the case of FIG. 12, the pixels 44 and 45 do not have a luminance value.
Therefore, if a higher-order feature amount over the entire image is used instead of a feature amount on the one-dimensional straight line such as the maximum width in the inertial principal axis direction, the difference between the two can be reflected in the estimated amount. The influence of the quantization error in the sensor 11 can be reduced.
[0052]
When the relative state quantity estimating device 17 estimates the relative position and relative posture, the estimated image generating device 22 generates a target estimated image (binarized image) from the relative position and relative posture.
Then, when the estimated image generating device 22 generates an estimated image of the target, the estimated error calculating device 23 estimates an error that is an error between the estimated image and the target image (binarized image) preprocessed by the preprocessing device 12. e is calculated.
That is, the estimation error e is calculated by defining the square error of luminance between pixels in the estimated image and the target image, or equivalently, the sum of absolute values of luminance differences as follows. In addition, since it is a binarized image, the sum of square errors of pixel values and the sum of absolute values between both images are the same value.
[0053]
[Expression 4]
Figure 0004034003
[0054]
When the estimation error calculation device 23 calculates the estimation error e, the gradient calculation device 24 performs a finite differentiation on the estimation error e by the full width values d and h, and the gradients そ の e / ∂d and ∂e / of the estimation error e. Calculate ∂h.
[0055]
Then, when the gradient calculation device 24 calculates the gradients ∂e / ∂d and ∂e / ∂h of the estimation error e, the high-order full width update device 25 uses the gradients ∂e / ∂d and ∂e / ∂h. Thus, the full width values d and h in the inertial spindle direction are updated in the direction in which the estimation error e decreases.
That is, the previous full width value (here, for convenience of explanation, the previous full width value is set to dold , Hold (∂e / ∂d) · Δd and (∂e / ∂h) · Δh are subtracted from each other to update the full width values d and h in the inertial spindle direction (here, for the sake of convenience of explanation, updated) The full width value of dnew , Hnew ).
dnew = Dold -(∂e / ∂d) · Δd
hnew = Hold -(∂e / ∂h) ・ Δh
However, Δd and Δh are step sizes determined so as to reduce the estimation error e.
[0056]
When the high-order full width update device 25 updates the full width values d and h in the inertial spindle direction, the collation processing device 20 changes the relative position and the relative posture based on the full width value after the update, as in the first embodiment. Candidate values are calculated.
When the matching processing device 20 calculates the relative position and relative orientation candidate values in this manner, this time, the target estimated image is generated from the relative position and relative orientation candidate values, and the above processing is repeated. Further, candidate values for the relative position and the relative posture are calculated.
[0057]
Then, after the above process is repeated a plurality of times, the estimation error calculation device 23 uses the target relative position and the relative orientation candidate values as definite values, and the aim point calculation device 21 where the estimation error e takes a stop value. Output to.
When the estimation error calculation device 23 outputs the relative position and relative posture of the target, the aiming point calculation device 21 calculates the target aiming point for the flying object in the same manner as in the first embodiment.
[0058]
As apparent from the above, according to the second embodiment, an estimated image of the target is generated from the relative position and relative posture of the target, the error between the estimated image and the target image is calculated, and the error is reduced. Since the full width value of the target is updated in the direction, the full width value can be calculated with sub-pixel accuracy, and the quantization error of the image sensor 11 even when the relative distance of the target to the flying object is relatively long. As a result, the relative position and the relative posture of the target can be accurately estimated.
[0059]
Further, gradient calculation is performed on two variables having the full width values d and h in the two inertial spindle directions as parameters, the full width values d and h are updated, and the full width values d and h are used to indirectly from the verification processing device 20. Since the relative position and relative posture of the target are estimated, the relative position and relative posture are more efficient than performing the gradient calculation directly using the six variables of the target relative position and relative posture as parameters. There is an effect that can be estimated.
[0060]
Embodiment 3 FIG.
FIG. 13 is a block diagram showing a flying object image processing apparatus according to Embodiment 3 of the present invention. In the figure, the same reference numerals as those in FIG.
Reference numeral 26 denotes a high-order feature quantity calculation device (update means) that calculates the area and cross-sectional secondary moment of the target image and the estimated image, and 27 denotes the area and cross-section secondary moment calculated by the high-order feature quantity calculation device 26. A high-order full width update device (update means) that updates the full width value of a target.
[0061]
Next, the operation will be described.
In the second embodiment, the gradient of the estimation error e is calculated, and the full width values d and h in the inertial principal axis direction are updated using the gradient. The moment may be calculated, and the full width values d and h of the target may be updated using the area and the moment of inertia of the cross section.
[0062]
Specifically, the high-order feature quantity calculating device 26 calculates the area of the target estimated image generated by the estimated image generating device 22 and the cross-sectional secondary moment around the inertial main axis perpendicular to the axis.
Here, regarding the cross-sectional secondary moment, when the target image is as shown in the left diagram of FIG. 14, a value around the inertia main axis 40 perpendicular to the target axis 38 passing through the centroid 35 is calculated.
On the other hand, in the case of the right diagram in FIG. 14, the value around the axis 46 perpendicular to the target machine axis 38 passing through the target tip 39 is calculated.
[0063]
When the high-order feature quantity calculation device 26 calculates the high-order feature quantity (area and cross-section secondary moment), the high-order full width update device 27 calculates the high-order feature quantity and the geometric characteristic calculated by the geometric characteristic calculation apparatus 13. Using the quantity (area and cross-sectional second moment), the difference between the two is used as the evaluation function.
That is, the difference in target area is defined as a first evaluation function, and the difference in cross-sectional second moment is defined as a second evaluation function.
[0064]
Then, the high-order full width update device 27 updates the full width value in the direction of the inertia spindle 40 perpendicular to the target axle 38 in the direction in which the first evaluation function decreases, and in the direction in which the second evaluation function decreases. Update the full width value of the direction.
That is, in the case of the image as shown in the left diagram of FIG. 14, the full width in the direction of the inertial main axis 40 perpendicular to the target aircraft axis 38 using the target area calculated for the target image that is the original image and the estimated image. Update the value d as follows:
dnew = Dold × (Sorg / Sest )1/2
Where Sorg Is the target area in the target image and Sest Is the target area in the estimated image.
[0065]
The full width value h in the direction of the target aircraft axis 38 is updated as follows based on the sectional moment of inertia about the inertial main axis perpendicular to the target aircraft axis 38.
hnew = Hold × (Jξξ org / Jξξ est )1/3
Jξξ= Jyy・ Sin2 α + Jxx・ Cos2 α-Jxy・ Sin2α
Where Jξξ org Is the moment of inertia of the section about the principal axis 40 perpendicular to the target axis 38 in the target image, Jξξ est Is the moment of inertia of the cross section around the principal inertia axis 40 perpendicular to the target axis 38 in the estimated image.
[0066]
On the other hand, in the case of the image as shown in the right diagram of FIG. 14, the full width in the direction of the inertial main axis 40 perpendicular to the target aircraft axis 38 using the target area calculated for the target image that is the original image and the estimated image. The value d is updated as in the case of the left diagram of FIG.
The full width value h in the direction of the target aircraft axis 38 is updated as follows based on the sectional moment of inertia about the inertial main axis perpendicular to the target aircraft axis 38.
hnew = Hold × (Jξ'ξ ' org / Jξ'ξ ' est )1/3
Where Jξ'ξ ' org Is the moment of inertia of the section around the principal axis 46 perpendicular to the target axis 38 through the target tip 39 in the target image, Jξ'ξ ' est Is a moment of inertia of the section around the principal axis of inertia 46 perpendicular to the target axis 38 passing through the target tip 39 in the estimated image.
[0067]
Others are the same as those in the second embodiment, and the description thereof is omitted.
As apparent from the above, according to the third embodiment, the target image and estimated image area and cross-sectional secondary moment are calculated, and the full width value of the target is updated using the area and cross-sectional secondary moment. Since the full width value can be calculated with sub-pixel accuracy, the influence of the quantization error of the image sensor 11 can be suppressed even when the relative distance of the target to the flying object is relatively long. As a result, there is an effect that the relative position and relative posture of the target can be accurately estimated.
[0068]
Also, when estimating the relative position and orientation of the target, it can be estimated based on the target image area and cross-section second moment, which can be calculated relatively easily, so that complex calculations such as gradient calculation As a result, there is an effect that the relative position and the relative posture of the target with respect to the flying object can be estimated more efficiently than the second embodiment.
[0069]
Embodiment 4 FIG.
FIG. 15 is a block diagram showing a flying object image processing apparatus according to Embodiment 4 of the present invention. In the figure, the same reference numerals as those in FIG.
61 is a pre-processing device that performs multi-value processing to discriminate between a target portion and a background portion, and 62 calculates a geometric characteristic amount of the target from the target portion identified by the pre-processing device 61 (hereinafter referred to as a target image). Geometric characteristic calculation device (characteristic amount calculation means), 63 is a feature point detection device (estimation means) for detecting the target tip at the target feature point, and 64 is an aperture ratio calculation device for calculating the aperture ratio at the feature point of the target image. (Estimating means).
[0070]
65 calculates the full width value of the target from the luminance values of the pixels located at the two end points of the line segment that gives the maximum width of the target in the inertial principal axis direction, and the aperture ratio at the feature point of the target image. Relative state quantity estimating device (estimating means) for estimating the relative position and relative posture of the target from the model data relating to the shape, 66 represents the luminance values of pixels located at both end points of the line segment that gives the maximum width of the target in the inertial principal axis direction This is a high-order full width calculation device for calculating the full width value of the target from the aperture ratio at the feature point of the target image.
[0071]
Next, the operation will be described.
When the image sensor 11 acquires an image including a target, the preprocessing device 61 identifies a pixel constituting the target portion and a pixel constituting the background portion from among the pixels constituting the image, and multi-values each pixel. Process.
That is, while the pixel value of the pixel constituting the background portion is set to zero, the pixel value of the pixel constituting the target portion is normalized with the maximum luminance value in the target region, and the target region has gradation. Generate an image.
[0072]
When the pre-processing device 61 performs the multi-value processing for each pixel, the geometric characteristic calculation device 62 performs the geometric characteristic amount of the target portion, that is, the target area S, the centroid (xc , Yc ), Sectional moment Jxx, Jxy, JyyCalculate
The calculation of the geometric characteristic calculation device 62 is basically the same calculation as the geometric characteristic calculation device 13 in the first embodiment, except that the image to be calculated is a multi-valued image (in the calculation, All the luminance values of the pixels constituting the target portion may be replaced with 1).
[0073]
When the geometric characteristic calculation device 13 calculates the geometric characteristic amount, the inertial principal axis estimation device 14 is similar to the first embodiment described above in that the target cross-sectional secondary moment Jxx, Jxy, JyyBased on the above, the inertial principal axis direction in the target image is estimated.
In addition, when the geometric characteristic calculation device 62 calculates the geometric characteristic amount, the feature point detection device 63 detects the target tip that is the target feature point, as in the first embodiment.
[0074]
In addition, when detecting a target front-end | tip part using a corner detector, such as a SUSAN operator, a circular mask is made to act also on a multi-valued image similarly to the case of a binarized image, and the pixel in the mask is detected. Among them, the number of pixels having a luminance value close to the luminance value of the pixel at the center of the mask is counted. This process is performed on each pixel in the target image, and the pixel with the smallest number is detected as the target tip.
[0075]
When the feature point detection device 63 detects the target tip that is the target feature point, the aperture ratio calculation device 64 calculates the aperture ratio at the target tip.
That is, the aperture ratio of the target tip is calculated based on the pixel value in the region near the target tip.
[0076]
As shown in FIG. 16, a circular mask 47 centered on the target tip 39 detected by the feature point detection device 63 is superimposed on the target image, and in the mask area, the luminance value close to the luminance of the center pixel. The number of pixels having N (xv , Yv ).
The number of pixels N (xv , Yv ) Is divided by the mask area M to calculate the aperture ratio φ.
φ = N (xv , Yv ) / M
N (xv , Yv For the feature point detection device 63, if the SUSAN operator is used, this is a value already calculated. Therefore, the aperture ratio calculation process can be completed as an additional process for the SUSAN operator.
[0077]
Next, the relative state quantity estimation device 65 estimates the relative position and relative posture of the target with respect to the flying object.
Specifically, first, the axle selection device 18 determines which of the two inertial spindles estimated by the inertial spindle estimation device 14 corresponds to the target axle, as in the first embodiment.
[0078]
Then, the high-order full width calculation device 66 has pixels corresponding to the opening ratio at the target tip calculated by the opening ratio calculation device 64 and both end points of the line segment that gives the maximum width of the target in each of the two principal axes of inertia. Based on the luminance value, the full width value of the target in each of the inertial principal axis directions is calculated with subpixel accuracy.
[0079]
As an example, consider a target image as shown in FIG.
In FIG. 17, the pixels corresponding to the end points of the line segments 48 and 49 that give the maximum width in the direction of the principal axis are indicated by diagonal lines in the figure.1~ PFourIt is.
Pixel P indicating target tip1FIG. 18 is an enlarged view of FIG.
[0080]
The luminance value of each pixel in the target area is considered to be approximately proportional to the area of the target area that occupies the pixel.
That is, the pixel value is uniformly 1 inside the target area, and the pixel value in the target contour portion can be approximately regarded as being given by the ratio (area ratio) of the target area to each pixel.
[0081]
Therefore, as shown in FIG.1Is divided into two regions (a region 50 indicated by hatching in the figure and a region 51 other than that) using the aperture ratio φ obtained by the aperture ratio calculation device 64.
That is, as shown in FIG. 18, one point on the axis 38 passing through the centroid 35 of the target image is set to the vertex V.1And apex V1The pixels are divided into two regions 50 and 51 by drawing straight lines 52 and 53 symmetrically with respect to the target machine axis 38 at an angle ψ = 2πφ.
And pixel P1The area ratio of the region 50 indicated by oblique lines in the figure to the area of1Pixel P to be equal to the luminance value of1Vertex V1Determine the position.
[0082]
Further, the pixel P other than the feature points in FIG.2~ PFourIn, for example, P2, The pixel P as shown in FIG.2A point on the inertial main axis 54a perpendicular to the target axis 38 passing through2And apex V2The pixel is divided into two regions (a region 55 indicated by hatching in the drawing and a region 56 other than that) along a straight line 54b that passes through and is perpendicular to the inertial main axis 54a.
And pixel P2The area ratio of the region 55 indicated by oblique lines in the figure to the area of2Point V so that it is equal to the brightness value of2Determine the position. Pixel PThree, PFourIn the same way, point VThree, VFourTo decide.
[0083]
The point V thus determined1~ VFourFrom the position, the target maximum width in each of the two principal axes of inertia is calculated with subpixel accuracy, and the total width in the machine axis direction is h, and the total width in the direction orthogonal thereto is d.
[0084]
Then, when the full width calculation device 19 calculates the full width values d and h of the target, the collation processing device 20 estimates the relative position and relative posture of the target as in the first embodiment.
Finally, when the relative state quantity estimating device 65 estimates the relative position and relative posture of the target, the aiming point calculating device 21 calculates the target aiming point as in the first embodiment.
[0085]
As is apparent from the above, according to the fourth embodiment, the luminance values of the pixels located at both end points of the line segment that gives the maximum width of the target in the direction of the target principal axis and the aperture ratio at the feature point of the target image The target's full width value is calculated with subpixel accuracy, and the target's relative position and posture are estimated from the full width value and model data related to the target's shape. Even in the case of a long distance, the influence of the quantization error of the image sensor 11 can be suppressed, and as a result, the relative position and the relative posture of the target can be accurately estimated.
[0086]
In addition, when estimating the relative position and relative posture of the target, it is not necessary to perform complicated repeated calculation processing such as gradient calculation, so that it is possible to efficiently estimate the relative position and relative posture of the target with respect to the flying object. There is an effect.
[0087]
Embodiment 5. FIG.
FIG. 20 is a block diagram showing a flying object image processing apparatus according to Embodiment 5 of the present invention. In the figure, the same reference numerals as those in FIG.
67 is a half mirror that outputs the front three-dimensional world to the image sensors 68 and 69, 68 is an image sensor similar to the image sensor 11, and 69 is horizontal and vertical in the image plane with respect to the target image captured by the image sensor 68. An image sensor arranged at a position displaced by 0.5 pixel in the direction, 70 is a flying object based on the inertial principal axis direction related to the target image on the image sensor 68 side and the inertial principal axis direction related to the target image on the image sensor 69 side Relative state quantity estimating device (estimating means) for estimating the relative position and relative position of the target with respect to the main axis both end points 71 for selecting pixels corresponding to the end points of the line segment that gives the maximum width of the target in the two inertial main axis directions A selection device 72 is a high-order full width calculation device that calculates the full width value of the target with sub-pixel accuracy from the positional relationship of each pixel selected by the spindle end point selection device 71.
[0088]
Next, the operation will be described.
First, the half mirror 67 outputs the three-dimensional world including the target in front of the flying object to the image sensors 68 and 69.
The image sensors 68 and 69 are configured such that an image acquired by one image sensor is 0.5 pixels in the horizontal direction in the image plane and 0.5 pixels in the vertical direction in the image plane with respect to an image acquired by the other image sensor. They are arranged so that they are translated.
As shown in FIG. 21, such an arrangement is such that one image sensor, for example, the image sensor 68 is fixed with respect to the optical axis a, and the image sensor 69 is light in a plane formed by the optical axes a and b. This can be realized by translational displacement in the direction of the arrow c perpendicular to the axis b and the direction of the arrow d perpendicular to the plane.
[0089]
The first image including the target in front of the flying object acquired by the image sensor 68 and the second image including the target in front of the flying object acquired by the image sensor 69 are respectively the same as in the first embodiment. The preprocessing device 12, the geometric characteristic calculation device 13, the inertial spindle estimation device 14, and the feature point detection device 15 operate.
[0090]
Next, the relative state quantity estimation device 70 estimates the relative position and relative posture of the target with respect to the flying object.
First, for each of the first image after the pre-processing and the second image, the axis selection device 18 corresponds to the target axis of the two inertia main axes estimated by the inertia main axis estimation device 14. Is determined.
[0091]
Next, for each of the first image and the second image, the principal axis end point selectors 71 and 71 are arranged at the end points of the line segments 48 and 49 that give the maximum width of the target in each of the two inertial principal axis directions. The corresponding pixel is selected and its position is output.
For example, FIG. 22 shows the case for the first image, and the pixel P indicated by the oblique lines in the figure.1~ PFourAre selected and the respective positions in the first image are output.
A similar process is performed on the second image, and the pixels Q corresponding to the end points of the line segment that gives the maximum width in the inertial principal axis direction.1~ QFourAre selected and the respective positions in the second image are output.
[0092]
The high-order full-width calculating device 72 has pixels P corresponding to the first images selected by the principal-axis end point selecting device 71, respectively.1~ PFour, And pixel Q for the second image1~ QFourThe maximum width in the main axis direction of the target image is calculated with sub-pixel accuracy based on the relative positional relationship of.
For example, it is assumed that the image sensor 69 is obtained by translating the image obtained by the image sensor 68 by +0.5 pixel in the horizontal direction in the image plane and +0.5 pixel in the vertical direction.
[0093]
At this time, a feature point corresponding to the target tip 39 in both images is represented by a pixel P.1, Q1Then, as shown in the left diagram of FIG.1, The actual target tip 39 in the second image is in the first quadrant 85 in the same pixel as shown in the right figure. Therefore, the pixel P detected in both images1And Q1There is no difference in position.
[0094]
Thus, for example, when the actual target tip 39 is in the first quadrant 86 as shown in the left diagram of FIG. 24, the actual target tip 39 in the second image is horizontal in the image plane as shown in the right diagram. Pixel Q displaced in translation by +1 pixel in the direction and +1 pixel in the vertical direction1In the third quadrant 87, the pixel P detected in both images1And pixel Q1The positional relationship between is the pixel Q1Is the pixel P1On the other hand, the translational displacement is +1 pixel in the horizontal direction in the image plane and +1 pixel in the vertical direction.
[0095]
Similarly, if the actual target tip 39 is in the second quadrant, the pixel Q1Is the pixel P1When the actual target tip 39 is in the fourth quadrant only in the vertical direction in the image plane, the pixel Q1Is the pixel P1On the other hand, the translational displacement is +1 pixel only in the horizontal direction in the image plane.
[0096]
That is, each pixel PiAnd QiBy examining the relative positional relationship in the image plane (i = 1, 2, 3, 4), the actual target principal axis direction both ends are the pixels P in the first image.iYou can determine which quadrant you are in.
The maximum width of the target in the direction of the two principal axes of inertia is the center point of this quadrant, for example, the point C shown by x in FIGS.1As a reference, the value is calculated with sub-pixel accuracy.
[0097]
Then, when the high-order full-width calculating device 66 calculates the target full-width values h and d, the collation processing device 20 estimates the target relative position and relative posture as in the first embodiment.
Finally, when the relative state quantity estimating device 17 estimates the relative position and relative posture of the target, the aiming point calculating device 21 calculates the target aiming point as in the first embodiment.
[0098]
As is apparent from the above, according to the fifth embodiment, the target object relative to the flying object is based on the inertial principal axis direction related to the target image on the image sensor 68 side and the inertial principal axis direction related to the target image on the image sensor 69 side. Since the relative position and the relative posture are estimated, the resolution of the image sensor can be apparently doubled in both the horizontal direction and the vertical direction. As a result, the relative distance of the target with respect to the flying object is increased. Since the influence of the quantization error of the image sensor can be suppressed even at relatively long distances, it is possible to accurately estimate the relative position and relative posture of the target and to accurately calculate the target aiming point using the target. There is an effect that can be done.
[0099]
In addition, when estimating the relative position and relative posture of the target, it is not necessary to perform complicated repeated calculation processing such as gradient calculation, so that it is possible to efficiently estimate the relative position and relative posture of the target with respect to the flying object. There is an effect.
[0100]
【The invention's effect】
As described above, according to the present invention, since the estimation means for estimating the relative position and relative posture of the target with respect to the flying object based on the inertial principal axis direction specified by the direction specifying means is provided, Even if the relative position and relative posture of the target change, there is an effect that the aiming point of the target can be accurately calculated.
[0101]
According to the present invention, there is provided estimation means for calculating the full width value of the target from the inertia main axis direction specified by the direction specifying means, and estimating the relative position and relative posture of the target from the data related to the full width value and the shape of the target. Thus, it is possible to easily estimate the relative position and relative posture of the target.
[0102]
According to this invention, an estimated image of the target is generated from the relative position and relative posture estimated by the estimating means, an error between the estimated image and the target image is calculated, and the full width value of the target in a direction in which the error decreases. As a result, the influence of the quantization error of the image sensor can be suppressed even when the relative distance of the target to the flying object is relatively long. There is an effect that the relative position and the relative posture can be estimated with high accuracy.
[0103]
According to the present invention, since the update means for calculating the gradient of the error and updating the full width value of the target using the gradient is provided, the relative position and the relative posture of the target with respect to the flying object are accurately estimated. There is an effect that can.
[0104]
According to the present invention, since the area and the cross-sectional secondary moment of the target image and the estimated image are calculated and the update means for updating the full width value of the target using the area and the cross-sectional secondary moment is provided, There is an effect that the relative position and relative posture of the target with respect to the body can be efficiently estimated.
[0105]
According to the present invention, the total width of the target is determined from the luminance values of the pixels located at both end points of the line segment that gives the maximum width of the target in the inertial principal axis direction specified by the direction specifying means, and the aperture ratio at the feature point of the target image. In the case where the relative distance of the target with respect to the projectile is relatively long, the estimation means for calculating the value and estimating the relative position and relative posture of the target from the data on the full width value and the shape of the target is provided. However, the influence of the quantization error of the image sensor is suppressed, and as a result, there is an effect that the relative position and the relative posture of the target can be accurately estimated.
[0106]
According to this invention, the estimation for estimating the relative position and the relative posture of the target with respect to the flying object based on the inertia main axis direction specified by the first direction specifying means and the inertia main axis direction specified by the second direction specifying means. Since the means is provided, the influence of the quantization error of the image sensor can be suppressed even when the relative distance of the target to the flying object is relatively long. There is an effect that the posture can be accurately estimated and the aiming point of the target can be accurately calculated using the posture.
[0107]
According to the present invention, the pixels located at both end points of the line segment that gives the maximum width of the target are selected based on the inertia principal axis direction specified by the first direction specifying means, and specified by the second direction specifying means. Based on the inertial principal axis direction, a pixel located at both end points of the line segment that gives the maximum width of the target is selected, and an estimation means for estimating the relative position and relative posture of the target from the positional relationship of these pixels is provided. Since it comprised, there exists an effect which can estimate the relative position and relative attitude | position of a target with respect to a flying body accurately.
[0108]
According to the present invention, when the geometric characteristic amount of the target is calculated from the target image and the inertia principal axis direction of the target is specified from the geometric characteristic amount, the relative position and the relative posture of the target with respect to the flying object are calculated based on the inertia principal axis direction. Since the target sighting point is calculated from the relative position and relative posture, the target sighting point can be accurately calculated even if the target relative position and relative posture with respect to the flying object change. There is an effect that can be done.
[0109]
According to the present invention, the total width value of the target is calculated from the inertial principal axis direction of the target, and the relative position and the relative posture of the target are estimated from the data regarding the total width value and the target shape. There is an effect that the relative position and the relative posture can be estimated.
[0110]
According to the present invention, an estimated image of a target is generated from the relative position and orientation of the target, an error between the estimated image and the target image is calculated, and the full width value of the target is updated in a direction in which the error decreases. Therefore, even when the relative distance of the target to the flying object is relatively long, the influence of the quantization error of the image sensor can be suppressed, and as a result, the relative position and relative posture of the target can be accurately determined. There is an effect that can be estimated.
[0111]
According to the present invention, since the gradient of the error is calculated and the full width value of the target is updated using the gradient, it is possible to accurately estimate the relative position and relative posture of the target with respect to the flying object. There is.
[0112]
According to the present invention, the area and the cross-sectional secondary moment of the target image and the estimated image are calculated, and the total width value of the target is updated using the area and the cross-sectional secondary moment. There is an effect that the relative position and the relative posture can be efficiently estimated.
[0113]
According to the present invention, the total width value of the target is calculated from the luminance values of the pixels located at both end points of the line segment that gives the maximum width of the target in the direction of the principal axis of the target and the aperture ratio at the feature point of the target image, Since the relative position and orientation of the target are estimated from the data on the full width value and the target shape, the quantization error of the image sensor can be reduced even when the relative distance of the target to the projectile is relatively long. As a result, there is an effect that the relative position and relative posture of the target can be accurately estimated.
[0114]
According to the present invention, the relative position and relative posture of the target with respect to the flying object are estimated based on one inertia main axis direction and the other inertia main axis direction, and the target aiming point is calculated from the relative position and relative posture. As a result, even when the relative distance of the target to the flying object is relatively long, the influence of the quantization error of the image sensor can be suppressed, and as a result, the relative position and orientation of the target can be estimated accurately. In addition, it is possible to accurately calculate the target aiming point using the target.
[0115]
According to the present invention, a pixel located at both end points of a line segment that gives the maximum target width based on one inertia main axis direction and a line segment that gives the maximum target width based on the other inertia main axis direction are selected. Since the target position and relative posture of the flying object are accurately calculated, the relative position and relative posture of the target are estimated by selecting the pixels located at both end points of the target. There is an effect that can.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing a flying object image processing apparatus according to Embodiment 1 of the present invention;
FIG. 2 is a flowchart showing a flying object image processing method according to Embodiment 1 of the present invention;
FIG. 3 is an explanatory diagram showing a camera coordinate system and a target fixed coordinate system.
FIG. 4 is an explanatory diagram showing the inertial principal axis direction of a target image.
FIG. 5 is an explanatory diagram showing that an image (target shape) varies depending on a posture of a target with respect to a flying object.
FIG. 6 is an explanatory diagram for explaining the principle of a SUSAN operator showing an example of a corner detector.
FIG. 7 is an explanatory diagram showing maximum widths in two inertial spindle directions.
FIG. 8 is an explanatory diagram showing data stored in a target database.
FIG. 9 is a block diagram showing a flying object image processing apparatus according to Embodiment 2 of the present invention;
FIG. 10 is an explanatory diagram for explaining the influence of a quantization error in an image sensor.
FIG. 11 is an explanatory diagram for explaining an influence of a quantization error in the image sensor.
FIG. 12 is an explanatory diagram for explaining the influence of a quantization error in the image sensor.
FIG. 13 is a block diagram showing a flying object image processing apparatus according to Embodiment 3 of the present invention;
FIG. 14 is an explanatory diagram for explaining the update of the full width value in the inertial spindle direction.
FIG. 15 is a block diagram showing a flying object image processing apparatus according to Embodiment 4 of the present invention;
FIG. 16 is an explanatory diagram illustrating calculation of an image aperture ratio at a target tip.
FIG. 17 is an explanatory diagram showing a line segment giving the maximum width in the inertial principal axis direction and pixels corresponding to both end points thereof.
FIG. 18 Pixel P1End point V1It is explanatory drawing explaining the determination of.
FIG. 19 Pixel P2End point V2It is explanatory drawing explaining the determination of.
FIG. 20 is a block diagram showing a flying object image processing apparatus according to Embodiment 5 of the present invention;
FIG. 21 is an explanatory diagram for explaining the arrangement of the image sensors 68 and 69;
FIG. 22 is an explanatory diagram showing pixels corresponding to both end points of a line segment that gives the maximum width in the inertial principal axis direction;
FIG. 23 is an explanatory diagram showing a relative positional relationship (no relative position error) between the first image and the second image of the target tip.
FIG. 24 is an explanatory diagram showing a relative positional relationship (with a relative position error) between the first image and the second image of the target tip.
FIG. 25 is an image view showing an image taken by a camera mounted in front of a flying object.
FIG. 26 is an explanatory diagram for explaining a conventional flying object image processing apparatus.
FIG. 27 is an explanatory diagram for explaining a conventional flying object image processing apparatus.
FIG. 28 is an explanatory diagram for explaining a conventional flying object image processing apparatus.
[Explanation of symbols]
13, 62 Geometric characteristic calculation device (characteristic amount calculation means), 14 Inertial spindle estimation device (direction specifying means), 15, 63 Feature point detection device (estimation means), 16 Target database (estimation means), 17, 65, 70 Relative state quantity estimation device (estimation means), 21 Aim point calculation device (aim point calculation means), 22 Estimated image generation device (update means), 23 Estimation error calculation device (update means), 24 Gradient calculation device (update means) 25, 27 Higher order full width updating device (updating means), 26 Higher order feature amount calculating device (updating means), 64 Aperture ratio calculating device (estimating means).

Claims (16)

標的画像から標的の幾何特性量を演算する特性量演算手段と、上記特性量演算手段により演算された幾何特性量から標的の慣性主軸方向を特定する方向特定手段と、上記方向特定手段により特定された慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定する推定手段と、上記推定手段により推定された相対位置及び相対姿勢から標的の照準点を算定する照準点算定手段とを備えた飛翔体の画像処理装置。A characteristic amount calculating means for calculating a geometric characteristic amount of the target from the target image, a direction specifying means for specifying the inertial principal axis direction of the target from the geometric characteristic amount calculated by the characteristic amount calculating means, and the direction specifying means Estimating means for estimating the relative position and relative posture of the target with respect to the flying object based on the inertial principal axis direction, and aiming point calculating means for calculating the aiming point of the target from the relative position and relative posture estimated by the estimating means. A flying object image processing apparatus provided. 推定手段は、方向特定手段により特定された慣性主軸方向から標的の全幅値を計算し、その全幅値と標的の形状に関するデータから標的の相対位置及び相対姿勢を推定することを特徴とする請求項1記載の飛翔体の画像処理装置。The estimation means calculates the full width value of the target from the direction of the principal axis of inertia specified by the direction specifying means, and estimates the relative position and relative posture of the target from data relating to the full width value and the shape of the target. The flying object image processing apparatus according to 1. 推定手段により推定された相対位置及び相対姿勢から標的の推定画像を生成して、その推定画像と標的画像の誤差を計算し、その誤差が減少する方向に標的の全幅値を更新する更新手段を設けたことを特徴とする請求項2記載の飛翔体の画像処理装置。Update means for generating an estimated image of the target from the relative position and relative posture estimated by the estimating means, calculating an error between the estimated image and the target image, and updating the full width value of the target in a direction in which the error decreases. The flying object image processing apparatus according to claim 2, wherein the flying object image processing apparatus is provided. 更新手段は、誤差の勾配を計算し、その勾配を用いて標的の全幅値を更新することを特徴とする請求項3記載の飛翔体の画像処理装置。4. The flying object image processing apparatus according to claim 3, wherein the updating means calculates an error gradient and updates the full width value of the target using the gradient. 更新手段は、標的画像及び推定画像の面積と断面二次モーメントを計算し、その面積と断面二次モーメントを用いて標的の全幅値を更新することを特徴とする請求項3記載の飛翔体の画像処理装置。The update means calculates the area and the cross-sectional secondary moment of the target image and the estimated image, and updates the full width value of the target using the area and the cross-sectional secondary moment. Image processing device. 推定手段は、方向特定手段により特定された慣性主軸方向において標的の最大幅を与える線分の両端点に位置する画素の輝度値と、標的画像の特徴点における開口率とから標的の全幅値を計算し、その全幅値と標的の形状に関するデータから標的の相対位置及び相対姿勢を推定することを特徴とする請求項1記載の飛翔体の画像処理装置。The estimation means calculates the full width value of the target from the luminance values of the pixels located at both end points of the line segment that gives the maximum width of the target in the inertial principal axis direction specified by the direction specifying means, and the aperture ratio at the feature point of the target image. 2. The flying object image processing apparatus according to claim 1, wherein the target image is calculated and the relative position and the relative posture of the target are estimated from data relating to the full width value and the shape of the target. 標的画像から標的の幾何特性量を演算する第1の特性量演算手段と、その標的画像に対して画像面内で水平方向及び垂直方向にそれぞれ0.5画素変位された標的画像から標的の幾何特性量を演算する第2の特性量演算手段と、上記第1の特性量演算手段により演算された幾何特性量から標的の慣性主軸方向を特定する第1の方向特定手段と、上記第2の特性量演算手段により演算された幾何特性量から標的の慣性主軸方向を特定する第2の方向特定手段と、上記第1の方向特定手段により特定された慣性主軸方向と上記第2の方向特定手段により特定された慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定する推定手段と、上記推定手段により推定された相対位置及び相対姿勢から標的の照準点を算定する照準点算定手段とを備えた飛翔体の画像処理装置。A first characteristic amount calculating means for calculating a target geometric characteristic amount from the target image, and a target geometry from the target image displaced by 0.5 pixels in the horizontal direction and the vertical direction in the image plane with respect to the target image; Second characteristic amount calculating means for calculating a characteristic amount; first direction specifying means for specifying the inertial principal axis direction of the target from the geometric characteristic amount calculated by the first characteristic amount calculating means; and the second Second direction specifying means for specifying the target inertial principal axis direction from the geometric characteristic amount calculated by the characteristic amount calculating means, inertial main axis direction specified by the first direction specifying means, and second direction specifying means Estimating means for estimating the relative position and relative posture of the target relative to the flying object based on the inertial principal axis direction specified by, and the aiming point for calculating the target aiming point from the relative position and relative posture estimated by the estimating means The image processing apparatus of the projectile with a constant section. 推定手段は、第1の方向特定手段により特定された慣性主軸方向に基づいて標的の最大幅を与える線分の両端点に位置する画素を選択するとともに、第2の方向特定手段により特定された慣性主軸方向に基づいて標的の最大幅を与える線分の両端点に位置する画素を選択し、それらの画素の位置関係から標的の相対位置及び相対姿勢を推定することを特徴とする請求項7記載の飛翔体の画像処理装置。The estimating means selects pixels located at both end points of the line segment that gives the maximum width of the target based on the inertial principal axis direction specified by the first direction specifying means, and is specified by the second direction specifying means 8. A pixel located at both end points of a line segment that gives the maximum width of the target based on the inertial principal axis direction is selected, and the relative position and relative posture of the target are estimated from the positional relationship of these pixels. The flying object image processing apparatus described. 標的画像から標的の幾何特性量を演算し、その幾何特性量から標的の慣性主軸方向を特定すると、その慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定し、その相対位置及び相対姿勢から標的の照準点を算定する飛翔体の画像処理方法。When calculating the geometric characteristic amount of the target from the target image and specifying the inertia principal axis direction of the target from the geometric characteristic amount, the relative position and relative posture of the target with respect to the flying object are estimated based on the inertia principal axis direction, and the relative position And a flying object image processing method for calculating a target aiming point from a relative posture. 標的の慣性主軸方向から標的の全幅値を計算し、その全幅値と標的の形状に関するデータから標的の相対位置及び相対姿勢を推定することを特徴とする請求項9記載の飛翔体の画像処理方法。10. The flying object image processing method according to claim 9, further comprising: calculating a full width value of the target from the inertial principal axis direction of the target, and estimating a relative position and a relative posture of the target from data relating to the full width value and the shape of the target. . 標的の相対位置及び相対姿勢から標的の推定画像を生成して、その推定画像と標的画像の誤差を計算し、その誤差が減少する方向に標的の全幅値を更新することを特徴とする請求項10記載の飛翔体の画像処理方法。An estimated image of the target is generated from the relative position and relative posture of the target, an error between the estimated image and the target image is calculated, and the full width value of the target is updated in a direction in which the error decreases. The flying object image processing method according to 10. 誤差の勾配を計算し、その勾配を用いて標的の全幅値を更新することを特徴とする請求項11記載の飛翔体の画像処理方法。12. The flying object image processing method according to claim 11, wherein a gradient of the error is calculated, and the full width value of the target is updated using the gradient. 標的画像及び推定画像の面積と断面二次モーメントを計算し、その面積と断面二次モーメントを用いて標的の全幅値を更新することを特徴とする請求項11記載の飛翔体の画像処理方法。12. The flying object image processing method according to claim 11, wherein the area and the cross-sectional secondary moment of the target image and the estimated image are calculated, and the full width value of the target is updated using the area and the cross-sectional secondary moment. 標的の慣性主軸方向において標的の最大幅を与える線分の両端点に位置する画素の輝度値と、標的画像の特徴点における開口率とから標的の全幅値を計算し、その全幅値と標的の形状に関するデータから標的の相対位置及び相対姿勢を推定することを特徴とする請求項9記載の飛翔体の画像処理方法。The total width value of the target is calculated from the luminance values of the pixels located at both end points of the line segment that gives the maximum width of the target in the direction of the target principal axis and the aperture ratio at the feature point of the target image. 10. The flying object image processing method according to claim 9, wherein the relative position and relative posture of the target are estimated from data relating to the shape. 標的画像から標的の幾何特性量を演算し、その幾何特性量から標的の慣性主軸方向を特定する一方、その標的画像に対して画像面内で水平方向及び垂直方向にそれぞれ0.5画素変位された標的画像から標的の幾何特性量を演算し、その幾何特性量から標的の慣性主軸方向を特定すると、それぞれ特定した慣性主軸方向に基づいて飛翔体に対する標的の相対位置及び相対姿勢を推定し、その相対位置及び相対姿勢から標的の照準点を算定する飛翔体の画像処理方法。While calculating the geometric characteristic amount of the target from the target image and specifying the inertial principal axis direction of the target from the geometric characteristic amount, the target image is displaced by 0.5 pixel in the horizontal direction and the vertical direction in the image plane. The target geometric characteristic amount is calculated from the target image, and the target principal axis direction of the target is determined from the geometric characteristic amount. A flying object image processing method for calculating a target aiming point from the relative position and relative posture. 一方の慣性主軸方向に基づいて標的の最大幅を与える線分の両端点に位置する画素を選択するとともに、他方の慣性主軸方向に基づいて標的の最大幅を与える線分の両端点に位置する画素を選択し、それらの画素の位置関係から標的の相対位置及び相対姿勢を推定することを特徴とする請求項15記載の飛翔体の画像処理方法。Select pixels located at both end points of the line segment that gives the maximum width of the target based on one inertial principal axis direction, and locate at both end points of the line segment that gives the maximum target width based on the other inertial principal axis direction 16. The flying object image processing method according to claim 15, wherein pixels are selected, and a relative position and a relative posture of the target are estimated from a positional relationship between the pixels.
JP11546799A 1999-04-22 1999-04-22 Flying object image processing apparatus and flying object image processing method Expired - Fee Related JP4034003B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11546799A JP4034003B2 (en) 1999-04-22 1999-04-22 Flying object image processing apparatus and flying object image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11546799A JP4034003B2 (en) 1999-04-22 1999-04-22 Flying object image processing apparatus and flying object image processing method

Publications (2)

Publication Number Publication Date
JP2000304499A JP2000304499A (en) 2000-11-02
JP4034003B2 true JP4034003B2 (en) 2008-01-16

Family

ID=14663272

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11546799A Expired - Fee Related JP4034003B2 (en) 1999-04-22 1999-04-22 Flying object image processing apparatus and flying object image processing method

Country Status (1)

Country Link
JP (1) JP4034003B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5305995B2 (en) * 2009-03-12 2013-10-02 株式会社東芝 Object identification device
JP5325822B2 (en) * 2010-03-19 2013-10-23 株式会社東芝 Object identification device
JP2013005264A (en) * 2011-06-17 2013-01-07 Toshiba Corp Moving object tracking device and reference point tracking method
CN103838244B (en) * 2014-03-20 2016-08-17 湖南大学 Portable method for tracking target based on four-axle aircraft and system
JP6956659B2 (en) * 2018-03-19 2021-11-02 三菱電機株式会社 Image processing equipment and laser irradiation equipment
KR102494973B1 (en) * 2021-04-09 2023-02-06 엘아이지넥스원 주식회사 Method and Apparatus for Measuring Impact Information of Guided Air Vehicle

Also Published As

Publication number Publication date
JP2000304499A (en) 2000-11-02

Similar Documents

Publication Publication Date Title
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP6736257B2 (en) Information processing device, information processing method, and program
EP1983484B1 (en) Three-dimensional-object detecting device
US5432712A (en) Machine vision stereo matching
JP5567908B2 (en) Three-dimensional measuring apparatus, measuring method and program
JP5109294B2 (en) 3D position correction device
CN108481327B (en) Positioning device, positioning method and robot for enhancing vision
US20120062749A1 (en) Human body identification method using range image camera and human body identification apparatus
JP6860620B2 (en) Information processing equipment, information processing methods, and programs
JP2002063567A (en) Device and method for estimating body position and attitude, method for feature point extraction method using the same, and image collating method
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP4034003B2 (en) Flying object image processing apparatus and flying object image processing method
JP5462662B2 (en) Position / orientation measurement apparatus, object identification apparatus, position / orientation measurement method, and program
CA2460615C (en) Model-based object classification and target recognition
CN107330936B (en) Monocular vision-based double-circular marker positioning method and system
JP4412799B2 (en) Aircraft aiming point calculation apparatus and method
Ilg et al. Reconstruction of rigid body models from motion distorted laser range data using optical flow
JPH10312463A (en) Recognizing method for object and its device
JP2013114381A (en) Object identification device and object identification method
JP7053341B2 (en) Processing equipment and programs
JP2017182564A (en) Positioning device, positioning method, and positioning computer program
CN105373792A (en) Wheel alignment method and wheel alignment equipment
Bodensteiner et al. Accurate single image multi-modal camera pose estimation
JP7240193B2 (en) Face orientation determination device, computer program, and storage medium
JP2001109894A (en) Device and method for image information recognition and medium stored with image information recognizing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070925

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071024

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101102

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees