JPH01106187A - 3次元空間に存在する物体の姿勢推定方法 - Google Patents

3次元空間に存在する物体の姿勢推定方法

Info

Publication number
JPH01106187A
JPH01106187A JP62262731A JP26273187A JPH01106187A JP H01106187 A JPH01106187 A JP H01106187A JP 62262731 A JP62262731 A JP 62262731A JP 26273187 A JP26273187 A JP 26273187A JP H01106187 A JPH01106187 A JP H01106187A
Authority
JP
Japan
Prior art keywords
vector
center
model
matching
gravity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62262731A
Other languages
English (en)
Inventor
Mikio Fukase
深瀬 幹夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP62262731A priority Critical patent/JPH01106187A/ja
Publication of JPH01106187A publication Critical patent/JPH01106187A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 (lit要) 対象物体の画像情報とモデルのパターンとのマツチング
により3次元空間に存在する物体の姿勢をJft定する
3次元空間に存在する物体の姿勢推定方法に関し、 少ない情報を使って簡単かつ短時間で3次元空間に存在
する物体の姿勢を推定する3次元空間に存在する物体の
姿勢推定方法を提供することを目的とし、 対象物体のモデルを構成する複数の面夫々について、各
面の向き及び大きさを表わす面ベクトルと、該各面の重
心位置を表わず重心位置ベクトルとを抽出し、カメラで
RI&された3次元空間に存在する物体の画像情報を領
域分割し、各領域の面積の比と、該各領域の重心位置の
比とを抽出し、該モデルの各面の面ベクトルと重心位置
ベクトルとを3次元空間で回転させて、任意に選定した
視線軸に対する該各面の面ベクトルの視線軸成分と、該
各面の重心位置ベクトルの該視線軸と直交する平面の2
軸成分の比とを求め、該各面の位置関係と面の面積比と
によりマツチングを行ない、該3次元空間に存在する物
体の姿勢を推定するよう構成する。
〔産業上の利用分野〕
本発明は3次元空間に存在する物体(以下単に「3次元
物体」という)の姿95准定方法に関し、3次元物体の
画像情報と対象物体モデルの情報とのマツチングにより
3次元物体の姿勢を推定する3次元空間に存在する物体
の姿勢推定方法に関する。
視覚から得られる3次元物体の画像情報を処理してパタ
ーン化し、その姿勢の推定を行なうプロセスは、幾つも
の段階から構成されるが、物理レベルの処理と概念レベ
ルの処理とに大別することができる。物理レベルの処理
は入力画像データを処理する部分であり、前処理及び特
徴抽出等を含lνでいる。概念レベルの処理は、物理レ
ベルの処理によって得られた画像の特徴などのシンボル
化された画像データの処理と認識の部分であり、モデル
パターンとのマツチングをとり、最良のマツチングを選
択するステップを含んでいる。数多くの姿勢推定方法が
提案されているが、それぞれ一長一短があり、より速(
より粘度の良い姿勢(「定方法が模索されている。
〔従来の技術〕
従来の3次元物体の推定は、これまで多くの場合、第7
図に示す如く視覚センサ(カメラ)から入力した濃淡画
像情報を雑音除去9m度変換等の前処理(ブロック71
)をした後、境界を抽出しくブロック72)、これから
エツジとして抽出しくブロック73)、そこから幾つか
の特徴を選び(ブロック74)、数値化した特徴と同様
の形で蓄えられているモデル側の特徴とのマツチングを
とる(ブロック75)という方法が行なわれていた。
〔発明が解決しようとする問題点〕
しかるに、到筒機による画像処理では入力濃淡情報のR
矛先の際に情報が欠落し、例えば第8図(△)になし地
で示す四辺形6a領域のように画素となる枠内を少しは
み出した形状の領域の情報は同図(B)に示す矩形6b
のみしか情報が残らない。同様に濃度情報についても連
続的情報が離散的に扱われるため情報の欠落を生じる。
このことから、エツジの抽出時に同図(C)に示す如く
、エツジの一部が欠落してしまうことが多々あり、これ
は、特徴抽出時には同図(D)の如く認識されて、閉じ
たエツジによって初めて認識できる形状(この場合三角
形)を認識できないことになる。
しかし、このような曖昧さが残る境界の影響をできるだ
け小さくするために、密度の高い標本化によって高い精
度を追及していくという対処方法は、膨大な暗粋吊を引
き起こすことになり、h1算様の容量、速度の点から現
実的で7はないという問題点があった。
本発明はこのような点に鑑みなされたものであり、少な
い情報を使ってn*かつ短vt間で3次元物体の姿勢を
推定する3次元空部に存在する物体の姿勢推定方法を提
供することを目的とする。
〔問題点を解決するための手段〕
3次元空間に存在する物体を、視覚センサ(カメラ)を
通し画像情報としたものと、この対象物のモデル情報(
設シ1情報、既に観察してわかっている形状情報等)と
の間で、姿勢、距離により異なる特徴を使いマツチング
をとることで、空間に置かれた物体の距離、姿勢の推定
を行いえる。この際、物体の形を構成する面についての
記述特に構成という面から隣接面関係の記述が重要にな
ってくる。本発明は、この隣接面関係の簡甲且つ有効な
記述として物体を構成する面各々の面積重心関係(配置
)を用いたものである。
第1図は本発明方法の原理ブロック図を示す。
同図中、ブロック1では外部からの指示により対象物体
のモデルを選択する。
ブロック2では対象物体のモデルを構成する複数の面夫
々について、各面の向き及び大きさを表わす面ベクトル
と、各面の重心位置を表わす重心位置ベクトルとを抽出
する。
ブロック3では3次元物体の被認識物体を捕捉し、その
画像情報を得る。
ブロック4では画像情報を例えば濃度に応じて領域分割
する。
ブロック5では上記分割された各領域の面積と、各領域
の重心位置とを抽出し、比の形で用意する。
ブロック6ではモデルの各面の面ベクトルと重心位置ベ
クトルとを3次元空間で回転させて、任意に選定した視
覚センサ(カメラ)の視線軸に対する各面の面ベクトル
の視線軸成分と、各面の重心位置ベクトルの視線軸と直
交する平面の2軸成分とを求め、比の形で用意する。
ブロック7では各面の位置関係と面の面積比によりマツ
チングを行ない、3次元物体の姿勢を推定する。
(作用〕 本発明においては、モデルを構成する各面の視線軸方向
の面積及び各面の重心位置の関係と3次元物体を撮像面
へ投影したときの各領域の面積及び各領域の重心位置の
関係とをマツチングさせることにより、3次元物体のラ
フな姿勢推定を達成している。ここでは形状情報を捨て
て面情報を面積比と配2関係(具体的には重心の位置関
係)だけで単純化することによりモデル側の31算機処
理を高速にし、入力情報を領域分割法で処理することに
より@醜さに柔軟に対応している。
〔実施例〕
第2図は本発明方法を適用した宇宙空間での宇宙飛翔体
同士のランデブー・ドツキングの概略フローチャートを
示す。ナビゲーションフィルタ10には、加速度計及び
ジャイロより構成されるI NS (Inertial
 Navigation System :慣性航法装
置)11の加速tf it及びジャイロの出力より3次
元空間のX軸方向、Y軸方向、Z軸方向及びこの3軸夫
々の回転方向の6自由度航法情報が、GPS (Glo
bal Po5itionino 5atellite
:全地球的位を決め衛星)12から自己(チェイサ−)
及びターゲットの位置情報が、サンセンサ、アースセン
サ、スターセン勺9等のセンサ13から自己の姿勢情報
が入力されている。処理シーケンスのステップ14にお
いて自己及びターゲットの初期情報を得る。次いでステ
ップ15において、ターゲットが遠いか近いかを判断す
る。例えば、ターゲットが画像として判断できる状態と
なったとき近距離と判断する。ターゲットが未だ遠距離
の場合には、ステップ16に進んだレーザレーダ等の遠
距離センサを使用した接近をはかる。
ステップ15において、ターゲットが近距離に近付いた
と判断された場合には、ステップ17に進んで近距離セ
ンサを使用した本発明によるラフマツチングとファイン
マツチングとを組合せた階層的認識方法によりターゲッ
トの姿勢、距離を推定し、宇宙飛翔体同士のランデブー
・ドツキングを実現する。
第3図は近距離センサによる認識ノロ−チャートを示し
ており、まずステップ21においてフラーグmをセット
して1回目はファインマツチングまで行なう。次いでス
テップ22においてカウンタnを1にセットしてから、
ステップ23に進んで視覚セン勺よりターゲットの画像
入力を行なう。
ステップ24においては、本発明の面ベクトル及びa心
ベクトルを使用したラフマツチングを行ない、ステップ
25においてマツチングを認識したら、ターゲットの運
動を把握しているフライトマネイジャ−26を介してア
クチュエータ27を駆動し接近をはかる。
また一方では、ステップ25においてラフマツチングを
m mしたらステップ28に進んでn=kかあるいはm
=1かを判断する。すなわちこのステップでは、最初の
マツチングとn=・k回に1回はファインマツチングま
でを行なう処理を示している。ステップ28において否
定判定の場合には、ステップ29に進んでターゲットの
運動方程式が既知であることから、次のターゲットの相
対位置及び姿勢を4算により予測する。この剖訃結果は
ステップ24のマツチングに利用される。次いでステッ
プ30において、nを1つインクリメントしてステップ
22〜25までの処理を行なう。ステップ28において
肯定判定の場合には、ステップ31に進んでファインマ
ツチングを行ない、ステップ32においてファインマツ
チングを確認したらフライトマネイジャ−26を介して
アクチュエータ27を駆動して接近をはかる。
これと共に、ドツキングの終了を判別しくステップ33
)、終了してない場合にはステップ34でn=Qとして
ステップ29に進む。
このように本応用例においては、本発明によるラフマツ
チング(ステップ24)とファインマツチング(ステッ
プ21)とを組合せて、宇宙、飛翔体同士のランデブー
・ドツキングを達成する。
第4図は上述したような宇宙飛翔体1可士のランデブー
・ドツキングのラフマツチングに適用する本発明方法の
一実施例のブロック図を示す。
まずモデル側では、第1図のブロック1に対応するブロ
ック40でミッション要求等の外部からの指示によりタ
ーゲットに対応するモデルを選択する。
ここで、モデルは凸条面体で、各面の頂点座標で表現さ
れている。例えば第5図に示す如き六面体の場合頂点A
、B、C,D、E、F、G、Hの夫々の原点Oよりの座
標データで構成されている。
第1図のブロック2に対応するブロック41では、モデ
ルの各面毎に面ベクトルと重心位置ベクトルとを得る。
例えば第5図のモデルで、面ABCDについてはベクト
ルBCとベクトル8Aとの外積を求め、この外積のベク
トルの大きさを1/2とし、同様にベクトルDAとベク
トルDCの外積のベクトルの大きさを1/2としてこれ
らを加える。次にベクトルの始点を物体内部の適当な回
転中心0′に移動してその座標系(X’ 、y’ 。
z’ )における面ABCDの面ベクトルとする。
また、回転中心O′を始点とし、かつ而ABCDの重心
を終点とするベクトルを面ABCの重心位置ベクトルと
する。このようにして他の面A E 1−ID、AEF
B、BCGF、CDHG、EFGH夫々の面ベクトル及
び重心位置ベクトルを得る。面ベクトルはその面の面積
と面の向きを表わし、重心位置ベクトルはその面の位置
即ち隣接面関係を表わしている。
ブロック42では例えばZ軸をカメラの視線軸として、
各面夫々の面ベクトルの視線軸成分および各面夫々の重
心位置ベクトルの視線軸を除く2軸つまりX軸、Y軸成
分を抽出する。
また、各面夫々の面ベクトルの視線軸成分の比、つまり
′g1線方向の面積比を求め、かつ各面夫々の重心位置
ベクトル終点の投影位置成分の規格化を行なう。この規
格化とは例えば視線軸成分が最大。
最小夫々の面ベクトルに対応する重心位置ベクトルの終
点位置をXY平面上に投影した点間距離を基準とし、か
つ、視線軸成分が最大の面ベクトルに対応する重心位置
ベクトルの終点位置を原点とする変換である。
一方カメラ側では、第1図のブロック3に対応するブロ
ック50でターゲットをカメラで補足し、ターゲットの
画像情報を領域分割する。例えば次のようにして行なう
。得られた画像情報をその濃淡に応じて画素毎に濃度ラ
ベルを振り、濃淡画像情報を生成し、これを記憶する(
ブロック51)。
つまり、この情報の濃度ラベルが例えば「1」の画素と
(°2」の画素とは濃度が異なることを表わす。
次に、ステップ52で濃淡画像情報の濃度ラベルが同一
である領域を見付けることにより領域分割を行なう。こ
のように画像の特徴を抽出してターゲット画像を構成す
る複数の領域を切り出す。
上記のブロック51.52がブロック4に対応する。
この後、ブロック5に対応するブロック53で切り出さ
れた各領域毎に画素数をカウントして面積を求め、かつ
重心位置を求める。ここで、カメラ側は濃淡画像情報の
各画素の画面上の位置に対応してアドレスを割り当てて
おり、切り出された領域を構成する画素のアドレス及び
画素数から一意的にこの領域の重心位置が求められる。
例えば、第6図(A)に示す如く、ターゲット画@60
が領域60a、Bob、60cから構成れている。この
場合、同図(B)に示す如く、領域60a、60b、6
0c夫々の面積S + + S 21S3及び重心位置
? (X+ 、V+ )、(X2 、V2 )、(X3
.V3)を求める。これによって面積S+ 、82.8
3夫々は重心位置(X+ 、V+ )。
(X2 、V2 )、(X3.V3 )の関数5L(X
+ 、V+  )、S2  (X2 、V2 )、53
(X3 、 V3 )とて最終的に同図(C)に示す如
く表現される。
また、上記の面積S+ 、82.83の面積比を求め、
重心位置(X+ 、V+ )、(X2 、V2 )。
(X3 、 V3 )の規格化を行なう。
重心位置の規格化は面積が最大、R小人々の重心位置間
の距離を基準とし、かつ面積が最大の重心(O置を原点
とする変換がひとつの方法である。
ブロック7に対応するブロック43ではターゲットモデ
ルの規格化された重心位置投影成分とターゲット画像情
報の規格化された重心位置とににつて対応ずけられるタ
ーゲットのモデルの面積比とターゲット画像情報の面積
比とのマツチングを行ない、更にターゲットモデルの面
積大小関係と、ターゲット画像情報の面積大小関係に対
応する各々の規格化された重心位置についてのマツチン
グを行なう。
マツチングがとれない場合にはブロック44において、
モデルの面ベクトル及び重心位置ベクトルを物体に固定
した座標系をオイラー角(ψ、o。
φ)で回転さゼる。最初のx@11回りの回転をφ、次
のy軸回りの回転をθ、最後の2軸回りの回転をφとす
ると、φをO〜360’ 、各φに対しθを一90°〜
+90°、各ψとθに対しφを一90°〜90°に変化
さぜる。」−記のブロック42.44が第1図のブロッ
ク6に対応する。
そして各回転位置毎にブロック42で各面の面ベクトル
の視線軸成分及び重心位置ベクトルのX軸、Y軸成分を
抽出し、ブロック43で1次マツチングを行なう。これ
によってターゲットの姿勢が推定される。
1次マツチングがとれると、ブロック45で2次マツチ
ングが行なわれる。ここでは、モデルの各面夫々の面ベ
クトルの視線軸成分そのものと、ターゲットの各領域の
面積S+ 、32.83そのものとのマツチングを行な
い、これまで比のみでマツチングしていたものを大ぎさ
でマツチングす・る作業を行なう。
マツチングがとれない場合にはブロック46において、
モデルの各面の面ベクトルとの大ぎさを所定比率で順次
拡大・縮小し、ブロック42を経て再びブロック45の
2次マツチングを行なう。
この2次マツチングによってターゲットまでの距離の推
定が行なわれ、拡大・縮小の比率から距離を知ることが
できる。
このように、ターゲットの画像を領域として分割するた
め曖昧さから落とされてしまう情報も柔軟に取り扱うこ
とができ、モデルを構成する各面の視線軸方向の面積及
び各面の重心位置の関係とターゲットの各領域の面積及
び各領域の重心位置の関係とをマツチングさせるという
特徴的な情報のマツチングを行なうため姿勢推定を高速
に行なうことができる。
〔発明の効果〕
上述の如く、本発明の3次元空間に存在する物体の姿勢
推定方法によれば、3次元物体を領域として分割するた
め曖昧さから落とされてしまう情報を柔軟に取り扱うこ
とができ、モデルを構成する各面の視線軸方向の面積及
び各面の重心位置の関係を3次元物体の各領域の面積及
び各領域の重心位置の関係とをマツチングさせるという
特徴的な情報のマツチングを行なうため姿勢推定を短時
間にかつ曖昧さに強いマツチングを行なうことができ、
実用上きわめて有用である。
【図面の簡単な説明】
第1図は本発明方法の原理ブロック図、第2図は本発明
方法を適用したランデブー・ドツキングの概略フローチ
ャート、 第3図は第2図の近距離センサによる接近の詳細フロー
チャート、 第4図は本発明方法の一実施例のブロック図、第5図、
第6図は本発明方法を説明するための図、 第7図は従来方法の一例のブロック図、第8図は従来方
法での情報の欠落を説明するための図である。 図において、 10はナビゲーションフィルタ、 11はINS、 12はGPS、 13はセンサ、 14〜25.28〜34はステップ、 26はフライトマネイジャー、 27はアクチュエータ、 40〜53はブロック、 60はターゲット画像、 60a〜60Cは領域 を示す。 −、ニノ 本発明方法を説明するための図 第5図

Claims (1)

  1. 【特許請求の範囲】 対象物体のモデルを構成する複数の面夫々について、各
    面の向き及び大きさを表わす面ベクトルと、該各面の重
    心位置を表わす重心位置ベクトルとを抽出し(2)、 カメラで撮像された3次元空間に存在する物体の画像情
    報を領域分割し、各領域の面積の比と、該各領域の重心
    位置の比とを抽出(4、5)し、該モデルの各面の面ベ
    クトルと重心位置ベクトルとを3次元空間で回転させて
    、任意に選定した視線軸に対する該各面の面ベクトルの
    視線軸成分と、該各面の重心位置ベクトルの該視線軸と
    直交する平面の2軸成分の比とを求め(6)、 該各面の位置関係との面の面積比によりマッチングを行
    ない(7)、 該3次元空間に存在する物体の姿勢を推定することを特
    徴とする3次元空間に存在する物体の姿勢推定方法。
JP62262731A 1987-10-20 1987-10-20 3次元空間に存在する物体の姿勢推定方法 Pending JPH01106187A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62262731A JPH01106187A (ja) 1987-10-20 1987-10-20 3次元空間に存在する物体の姿勢推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62262731A JPH01106187A (ja) 1987-10-20 1987-10-20 3次元空間に存在する物体の姿勢推定方法

Publications (1)

Publication Number Publication Date
JPH01106187A true JPH01106187A (ja) 1989-04-24

Family

ID=17379805

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62262731A Pending JPH01106187A (ja) 1987-10-20 1987-10-20 3次元空間に存在する物体の姿勢推定方法

Country Status (1)

Country Link
JP (1) JPH01106187A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001015086A1 (fr) * 1999-08-19 2001-03-01 Sony Corporation Processeur d'images, procede de traitement d'images et support enregistre

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001015086A1 (fr) * 1999-08-19 2001-03-01 Sony Corporation Processeur d'images, procede de traitement d'images et support enregistre
US6965693B1 (en) 1999-08-19 2005-11-15 Sony Corporation Image processor, image processing method, and recorded medium
JP4604439B2 (ja) * 1999-08-19 2011-01-05 ソニー株式会社 画像処理装置及び画像処理方法、並びに記録媒体

Similar Documents

Publication Publication Date Title
Kisantal et al. Satellite pose estimation challenge: Dataset, competition design, and results
US10848732B2 (en) Free viewpoint movement display device
US11940277B2 (en) Vision-aided inertial navigation system for ground vehicle localization
US8896660B2 (en) Method and apparatus for computing error-bounded position and orientation of panoramic cameras in real-world environments
EP0431191B1 (en) Method and apparatus for measuring position and posture of object
Dor et al. ORB-SLAM applied to spacecraft non-cooperative rendezvous
Chai et al. Three-dimensional motion and structure estimation using inertial sensors and computer vision for augmented reality
Lins et al. Vision-based measurement for localization of objects in 3-D for robotic applications
US9189891B2 (en) Systems and methods for navigating a camera
CN108401461A (zh) 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品
WO2013027628A1 (ja) 情報処理装置、情報処理方法及びプログラム
Veth et al. Stochastic constraints for efficient image correspondence search
Burkard et al. User-aided global registration method using geospatial 3D data for large-scale mobile outdoor augmented reality
Alam et al. Pose estimation algorithm for mobile augmented reality based on inertial sensor fusion.
Xian et al. Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach
CN113034347B (zh) 倾斜摄影图像处理方法、装置、处理设备及存储介质
CN110749308A (zh) 使用消费级gps和2.5d建筑物模型的面向slam的室外定位方法
Shangguan et al. Vision-based object recognition and precise localization for space body control
Crombez et al. Using dense point clouds as environment model for visual localization of mobile robot
JPH01106187A (ja) 3次元空間に存在する物体の姿勢推定方法
JP2610625B2 (ja) 3次元空間に存在する物体の姿勢推定方法
Gomez-Balderas et al. Vision-based autonomous hovering for a miniature quad-rotor
Artemciukas et al. Kalman filter for hybrid tracking technique in augmented reality
JP5761554B2 (ja) 移動体姿勢の決定方法、移動体姿勢の決定プログラム、及び移動体姿勢の決定装置
JPH01106189A (ja) 3次元空間に存在する物体の姿勢推定方法