JP2610625B2 - 3次元空間に存在する物体の姿勢推定方法 - Google Patents

3次元空間に存在する物体の姿勢推定方法

Info

Publication number
JP2610625B2
JP2610625B2 JP62262732A JP26273287A JP2610625B2 JP 2610625 B2 JP2610625 B2 JP 2610625B2 JP 62262732 A JP62262732 A JP 62262732A JP 26273287 A JP26273287 A JP 26273287A JP 2610625 B2 JP2610625 B2 JP 2610625B2
Authority
JP
Japan
Prior art keywords
vector
center
gravity
line
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP62262732A
Other languages
English (en)
Other versions
JPH01106188A (ja
Inventor
幹夫 深瀬
隆 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP62262732A priority Critical patent/JP2610625B2/ja
Publication of JPH01106188A publication Critical patent/JPH01106188A/ja
Application granted granted Critical
Publication of JP2610625B2 publication Critical patent/JP2610625B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔概要〕 対象物体の画像情報とモデルのパターンとのマッチン
グにより3次元空間に存在する物体の姿勢を推定する3
次元空間に存在する物体の姿勢推定方法に関し、 少ない情報を使って簡単かつ高速に3次元空間存在す
る物体の姿勢を認識することを目的とし、対象物体のモ
デルを構成する複数の面夫々について、各面の向き及び
大きさを表す面ベクトルと、該各面の重心位置を表す重
心ベクトルとを抽出し、カメラで撮像された3次元空間
に存在する物体の画像情報を領域分割し、各領域の面積
比を、該各領域に対応する該重心位置のx座標,y座標ま
たは該重心位置ベクトルの角度の大小関係に応じた順列
で抽出し、該モデルの各面の面ベクトルと重心位置ベク
トルとを3次元空間で回転させて、任意に選定した視線
軸に対する該各面の面ベクトルの視線軸成分比を、該各
面の重心位置ベクトルの該視線軸と直交する平面上に投
影した位置ベクトルのX軸,Y軸成分または角度の大小関
係に応じた順列で抽出し、該各面の面ベクトルの視線軸
成分比と各領域の面積比とを順列が同一となるものどう
しでマッチングを行い、該マッチングがとれたときに該
3次元空間に存在する物体の姿勢を推定するよう構成す
る。
〔産業上の利用分野〕
本発明は3次元空間に存在する物体(以下単に「3次
元物体」という)の姿勢推定方法に関し、3次元物体の
画像情報とモデルのパターンとのマッチングにより3次
元物体の姿勢を推定する3次元空間に存在する物体の姿
勢推定方法に関する。
視覚から得られる3次元物体の画像情報を処理してパ
ターン化し、その姿勢の推定を行なうプロセスは、幾つ
もの段階から構成されるが、物理レベルの処理と概念レ
ベルの処理とに大別することができる。物理レベルの処
理は入力画像データを処理する部分であり、前処理及び
特徴抽出等を含んでいる。概念レベルの処理は、物理レ
ベルの処理によって得られた画像の特徴などのシンボル
化された画像データの処理と認識の部分であり、モデル
パターンとのマッチングをとり、最良のマッチングを選
択するステップを含んでいる。数多くの姿勢推定方法が
提案されているが、それぞれ一長一短があり、より速く
より精度の良い姿勢推定方法が模索されている。
〔従来の技術〕
従来の3次元物体の推定は、これまで多くの場合、第
9図に示す視覚センサ(カメラ)から入力した濃淡画像
情報を雑音除去,濃度変換等の前処理(ブロック71)を
した後、境界を抽出し(ブロック72)、これからエッジ
として抽出し(ブロック73)、そこから幾つかの特徴を
選び(ブロック74)、数値化した特徴と同様の形で蓄え
られているモデル側の特徴とのマッチングをとる(ブロ
ック75)という方法が行なわれていた。
〔発明が解決しようとする問題点〕
しかるに、計算機による画像処理では入力濃淡情報の
量子化の際に情報が欠落し、例えば第10図(A)になし
地で示す四辺形6a領域のように画素となる枠内を少しは
み出した形状領域の情報は同図(B)に示す矩形6bのみ
しか情報が残らない。同様に濃淡情報についても連続的
情報が離散的に扱われるため情報の欠落を生じる。
このことから、エッジの抽出時に同図(C)に示す如
く、エッジの一部が欠落してしまうことが多くあり、こ
れは特徴抽出時には同図(D)の如く認識されて、閉じ
たエッジによって初めて認識できる形状(この場合三角
形)を認識できないことになる。
しかし、このような曖昧さが残る境界の影響をできる
だけ小さくするために、密度の高い標本化によって高い
精度を追及していくという対処方法は、膨大な計算量を
引き起こすことになり、計算機の容量,速度の点から実
現的ではないという問題点があった。
また、本出願人は昭和62年10月20日付提出の特許願
(1)、発明の名称「3次元空間に存在する物体の姿勢
推定方法」において、物体を構成する各面の面積を抽出
すると共に、面の隣接面情報として各面の重心位置関係
を用いる方法を提案した。しかし、この方法ではモデル
側,画像情報側夫々の各面の規格化した重心位置座標と
面積とを個々に比較するため、必要以上のデータ比較を
行なわねばならず、処理が遅くなるという問題点があっ
た。
本発明はこのような点に鑑みなされたものであり、少
ない情報を使って簡単かつ高速に3次元物体の姿勢を推
定する3次元空間に存在する物体の姿勢推定方法を提供
することを目的とする。
〔問題点を解決するための手段〕
3次元空間に存在する物体を、視覚センサ(カメラ)
を通し画像情報としたものと、この対象物のモデル情報
(設計情報、既に観察してわかっている形状情報等)と
の間で、姿勢,距離により異なる特徴を使いマッチング
をとることで、空間に置かれた物体の距離,姿勢の推定
を行いえる。この際、物体の形を構成する面についての
記述特に構成という面から隣接面関係の記述が重要にな
ってくる。本発明は、この隣接面関係の簡単且つ有効な
記述として、物体を構成する面各々の面積重心関係(配
置)を用いている。
第1図は本発明方法の原理ブロック図を示す。
同図中、ブロック1では外部からの指示により対象物
体のモデルを選択する。
ブロック2では3次元物体のモデルを構成する複数の
面夫々について、各面の向き及び大きさを表わす面ベク
トルと、該各面の重心位置を表わす重心位置ベクトルと
を抽出する。
ブロック3では3次元物体を捕捉し、その画像情報を
得る。
ブロック4では画像情報を例えば濃度に応じて領域分
割する。
ブロック5では上記分割された各領域の面積比を各領
域に対応する重心位置のx座標,y座標または重心位置ベ
クトルの角度の大小関係に応じた順列で抽出する。
ブロック6ではモデルの各面の面ベクトルと重心位置
ベクトルとを3次元空間で回転させて、任意に選定した
視線軸に対する各面の面ベクトルの視線軸成分比を各面
の重心位置ベクトルの視線軸と直交する平面上に投影し
た位置ベクトルのX軸,Y軸成分または角度の大小関係に
応じた順列で抽出する。
ブロック7では各面の面ベクトルの視線軸成分比と各
領域の面積比とを順列が同一となるものどうしでマッチ
ングを行ない、マッチングがとれたとき3次元物体の姿
勢を推定する。
〔作用〕
本発明においては、モデルを構成する各面の視線軸方
向の面積比を各面の重心位置の関係に従った順列とし、
3次元物体の各領域の面積比を各領域の重心位置の関係
に従った順列とし、両者をマッチングさせることによ
り、ラフな姿勢推定を高速に達成している。ここでは形
状情報を捨てて面情報を面ベクトルとして単純化するこ
とによりモデル側の計算機処理を高速にし、入力情報を
領域分割法で処理することにより曖昧さに柔軟に対応し
ている。
〔実施例〕
第2図は本発明方法を適用した宇宙空間での宇宙飛翔
体同士のランデブー・ドッキングの概略フローチャート
を示す。ナビゲーションフィルタ10には、加速度計及び
ジャイロより構成されるINS(Inertial Navigation Sys
tem:慣性航法装置)11の加速度計及びジャイロの出力よ
り3次元空間のX軸方向,Y軸方向,Z軸方向及びこの3軸
夫々の回転方向の6自由度航法精度が、GPS(Global Po
sitioning Satellie:全地球的位置決め衛星)12から自
己(チェィサー)及びターゲットの位置情報が、サンセ
ンサ,アースセンサ,スターセンサ,等のセンサ13から
自己の姿勢情報が入力されている。処理シーケンスのス
テップ14において自己及びターゲットの初期情報を得
る。次いでステップ15において、ターゲットが遠いか近
いかを判断する。例えば、ターゲットが画像として判断
できる状態となったとき近距離と判断する。ターゲット
が未だ遠距離の場合には、ステップ16に進んだレーザレ
ーダ等の遠距離センサを使用した接近をはかる。
ステップ15において、ターゲットが近距離に近付いた
と判断された場合には、ステップ17に進んで近距離セン
サを使用した本発明によるラフマッチングとファインマ
ッチングとを組付せた階層的認識方法によりターゲット
の姿勢,距離を推定し、宇宙飛翔体同士のランデブー・
ドッキングを実現する。
第3図は近距離センサによる認識フローチャートを示
しており、まずステップ21においてフラグmをセットし
て1回目はファインマッチングまで行なう。次いでステ
ップ22においてカウンタnを1にセットしてから、ステ
ップ23に進んで視覚センサよりターゲットの画像入力を
行なう。ステップ24においては、本発明の面ベクトル及
び重心ベクトルを使用したラフマッチングを行ない、ス
テップ25においてマッチングを認識したら、ターゲット
の運動を把握しているフライトマネイジャー26を介して
アクチュエータ27を駆動し接近をはかる。
また一方では、ステップ25においてラフマッチングを
確認したらステップ28に進んでn=kかあるいはm=1
かを判断する。すなわちこのステップでは、最初のマッ
チングとn=k回に1回はファインマッチングまでを行
なう処理を示している。ステップ28において否定判定の
場合には、ステップ29に進んでターゲットの運動方程式
が既知であることから、次のターゲットの相対位置及び
姿勢を計算により予測する。この計算結果はステップ24
のマッチングに利用される。次いでステップ30におい
て、nを1つインクリメントしてステップ22〜25までの
処理を行なう。ステップ28において肯定判定の場合に
は、ステップ31に進んでファインマッチングを行ない、
ステップ32においてファインマッチングを確認したらフ
ライトマネイジャー26を介してアクチュエータ27を駆動
して接近をはかる。
これと共に、ドッキングの終了を判別し(ステップ3
3)、終了してない場合にはステップ34でn=0として
ステップ29に進む。
このように本応用例においては、本発明によるラフマ
ッチング(ステップ24)とファインマッチング(ステッ
プ21)とを組合せて、宇宙飛翔体同士のランデブー・ド
ッキングを達成する。
第4図は上述したような宇宙飛翔体同士のランデブー
・ドッキングのラフマッチングに適用する本発明方法の
第1実施例のブロック図を示す。
まずモデル側では、第1図のブロック1に対応するブ
ロック40でミッション要求等の外部からの指示によりタ
ーゲットに対応するモデルを選択する。
ここで、モデルは凸多面体で、各面の頂点座標で表現
されている。例えば第5図に示す如き六面体の場合頂点
A,B,C,D,E,F,G,Hの夫々の原点0よりの座標データで構
成されている。
第1図のブロック2に対応するブロック41では、モデ
ルの各面毎に面ベクトルと重心位置ベクトルとを得る。
例えば第5図のモデルで、面ABCDについてはベクトルBC
とベクトルBAとの外積を求め、この外積のベクトルの大
きさを1/2とし、同様にベクトルDAとベクトルDCの外積
のベクトルの大きさを1/2としこれらを加える。次にベ
クトルの始点を物体内部の適当な回転中心0′に移動し
てその座標系(x′,y′,z′)における面ABCDの面ベク
トルとする。また、回転中心0′を始点とし、かつ面AB
CDの重心を終点とするベクトルを面ABCの重心位置ベク
トルとする。このようにして他の面AEHD,AEFB,BCGF,CDH
G,EFGH夫々の面ベクトル及び重心位置ベクトルを得る。
面ベクトルはその面の面積と面の向きを表わし、重心位
置ベクトルはその面の位置即ち隣接面関係を表わしてい
る。
ブロック42では例えばZ軸をカメラの視線軸として、
各面夫々の面ベクトルの視線軸成分および各面夫々の重
心位置ベクトルの視線軸を除く2軸つまりX軸,Y軸成分
を抽出する。
また、各面夫々の面ベクトルの視線軸成分の比、つま
り視線方向の面積比を求め、かつ各面夫々の重心位置ベ
クトルのX軸,Y軸成分から重心位置の順列を決める。
この順列の決定は例えば各面の重心位置ベクトルのX
軸成分を比較し、これが小さいものから順に順列の番号
を付す。上記X軸成分が同一の場合にはY軸成分が小さ
いものを先とする。
この後、重心位置ベクトルと1対1に対応する面ベク
トルの視線軸成分を上記順列の番号の順に並べかえ、か
つ視線方向の面積比を並べかえる。
一方カメラ側では、第1図のブロック3に対応するブ
ロック50でターゲットをカメラで補足し、ターゲットの
画像情報を領域分割する。例えば次のようにして行な
う。得られた画像情報をその濃淡に応じて画素毎に濃度
ラベルを振り、濃淡画像情報を生成し、これを記憶する
(ブロック51)。つまり、この情報の濃度ラベルが例え
ば「1」の画素と「2」の画素とは濃度が異なることを
表わす。
次に、ステップ52で濃淡画像情報の濃度ラベルが同一
である領域を見付けることにより領域分割を行なう。こ
のように画像の特徴を抽出してターゲット画像を構成す
る複数の領域を切り出す。上記のブロック51,52がブロ
ック4に対応する。
この後、ブロック5に対応するブロック53で切り出さ
れた各領域毎に画素数をカウントして面積を求め、かつ
重心位置を求める。ここで、カメラ側は濃淡画像情報の
各画素の画面上の位置に対応してアドレスを割り当てて
おり、切り出された領域を構成する画素のアドレス及び
画素数から一意的にこの領域の重心位置が求められる。
例えば、第6図(A)に示す如く、ターゲット画像60
が領域60a,60b,60cから構成れている。この場合、同図
(B)に示す如く、領域60a,60b,60c夫々の面積S1,S2,S
3及び重心位置(x1,y1),(x2,y2),(x3,y3)を求め
る。これによって面積S1,S2,S3夫々は重心位置(x1,
y1),(x2,y2),(x3,y3)の関数S1(x1,y1),S
2(x2,y2),S3(x3,y3)とで最終的に同図(C)に示す
如く表現される。
更に、重心位置(x1,y1),(x2,y2),(x3,y3)の
x座標x1,y1,x3を比較し、これが小さいものから順に順
列の番号を付す。上記x座標が同一の場合にはy座標が
小さいものを先とする。
この後、面積S1,S2,S3を上記順列の番号の順に並べか
えて面積S1(1),S2(2),S3(3)とし、その面積比
を求める。
1次マッチング(第1図のブロック7に対応するブロ
ック43)ではモデルの各面の順列の番号とターゲットの
各面積の順列の番号とを一致させて、モデルの各面の面
積比とターゲットの面積比とをマッチングする。
マッチングがとれない場合にはブロック44において、
モデルの面ベクトル及び重心位置ベクトルを物体に固定
した座標系をオイラー角(ψ,θ,φ)で回転させる。
最初のx軸の回りの回転をψ、次のy軸の回りの回転を
θ、最後のz軸の回りの回転をφとすると、ψを0〜36
0゜、各ψに対しθを−90゜〜+90゜、各ψとθに対し
φを−90゜〜+90゜に変化させる。
上記のブロック42,44が第1図のブロック6に対応す
る。
そして各回転位置毎にブロック42で各面の面ベクトル
の視線軸成分及び重心位置ベクトルのX軸,Y軸成分を抽
出し、ブロック43で1次マッチングを行なう。これによ
ってターゲットの姿勢が推定される。
1次マッチングがとれると、ブロック45で2次マッチ
ングが行なわれる。ここでは、モデルの各面夫々の面ベ
クトルの視線軸成分そのものと、ターゲットの各領域の
面積S1,S2,S3そのものとのマッチングを行ない、これま
で比のみでマッチングしていたものを大きさでマッチン
グする作業を行なう。
マッチングがとれない場合にはブロック46において、
モデルの各面の面ベクトルとの大きさを所定比率で順次
拡大・縮小し、ブロック42を経て再びブロック45の2次
マッチングを行なう。
この2次マッチングによってターゲットまでの距離の
推定が行なわれ、拡大・縮小の比率から距離を知ること
ができる。
上記第1実施例ではターゲットの各領域の面積をその
重心位置に応じた順の順列に並べ、モデルの各面の面積
を重心位置ベクトルに応じた順の順列に並べ1枚マッチ
ングを行なっている。このため両者の各面積の比較順が
絞られ、各面積の位置関係のもつ役割を果しており、1
次マッチングを高速に行なうことができる。
第7図は本発明方法の第2実施例のブロック図を示
す。同図中、第4図と同一部分には同一符号を付し、そ
の説明を省略する。
第7図においてブロック62では例えばZ軸を視線軸と
して、各面夫々の面ベクトルを抽出し、視線方向の面積
比を求める。また、各面の重心位置ベクトルをXY平面に
投影し、XY平面におけるモデルの投影像の重心を原点に
とって、XY平面に投影された各面の重心位置ベクトルの
終点夫々を極座標表現する。このとき、上記原点と、面
ベクトルの視線軸成分が最大のものに対応する重心位置
ベクトルの終点とを通る直線を基準線とする。
この後、上記重心位置の極座標で角度θが小さいもの
から順に順列の番号を付し、角度θが同一の場合には距
離rが小さいものを先とする。
次に面ベクトルの視線軸成分を順列の番号の順に並べ
かえ、視線方向面積比を並べかえる。
ブロック63では、ブロック53と同様に第8図(A)に
示すターゲット画像60から第8図(B)に示す如く領域
60a,60b,60c夫々の面積S1,S2,S3を得、また、ターゲッ
ト画像60の重心Gを原点として領域60a〜60c夫々の重心
位置を極座標表現する。このとき原点と面積最大の領域
60bの重心位置とを通る直線を基準線とする。これによ
って各面積は重心位置の関数S1(r1),S2(r2
),S3(r3)と表現される。
この後、極座標で角度θが小さいものから順に順列の
番号を付し、角度θが同一の場合は距離rを小さいもの
を先とする。
次に面積を順列の番号の順に並べかえて面積S
1(1),S2(2),S3(3)とし、また面積比を並べか
える。
ブロック64においては、視線軸(Z軸)回りの回転は
行なわれず、視線軸を除く2軸つまりX軸回りの回転θ
及びY軸回りの回転φとしてθを−90゜〜+90゜、各θ
に対しφを−90゜〜+90゜に変化させる。
このため、1次マッチングがとれてもターゲットをと
らえる視線軸回り(ロール方向)の自由度が残されてい
る。
ブロック65の3次のマッチングでは、ターゲット側に
おけるX軸に対する極座標の基準線の傾きと、モデル側
におけるX軸に対する極座標の基準線の傾きとの角度差
を求め、視線軸を中心とする回転角度を求める。これに
よって1次マッチングで残されていた視線軸を中心とす
る回転角度が認識され姿勢の推定が完了する。
ところで、ターゲット側における極座標の基準線を決
定するとき、面積S1とS2とが同一で最大である場合には
基準線の決定が困難である。
このような場合、ブロック63において第8図(C),
(D),(E)夫々に示す如く、ターゲット画像60の重
心Gである原点と領域60a,60b,60c夫々の重心との間直
線夫々を基準線とし、第8図(C)〜(E)夫々の極座
標表現を行なう。
この後、各極座標について面積S1,S2,S3を並べかえ
る。これによって視線方向の面積比は並びが異なった3
種類ができる。
更にブロック43においては、モデルの各面の面積比を
まず第8図(C)に示す順のターゲットの面積比とマッ
チングし、ここでマッチングがとれなければ次に第8図
(D)に示す順のターゲットの面積比とマッチングし、
ここでマッチングがとれなければ次に第8図(E)に示
す順のターゲットの面積比とマッチングする。
このように1次マッチングのマッチング回数は多くな
るが、基準線の決定にこだわる必要がなくなる。
上記第2実施例では、ターゲット各領域の面積及びモ
デルの各面の面積夫々を順列に並べて1次マッチングを
行なう点で第1実施例と同様に1次マッチングを高速と
することができる。
更に1次マッチング時にブロック64で視線軸を中心と
する回転を行なう必要がないため、1次マッチングを高
速化できる。
このように、ターゲットの画像を領域として分割する
ため曖昧さから落とされてしまう情報も柔軟に取り扱う
ことができ、モデルを構成する各面の視線軸方向の面積
及比とターゲットの各領域の面積比とを順序づけてマッ
チングさせるという特徴的な情報のマッチングを行なう
ため姿勢推定を高速に行なうことができる。
〔発明の効果〕
上述の如く、本発明の3次元空間に存在する物体の姿
勢推定方法によれば、3次元物体を領域として分割する
ため曖昧さから落とされてしまう情報を柔軟に取り扱う
ことができ、モデルを構成する各面の視線軸方向の面積
比と3次元物体の各領域の面積比とを順序づけてマッチ
ングさせるという特徴的な情報のマッチングを行なうた
め、姿勢推定を短時間にかつ曖昧さに強いマッチングを
行なうことができ、必要以上のデータ比較を行なうこと
がないので処理が高速化され、実用上きわめて有用であ
る。
【図面の簡単な説明】
第1図は本発明方法の原理ブロック図、 第2図は本発明方法を適用したランデブー・ドッキング
の概略フローチャート、 第3図は第2図の近距離センサによる接近の詳細フロー
チャート、 第4図,第7図は夫々本発明方法の各実施例のブロック
図、 第5図,第6図,第8図は本発明方法を説明するための
図、 第9図は従来方法の一例のブロック図、 第10図は従来方法での情報の欠落を説明するための図で
ある。 図において、 10はナビゲーションフィルタ、 11はINS、 12はGPS、 13はセンサ、 14〜25,28〜34はステップ、 26はフライトマネイジャー、 27はアクチュエータ、 40〜53,63〜65はブロック、 60はターゲット画像、 60a〜60cは領域 を示す。

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】対象物体のモデルを構成する複数の面夫々
    について、各面の向き及び大きさを表す面ベクトルと、
    該各面の重心位置を表す重心ベクトルとを抽出し、 カメラで撮像された3次元空間に存在する物体の画像情
    報を領域分割し、各領域の面積比を、該各領域に対応す
    る該重心位置のx座標,y座標または該重心位置ベクトル
    の角度の大小関係に応じた順列で抽出し、 該モデルの各面の面ベクトルと重心位置ベクトルとを3
    次元空間で回転させて、任意に選定した視線軸に対する
    該各面の面ベクトルの視線軸成分比を、該各面の重心位
    置ベクトルの該視線軸と直交する平面上に投影した位置
    ベクトルのX軸,Y軸成分または角度の大小関係に応じた
    順列で抽出し、 該各面の面ベクトルの視線軸成分比と各領域の面積比と
    を順列が同一となるものどうしでマッチングを行い、 該マッチングがとれたときに該3次元空間に存在する物
    体の姿勢を推定することを特徴とする3次元空間に存在
    する物体の姿勢推定方法。
JP62262732A 1987-10-20 1987-10-20 3次元空間に存在する物体の姿勢推定方法 Expired - Lifetime JP2610625B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62262732A JP2610625B2 (ja) 1987-10-20 1987-10-20 3次元空間に存在する物体の姿勢推定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62262732A JP2610625B2 (ja) 1987-10-20 1987-10-20 3次元空間に存在する物体の姿勢推定方法

Publications (2)

Publication Number Publication Date
JPH01106188A JPH01106188A (ja) 1989-04-24
JP2610625B2 true JP2610625B2 (ja) 1997-05-14

Family

ID=17379818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62262732A Expired - Lifetime JP2610625B2 (ja) 1987-10-20 1987-10-20 3次元空間に存在する物体の姿勢推定方法

Country Status (1)

Country Link
JP (1) JP2610625B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11676245B2 (en) 2018-05-24 2023-06-13 Sony Corporation Information processing apparatus and method for processing information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
宇宙用人工知能/ロボット/オートメーション シンポジウム講演集「ランデブ・ドッキングの視覚センサによる自律化」P.197〜198

Also Published As

Publication number Publication date
JPH01106188A (ja) 1989-04-24

Similar Documents

Publication Publication Date Title
CN110582798B (zh) 用于虚拟增强视觉同时定位和地图构建的系统和方法
US20210190497A1 (en) Simultaneous location and mapping (slam) using dual event cameras
CN111156998B (zh) 一种基于rgb-d相机与imu信息融合的移动机器人定位方法
Chai et al. Three-dimensional motion and structure estimation using inertial sensors and computer vision for augmented reality
EP0431191B1 (en) Method and apparatus for measuring position and posture of object
US11940277B2 (en) Vision-aided inertial navigation system for ground vehicle localization
Harris et al. RAPID-a video rate object tracker.
JP5920352B2 (ja) 情報処理装置、情報処理方法及びプログラム
Lins et al. Vision-based measurement for localization of objects in 3-D for robotic applications
WO2022083038A1 (zh) 视觉定位方法及相关装置、设备和计算机可读存储介质
US20140086494A1 (en) Method for registering at least one part of a first and second image using a collineation warping function
JPH055041B2 (ja)
Veth et al. Stochastic constraints for efficient image correspondence search
Burkard et al. User-aided global registration method using geospatial 3D data for large-scale mobile outdoor augmented reality
Alam et al. Pose estimation algorithm for mobile augmented reality based on inertial sensor fusion.
Fang et al. A motion tracking method by combining the IMU and camera in mobile devices
JP2610625B2 (ja) 3次元空間に存在する物体の姿勢推定方法
JP6582205B2 (ja) 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、情報処理システム
Sauer et al. Occlusion handling in augmented reality user interfaces for robotic systems
Gomez-Balderas et al. Vision-based autonomous hovering for a miniature quad-rotor
JP6707224B2 (ja) 情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システム
JPH01106187A (ja) 3次元空間に存在する物体の姿勢推定方法
US11354896B2 (en) Display device, display method, and computer program
CN116257134B (zh) 非惯性参考系下手柄头盔追踪方法、装置、设备及介质
JPH01106189A (ja) 3次元空間に存在する物体の姿勢推定方法