JP2005351886A - 位置姿勢計測方法および情報処理装置 - Google Patents

位置姿勢計測方法および情報処理装置 Download PDF

Info

Publication number
JP2005351886A
JP2005351886A JP2005053441A JP2005053441A JP2005351886A JP 2005351886 A JP2005351886 A JP 2005351886A JP 2005053441 A JP2005053441 A JP 2005053441A JP 2005053441 A JP2005053441 A JP 2005053441A JP 2005351886 A JP2005351886 A JP 2005351886A
Authority
JP
Japan
Prior art keywords
orientation
image
index
imaging device
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005053441A
Other languages
English (en)
Other versions
JP4566786B2 (ja
Inventor
Kiyohide Sato
清秀 佐藤
Shinji Uchiyama
晋二 内山
Takaaki Endo
隆明 遠藤
Masahiro Suzuki
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005053441A priority Critical patent/JP4566786B2/ja
Priority to US11/126,437 priority patent/US7467061B2/en
Priority to EP05252971.6A priority patent/EP1596332B1/en
Publication of JP2005351886A publication Critical patent/JP2005351886A/ja
Application granted granted Critical
Publication of JP4566786B2 publication Critical patent/JP4566786B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】 対象物体の位置姿勢計測を、位置及び姿勢の何れについても高い精度で実現すること。
【解決手段】 計測対象である撮像装置130に姿勢センサ140を装着すると同時に、撮像装置130を撮像する客観視点カメラ180を固定位置に設置する。指標検出部110は、撮像装置130によって取得された画像から、情景中に配置された主観視点指標Qを検出し、客観視点カメラ180によって取得された画像から、姿勢センサ140上に配置された客観視点指標Pを検出する。姿勢予測部150は、姿勢センサ140による姿勢計測値を入力し、方位ドリフト誤差補正値に基づいて撮像装置130の現在の姿勢を予測する。位置姿勢算出部120は、撮像装置130の位置と姿勢センサ140の方位ドリフト誤差補正値の更新値を未知パラメータとして、指標検出部110が検出した指標Q及びPの画像座標を用いてこれを算出し、得られたパラメータから撮像装置130の位置及び姿勢を求めて出力する。
【選択図】 図1

Description

本発明は、物体の位置及び姿勢、特に撮像装置の位置及び姿勢を計測するものに関する。
近年、現実空間と仮想空間の繋ぎ目のない結合を目的とした、複合現実感に関する研究が盛んに行われている。複合現実感の提示を行う画像表示装置は、ビデオカメラなどの撮像装置によって撮影された現実空間の画像に、撮像装置の位置及び姿勢に応じて生成した仮想空間(たとえばコンピュータ・グラフィックスにより描画された仮想物体や文字情報など)の画像を重畳描画してそれを表示するビデオシースルー方式によって実現される。
またその他にも、観察者の頭部に装着された光学シースルー型ディスプレイに、観察者の視点の位置及び姿勢に応じて生成した仮想空間の画像を表示する光学シースルー方式によって実現される。
このような画像表示装置の応用としては、患者の体表面に体内の様子を重畳表示する手術支援や、現実空間に浮遊する仮想の敵と戦う複合現実感ゲームなど、今までのバーチャルリアリティとは異なった新たな分野が期待されている。
これらの応用に対して共通に要求されるのは、現実空間と仮想空間の間の位置合わせをいかに正確に行うかということであり、従来から多くの試みがなされてきた。複合現実感における位置合わせの問題は、ビデオシースルー方式の場合は情景中における(すなわち、世界座標系における)撮像装置の位置及び姿勢を求める問題に帰結される。同様に、光学シースルー方式の場合は情景中における観察者の視点あるいはディスプレイの位置及び姿勢を求める問題に帰結される。
前者の問題を解決する方法として、情景中に複数の指標を配置あるいは設定し、撮像装置によって撮像された画像内における指標の投影像の座標を検出することで、情景中における撮像装置の位置及び姿勢を求めることが一般的に行われている。また、撮像装置に慣性センサを装着して、センサ計測値に基づいて推定した撮像装置の位置及び姿勢を指標の検出処理に利用したり、同推定結果を画像に基づく位置及び姿勢算出の初期値として用いたり、さらに、指標が見えない状況においても同推定結果を大まかな位置及び姿勢として用いることで、画像情報のみを用いる場合と比べて安定した位置合わせを実現する試みがなされている(例えば、非特許文献1)。
また、後者の問題を解決する方法として、計測対象物(すなわち観察者の頭部あるいはディスプレイ)に撮像装置(及び慣性センサ)を装着し、前者と同様な方法によって撮像装置の位置及び姿勢を求め、撮像装置と計測対象物体との既知の相対的な位置と姿勢の関係から、計測対象物の位置及び姿勢を求めることが一般的に行われている。
藤井博文,神原誠之,岩佐英彦,竹村治雄,横矢直和,拡張現実のためのジャイロセンサを併用したステレオカメラによる位置合わせ,電子情報通信学会技術研究報告PRMU99−192(信学技報vol.99,no.574,pp.1−8)
しかし、上記の従来手法では、安定した位置合わせを実現するのに十分な画像情報が主観視点画像中に含まれていない状況下、例えば、画像上の一部の領域に指標が偏在して観測されている場合や、指標が3点のみしか観測されていない場合、指標の検出に誤差が含まれている場合等に、得られる解の精度や安定性が不十分となることがあった。また、観測されている指標が2点以下の場合には、解を求めることができなかった。これらの問題を回避するためには情景中に多数の指標を満遍なく設定する必要があり、指標同士の識別が困難になるという問題や、現実空間の美観を損ねてしまうという問題が生じていた。また、主観視点画像上における指標の像が観察者の手等によって遮蔽されてしまうような状況下において、位置合わせを行うことが全くできなくなるという問題があった。
本願請求項1記載の発明は、情景を撮像する撮像装置の位置及び姿勢を算出する位置姿勢計測方法であって、前記撮像装置で撮像された第1の画像を入力する第1の画像入力工程と、前記撮像装置を客観視点位置から撮像する客観視点撮像手段で撮像された第2の画像を入力する第2の画像入力工程と、前記撮像装置の姿勢に関する情報を計測する姿勢センサから、姿勢計測値を入力する姿勢入力工程と、前記第1の画像入力工程で入力された第1の画像から、前記情景中に配置された第1の指標の画像座標に関わる特徴量を検出する第1の検出工程と、前記第2の画像入力工程で入力された第2の画像から、前記撮像装置上に配置された第2の指標の画像座標に関わる特徴量を検出する第2の検出工程と、前記第1の検出工程で検出した前記第1の指標の画像座標に関わる特徴量と、前記第2の検出工程で検出した前記第2の指標の画像座標に関わる特徴量と、前記姿勢入力工程で入力した姿勢計測値とを用いて、前記撮像装置の位置及び姿勢を算出する位置姿勢算出工程とを備えることを特徴とする。
本願請求項5記載の発明は、情景を撮像する撮像装置の位置及び姿勢を算出する位置姿勢計測方法であって、前記撮像装置で撮像された第1の画像を入力する第1の画像入力工程と、前記撮像装置上の視点位置から前記情景を撮像する客観視点撮像手段で撮像された第2の画像を入力する第2の画像入力工程と、
前記撮像装置の姿勢に関する情報を計測する姿勢センサから、姿勢計測値を入力する姿勢入力工程と、前記第1の画像入力工程で入力された第1の画像から、前記情景中に配置された第1の指標の画像座標に関わる特徴量を検出する第1の検出工程と、前記第2の画像入力工程で入力された第2の画像から、前記情景中に配置された第2の指標の画像座標に関わる特徴量を検出する第2の検出工程と、前記第1の検出工程で検出した前記第1の指標の画像座標に関わる特徴量と、前記第2の検出工程で検出した前記第2の指標の画像座標に関わる特徴量と、前記姿勢入力工程で入力した姿勢計測値とを用いて、前記撮像装置の位置及び姿勢を算出する位置姿勢算出工程とを備えることを特徴とする。
本発明によれば、撮像装置によって撮像される画像上で観測される指標の数が1点の場合であっても、撮像装置の位置及び姿勢を計測することが可能となる。また、3点以上の指標が得られた場合においても、求めるべきパラメータ数が少ないため、情報の冗長性が相対的に増加し、従来手法と比して安定した解を得ることができる。この効果は、特に、指標の数が3点の場合に発揮される。したがって、解が得られない状況に陥る可能性が低下し、さらに、(同じ安定性を有する)解を得るために必要となる指標の数が減少する。その結果、シーン中に設定する指標数を減らせられるという利点が生じ、これが、誤認識率の低下につながり、また、美観を損ねるという問題の軽減にも貢献する。
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。
[第1の実施形態]
本実施形態に係る位置姿勢計測装置は、撮像装置の位置及び姿勢の計測を行う。以下、本実施形態に係る位置姿勢計測装置及び位置姿勢計測方法について説明する。
図1は、本実施形態における位置姿勢計測装置の構成を示している。同図に示したように、本実施形態における位置姿勢計測装置100は、客観視点カメラ180(180a,180b,180c,180d)、画像入力部160、データ記憶部170、指標検出部110、姿勢センサ140、姿勢予測部150、及び位置姿勢算出部120によって構成されており、撮像装置130に接続されている。
現実空間中の複数の位置には、撮像装置130によって撮影するための指標(以下、主観視点指標)として、世界座標系(現実空間の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)における位置x Qkが既知である複数個の主観視点指標Q(k=1,,,K)が配置されている。また、姿勢センサ140上の複数の位置には、客観視点カメラ180によって撮影するための指標(以下、客観視点指標)として、主観視点カメラ座標系(撮像装置130上の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)上における位置x Pkが既知である客観視点指標P(k=1,,,K)が設定されている。
これらの指標は、位置及び姿勢を計測しようとする計測対象範囲内の各々の地点に撮像装置130を位置させた時に、撮像装置130によって取得される主観視点画像上において観測される主観視点指標と、客観視点カメラ180によって取得される客観視点画像上において観測される客観視点指標(実体)の総数が常に少なくとも2個以上となるように設置されていることが望ましい。図1の例は、3個の主観視点指標Q,Q,Qと2個の客観視点指標P,Pが設定されており、そのうちの2個の主観視点指標Q,Qが撮像装置130の視野内に含まれており、客観視点指標Pが客観視点カメラ180cの視野内に、客観視点指標Pが客観視点カメラ180c及び180dの視野内に含まれている状況を示している。
なお、主観視点指標Q及び客観視点指標Pは、例えば、それぞれが異なる色を有する円形状のマーカによって構成してもよいし、それぞれが異なるテクスチャ特徴を有する自然特徴等の特徴点によって構成してもよい。撮影画像上における投影像の画像座標が検出可能であって、かついずれの指標であるかが何らかの方法で識別可能であるような指標であれば、何れの形態であってもよい。また、主観視点指標、客観視点指標は共に、故意に設定されたものであっても良いし、故意に設定されたものではない、自然形状のものを用いても良い。
撮像装置130が出力する画像(以下、これを主観視点画像と呼ぶ)は、位置姿勢計測装置100に入力される。
客観視点カメラ180(180a,180b,180c,180d)は、計測対象範囲内に撮像装置130が位置するときに、そのいずれかが撮像装置130を撮像可能な位置に固定して配置されている。ここで、各客観視点カメラ180の世界座標系における位置及び姿勢は、データ記憶部170に既知の値として予め保持されているものとする。客観視点カメラ180が出力する画像(以下、これを客観視点画像と呼ぶ)は、画像入力部160に入力される。
画像入力部160は、位置姿勢装置100へ入力される主観視点画像及び客観視点画像の夫々をデジタルデータに変換し、データ記憶部170に保存する。
姿勢センサ140は、撮像装置130に装着されており、姿勢センサ140自身の現在の姿勢を計測して姿勢予測部150へと出力する。姿勢センサ140は、ジャイロセンサをベースとしたセンサユニットであり、例えば、株式会社トキメックのTISS−5−40や、米国InterSense社のInertiaCube2等によって構成される。これらのセンサによって計測される姿勢計測値は、真の姿勢とは異なった、誤差を有する姿勢である。ただし、これらの姿勢センサは、地球の重力方向を観測する傾斜角センサを構成要素として有しており、傾斜角方向のドリフト誤差の蓄積をキャンセルする機能を有しているので、傾斜角方向(ピッチ角及びロール角)に関してはドリフト誤差を発生しないという性質を有している。言い換えれば、方位角方向(ヨー角方向)に関しては時間の経過に伴って蓄積されるドリフト誤差を有している。
姿勢予測部150は、方位ドリフト誤差補正値φをデータ記憶部170から入力し、姿勢センサ140から入力した姿勢計測値を補正して撮像装置130の姿勢を予測し、データ記憶部170へと出力する。
指標検出部110は、データ記憶部170より主観視点画像及び客観視点画像の夫々を入力し、入力した画像中に撮影されている指標の画像座標を検出する。例えば、指標の各々が異なる色を有するマーカによって構成されている場合には、画像上から各々のマーカ色に対応する領域を検出し、その重心位置を指標の検出座標とする。また、指標の各々が異なるテクスチャ特徴を有する特徴点によって構成されている場合には、既知の情報として予め保持している各々の指標のテンプレート画像によるテンプレートマッチングを画像上に施すことにより、指標の位置を検出する。なお、撮像装置130の位置の算出値(位置姿勢算出部120の出力)及び姿勢の予測値(姿勢予測部150の出力)をデータ記憶部170からさらに入力し、この予測値に基づいて画像上における指標の位置を予測し探索範囲を限定することにより、指標検出処理の計算負荷を軽減したり、指標の誤検出や誤同定を低減させたりすることが可能である。
指標検出部110は、さらに、検出された指標の画像座標とその指標の識別子をデータ記憶部170へと出力する。なお、以下では、主観視点画像上で検出された指標を、検出された指標の夫々に付けられた識別子n(n=1,,,N)を用いて、Qknと表記する。また、客観視点画像上で検出された指標を、カメラの識別子x(x=a,b,c,d)と、検出された指標の夫々に付けられた識別子m(m=1,,,M)を用いて、Pkxmと表記する。ここで、Nは主観視点画像上で検出された指標の数を、Mは夫々の客観視点画像上で検出された指標の数を表している。また、Mを、各画像上で検出された指標の総和とする。また、検出された指標Qknの画像座標をuQknと表記し、検出された指標Pkxmの画像座標を、その画像を撮影した客観視点カメラの識別子に応じて、各々u Pkam,u Pkbm,u Pkcm,u Pkdmと表記する。例えば図1の場合には、N=2,M=0,M=0,M=2,M=1,M=3であり、指標の識別子k=1,k=3,kc1=1,kc2=2,kd1=2と、これらを撮影したカメラの識別子と、これらに対応する画像座標uQk1,uQk2,u Pkc1,u Pkc2,u Pkd1が出力される。
位置姿勢算出部120は、撮像装置130の姿勢の予測値と、指標検出部110によって検出された各々の主観視点指標の画像座標uQknと世界座標x Qknの組と、各々の客観視点指標の画像座標uPkam,uPkbm,uPkcm,uPkdmとそれに対応する主観視点カメラ座標(主観視点カメラ座標系における座標値)x Pkam,x Pkbm,x Pkcm,x Pkdmの組とをデータ記憶部170から入力し、これらの情報に基づいて撮像装置130の位置及び姿勢を算出し、I/Fを介して外部へ出力する。また、算出した撮像装置130の位置をデータ記憶部170に出力し、さらに、位置及び姿勢の算出工程で導出される姿勢センサ140の方位ドリフト誤差補正値の更新値によって、データ記憶部170が保持する方位ドリフト誤差補正値を更新する。
データ記憶部170は、方位ドリフト誤差補正値、画像入力部160から入力される画像、姿勢予測部150から入力される姿勢の予測値、位置姿勢算出部120から入力される位置の算出値、指標検出部110から入力される各々の指標の画像座標及び識別子、さらに、既知の値である主観視点指標の世界座標、客観視点指標の物体座標(物体座標系における座標値)、客観視点カメラ180のカメラパラメータ等のデータを保持し、必要に応じてこれらを入出力する。
なお、図1に示した画像入力部160、データ記憶部170、指標検出部110、姿勢予測部150、及び位置姿勢算出部120の夫々は、独立した装置として扱っても良いし、夫々ソフトウェアとして1つもしくは複数のコンピュータにインストールし、夫々のコンピュータのCPUにより実行することで、その機能を実現するようにしても良い。本実施形態では、各部(画像入力部160、データ記憶部170、指標検出部110、姿勢予測部150、及び位置姿勢算出部120)は1台のコンピュータ内で実行対象となるソフトウェアとして扱う。
図2は画像入力部160、データ記憶部170、指標検出部110、姿勢予測部150、及び位置姿勢算出部120の夫々をソフトウェアとして実行するコンピュータの基本構成を示す図である。
1001はCPUで、RAM1002やROM1003に格納されたプログラムやデータを用いてコンピュータ全体の制御を行うと共に、画像入力部160、指標検出部110、姿勢予測部150、及び位置姿勢算出部120の夫々のソフトウェアの実行を制御して、各部の機能を実現する。
1002はRAMで、外部記憶装置1007や記憶媒体ドライブ1008からロードされたプログラムやデータを一時的に記憶するエリアを備えると共に、CPU1001が各種の処理を行うために必要とするワークエリアを備える。データ記憶部170の機能は、RAM1002によって実現される。
1003はROMで、一般にコンピュータの記憶プログラムや設定データなどが格納されている。1004、1005は夫々キーボード、マウスで、操作者は夫々を用いて、各種の指示をCPU1001に入力することができる。
1006は表示部で、CRTや液晶画面などにより構成されており、例えば、撮像装置130の位置姿勢計測のために表示すべきメッセージ等を表示することができる。
1007は外部記憶装置で、ハードディスクなどの大容量情報記憶装置として機能する装置であって、ここにOS(オペレーティングシステム)やソフトウェアのプログラム等を保存する。また本実施形態の説明において、既知であると説明する情報はここに保存されており、必要に応じてRAM1002にロードされる。
1008は記憶媒体ドライブで、CD−ROMやDVD−ROMなどの記憶媒体に記憶されているプログラムやデータをCPU1001からの指示に従って読み出して、RAM1002や外部記憶装置1007に出力する。
1009はI/Fで、撮像装置130を接続するためのアナログビデオポートあるいはIEEE1394等のデジタル入出力ポート、姿勢センサ140を接続するためのRS232CあるいはUSBシリアルポート、また、算出した撮像装置130の位置及び姿勢を外部へ出力するためのイーサネット(登録商標)ポート等によって構成される。夫々が入力したデータはI/F1009を介してRAM1002に取り込まれる。画像入力部160の機能の一部は、I/F1009によって実現される。
1010は上述の各部を繋ぐバスである。
図3は、姿勢予測部150の処理手順を示すフローチャートであり、CPU1001が姿勢予測部150のソフトウェアのプログラムを実行することで行われる。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。
なお、姿勢を表現する方法には様々なものが存在するが、ここでは、3×3の回転行列Rによって表現されているものとする。
ステップS3000において、姿勢予測部150は、姿勢センサ140から姿勢計測値R はセンサによる計測値を表す記号)を入力する。
ステップS3010において、姿勢予測部150は、データ記憶部170から方位ドリフト誤差補正値φを入力する。
ステップS3020において、姿勢予測部150は、姿勢計測値R(姿勢センサ140の姿勢を表している)に、姿勢センサ140から計測対象物体130への姿勢変換と、方位ドリフト誤差補正値φによるドリフト誤差補正を反映させ、方位ドリフト誤差補正後の撮像装置130の姿勢を算出し、これを、姿勢の予測値Rとする。
Figure 2005351886
ここで、△R(φ)は、方位方向にφだけの回転を加える回転行列であり、φの関数として次式によって定義される。
Figure 2005351886
ここで、l=(l,l,l)は、世界座標系における鉛直上方向(地球の重力の反対方向)を表す既知のベクトルを表している。
また、RSCは、主観視点カメラ座標系(撮像装置130の位置及び姿勢を表す座標系)からセンサ座標系(姿勢センサ140の位置及び姿勢を表す座標系)へ姿勢を変換する3×3の行列であり、固定値である姿勢センサ140と撮像装置130の相対姿勢に基づいて、既知の値として予め設定されている。
ステップS3030において、姿勢予測部150は、姿勢の予測値Rをデータ記憶部170へと出力する。
ステップS3040において、姿勢予測部150は、処理を終了するか否かの判定を行い、処理を終了しない場合には、処理をステップS3000へと進める。
図4は、撮像装置130の位置及び姿勢を示すパラメータを算出する処理のフローチャートであり、CPU1001が位置姿勢算出部120のソフトウェアのプログラムを実行することで行われる。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。
位置姿勢算出部120は、撮像装置130の位置t=[xyz]と、姿勢センサ140の方位ドリフト誤差補正値の更新値φの合計4パラメータを、算出すべき未知パラメータとして取り扱う。すなわち、本実施形態では、姿勢についてはその全てを未知とするのではなく、姿勢の予測値Rには方位方向のドリフト誤差のみが含まれており、その方位ドリフト誤差補正値の更新値φのみを求めることで、撮像装置130の姿勢が得られるというモデルを適用する。以下では、求めるべき未知パラメータを4値の状態ベクトルs=[xyzφ]によって記述する。
ステップS4000において、位置姿勢算出部120は、撮像装置130の姿勢の予測値R(姿勢予測部150の出力)をデータ記憶部170から入力する。
ステップS4010において、位置姿勢算出部120は、状態ベクトルsの初期値を、s=[x−1−1−10]と設定する。ここで、x−1,y−1,z−1は、1ループ前の処理におけるステップS4110において算出された計測対象物体130の位置を表している。
ステップS4020において、位置姿勢算出部120は、指標検出部110によって検出された主観視点指標の画像座標とその世界座標の組と、客観視点指標の画像座標とその世界座標の組を、データ記憶部170から入力する。例えば図1の場合には、主観視点指標の画像座標uQ1,uQ3及びそれらに対応する世界座標x Q1,x Q3と、客観視点指標の画像座標u P1,u P2,u P2及びそれらに対応する主観視点カメラ座標(主観視点カメラ座標系における座標値)x P1,x P2が入力される。
ステップS4030において、位置姿勢算出部120は、入力された指標の情報が位置及び姿勢の推定に十分な情報を含むか否かを判定し、それに応じて処理の分岐を行う。具体的には、入力した指標の実体の総数が2点以上の場合はステップS4040に処理を進め、2点未満の場合はステップS4100に処理を進める。例えば図4の場合には、2つの主観視点指標と2つの客観視点指標(投影像は3点であるが,指標の実体は2つ)が検出されており,総数は4となるので,ステップS4040へと処理が進められる。
ステップS4040において、位置姿勢算出部120は、ステップS4020で入力した各々の主観視点指標及び客観視点指標の画像座標の推定値を、現在の状態ベクトルsに基づいて算出する。
主観視点指標Qknの画像座標の推定値uQkn*の算出は、指標Qknの世界座標x Qknと現在の状態ベクトルsの関数:
Figure 2005351886
・・・式(3)
を用いて行う。具体的には、関数Fc()は、世界座標x Qknとsから主観視点カメラ座標(主観視点カメラ座標系における座標)x Qknを求める次式、
Figure 2005351886
及び、カメラ座標x Qknから画像座標uQkn*を求める次式、
Figure 2005351886
・・・式(5)
によって構成されている。ここで、Rは、ステップS4000で入力した姿勢の予測値を表している。また、△R(φ)は,方位方向にφだけの回転を加える回転行列を表しており、式2によって定義される。また、f 及びf は、それぞれx軸方向及びy軸方向における撮像装置130の焦点距離であり、既知の値として予め保持されているものとする。
一方、客観視点指標Pkmの画像座標の推定値uPkm*の算出は、客観視点指標Pkm各々の主観視点カメラ座標(主観視点カメラ座標系における座標値)x Pkmと現在の状態ベクトルsの関数:
Figure 2005351886
・・・式(6)
を用いて行う。具体的には、関数F( )は、世界座標系上における当該指標の座標x Pkmをx Pkmとsから求める次式、
Figure 2005351886
及び、世界座標系x Pkmから客観視点カメラ座標(客観視点カメラ座標系(客観視点カメラ180上の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)上における当該指標の座標)x Pkmを求める次式、
Figure 2005351886
及び、客観視点カメラ座標x Pkmから画像座標uPkm*を求める次式、
Figure 2005351886
・・・式(9)
によって構成されている。ここで、f 及びf は夫々の客観視点カメラ180のx軸方向及びy軸方向における焦点距離、RWBは夫々の客観視点カメラ180の世界座標系における姿勢を表す3x3行列、tWBは夫々の客観視点カメラ180の世界座標系における位置を表す3次元ベクトルであり、客観視点カメラ180の夫々に対して既知の値として予め保持されている。
ステップS4050において、位置姿勢算出部120は、各々の指標(主観視点指標及び客観視点指標)に対して、画像座標の推定値と実測値との誤差△uQknおよび△uPkmを、次式によって算出する。
Figure 2005351886
・・・式(10)
Figure 2005351886
・・・式(11)
ステップS4060において、位置姿勢算出部120は、各々の指標(主観視点指標及び客観視点指標)に対して、状態ベクトルsに関する画像ヤコビアンを算出する。主観視点指標Qknの画像ヤコビアンは、式3の関数Fc( )を状態ベクトルsの各要素で偏微分した解を各要素に持つ2行×4列のヤコビ行列Jus Qkn(=∂u/∂s)であり、具体的には、式5の右辺をカメラ座標x Qknの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列Jux Qkn(=∂u/∂x)と、式4の右辺を状態ベクトルsの各要素で偏微分した解を各要素に持つ3行×4列のヤコビ行列Jxs Qkn(=∂x/∂s)を求めた後に、これらを用いて次式によって算出される。
Figure 2005351886
・・・式(12)
一方、客観視点指標Pkmの画像ヤコビアンは、式6の関数Fb()を状態ベクトルsの各要素で偏微分した解を各要素に持つ2行×4列のヤコビ行列Jus Pkm(=∂u/∂s)であり、具体的には、式9の右辺を客観視点カメラ座標x Pkmの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列JuxB Pkm(=∂u/∂x)と、式8の右辺を世界座標x Pkmの各要素で偏微分した解を各要素に持つ3行×3列のヤコビ行列JxBxW Pkm(=∂x/∂x)と、式7の右辺を状態ベクトルsの各要素で偏微分した解を各要素に持つ3行×4列のヤコビ行列JxWs Pkm(=∂x/∂s)を求めた後に、これらを用いて次式によって算出される。
Figure 2005351886
ステップS4070において、位置姿勢算出部120は、ステップS4050及びステップS4060において算出した各々の指標に対する誤差△u及び画像ヤコビアンJusに基づいて、状態ベクトルsの補正値△sを次式によって算出する。
Figure 2005351886
ここでUは、各々の指標(主観視点指標及び客観視点指標)に対して求めた誤差△uを垂直に並べた2(N+M)次元の誤差ベクトル
Figure 2005351886
であり、θ’は、各々の指標(主観視点指標及び客観視点指標)に対して求めた画像ヤコビアンJusを垂直に並べた2(N+M)行×4列の行列
Figure 2005351886
の擬似逆行列を表している。図1の例では、N=2及びM=3であるので、Uは10次元ベクトル、θは10行×4列の行列となる。
ステップS4080において、位置姿勢算出部120は、ステップS4070において算出した補正値△sを用いて、次式に従って状態ベクトルsを補正し、得られた値をsの新たな推定値とする。
Figure 2005351886
・・・式(17)
ステップS4090において、位置姿勢算出部120は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値△sが予め定めた閾値より小さいかどうかといった何らかの判定基準を用いて、計算が収束しているか否かの判定を行う。収束してない場合には、補正後の状態ベクトルsを用いて、ステップS4040以降の処理を再度行う。
ステップS4090において計算が収束したと判定されると、ステップS4100において、位置姿勢算出部120は、得られた状態ベクトルsから、撮像装置130の姿勢を算出する。具体的には、前ステップまでで得られた状態ベクトルsの算出値から、ドリフト誤差補正値の更新値φを得て、次式:
Figure 2005351886
によって、撮像装置130の姿勢Rを算出する。
ステップS4110において、位置姿勢算出部120は、得られた撮像装置130の位置及び姿勢の情報をI/F1009を介して外部へ出力する。また、撮像装置130の位置tをデータ記憶部170へと出力する。なお、位置及び姿勢の出力の形態は例えば姿勢を表す3×3行列Rと位置を表す3次元ベクトルtの組であってもよいし、姿勢をオイラー角に変換したものでもよいし、位置及び姿勢から算出したビューイング変換行列でもよいし、他のいずれの位置姿勢記述方法によるものでもよい。
ステップS4120において、位置姿勢算出部120は、以上の算出工程で得られた方位ドリフト誤差補正値の更新値φを用いて、データ記憶部170が保持している方位ドリフト誤差補正値φを次式によって更新する。
Figure 2005351886
ステップS4130において、位置姿勢算出部120は、処理を終了するか否かの判定を行い、終了しない場合には再びステップS4000へと進み、次フレーム以降の入力データに対して同様の処理を実行する。
以上によって、撮像装置の位置及び姿勢が計測される。
本実施形態に係る位置姿勢計測装置によれば、主観視点画像及び客観視点画像上で観測される指標の数の合計が2点以上であれば、撮像装置の位置及び姿勢を計測することができる。したがって、主観視点の映像が(手等による隠蔽によって)遮蔽される場合であっても、客観視点画像の情報(2点以上の客観視点指標の観測)によって位置及び姿勢の計測を行うことが可能であるし、反対に、客観視点指標が全て遮蔽されてしまうような状況下であっても、主観視点画像の情報(2点以上の主観視点指標の観測)によって、位置及び姿勢の計測を継続することが可能となる。
なお、上記の実施形態では複数台の客観視点カメラ180を用いていたが、必ずしも複数台の客観視点カメラが必要ではなく、客観視点カメラが1台の場合であっても本実施形態と同様の効果が得られることはいうまでもない。
[第2の実施形態]
第1の実施形態は、空間中を移動する撮像手段自体の位置及び姿勢を計測することを目的としていた。本実施形態に係る位置姿勢計測装置は、任意の対象物体の位置及び姿勢を計測することを目的とした位置姿勢計測装置であって、第1の実施形態の位置姿勢計測装置に計測対象物体を追加した構成となっている。以下、本実施形態に係る位置姿勢計測装置及び位置姿勢計測方法について説明する。
図5は、本実施形態に係る位置姿勢計測装置の構成を示す図である。図5に示したように、本実施形態に係る位置姿勢計測装置500は、画像入力部160、データ記憶部170、指標検出部110、姿勢センサ140、姿勢予測部150、位置姿勢算出部520、及び主観視点カメラ530によって構成されている。
第1の実施形態と同じ機能を有する部分については図1と同じ番号を付けており、その説明を省略する。ただし、主観視点カメラ530によって取得された画像が主観視点画像として画像入力部160に入力されるという点、姿勢予測部150による姿勢の予測値が主観視点カメラ530の姿勢であるという点、姿勢センサ140が主観視点カメラ530に装着されている点は、第1の実施形態とは異なっている。
主観視点カメラ530は、計測対象物体580に固定して装着されている。ここで、主観視点カメラ座標系における計測対象物体580の位置及び姿勢は既知であるとする。
位置姿勢算出部520は、主観視点カメラ530の姿勢の予測値Rと、指標検出部110によって検出された各々の主観視点指標の画像座標と世界座標の組と、各々の客観視点指標の画像座標とそれに対応する主観視点カメラ座標の組とをデータ記憶部170から入力し、これらの情報に基づいて、第1の実施形態における位置姿勢算出部120と同様な処理によって、主観視点カメラ530の位置及び姿勢を算出する。また、算出した位置をデータ記憶部170に出力し、さらに、位置及び姿勢の算出工程で導出される姿勢センサ140の方位ドリフト誤差補正値の更新値φによって、データ記憶部170が保持する方位ドリフト誤差補正値を更新する。
位置姿勢算出部520はさらに、上記によって算出した(世界座標系における)主観視点カメラ530の位置及び姿勢と、既知の値であるカメラ座標系における計測対象物体580の位置及び姿勢とに基づいて、計測対象物体580の位置及び姿勢を算出する。算出された位置及び姿勢は、I/F1009を介して外部へ出力される。
以上によって、任意の計測対象物体の位置及び姿勢の計測が実現される。
なお、本実施形態における位置姿勢算出部520は主観視点カメラ530の位置及び姿勢を一旦求めた後に計測対象物体580の位置及び姿勢を求めていたが、計測対象物体580の位置及び姿勢を直接求めてもよい。この場合、姿勢予測部150は計測対象物体580の位置姿勢を推定するようにし(式1のRSCを、計測物体座標系からセンサ座標系へ姿勢を変換する3×3の行列とする)、計測対象物体580の位置を状態ベクトルsの構成要素として設定し、主観視点指標の主観視点カメラ座標x Qknをsから求める式4を、
Figure 2005351886
に、客観視点指標の世界座標x Pkmをsから求める式7を、
Figure 2005351886
に置き換えればよい。ここで、RCOは計測物体座標系(計測対象物体580上の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)から主観視点カメラ座標系へ姿勢を変換する行列、tCOは同座標系間の位置を変換するベクトルであり、既知の値として予め保持されている主観視点カメラ座標系における計測対象物体580の位置及び姿勢に基づいて、予め算出されているものとする。
なお、本実施形態における計測対象物体580は、情景を撮像する撮像装置であってもよい。そして、主観視点カメラ530を、情景を撮像する撮像装置の視野とは異なる視野となるように例えば上向きに配置し、それに伴って主観視点カメラ530の視野内に主観視点指標Qを配置してもよい。そうすることにより、情景を撮像する撮像装置の視野内に主観視点指標Qが入らなくなるため、美観を損ねるという問題の軽減等に貢献する。
また、本実施形態において、計測対象物体580に複数の主観視点カメラ530を装着することによって、計測対象物体580の位置及び姿勢の計測を、位置と姿勢のいずれにおいても高い精度で実現されるようにしてもよい。
[第3の実施形態]
上記の実施形態において、位置姿勢算出部120及び520は、いずれも、方位ドリフト誤差補正値の更新値と位置とを表す4値の状態ベクトルsを未知数として、主観視点指標および客観視点指標の検出座標(実測値)と、それらの点の計算値との間の誤差の総和を最小化するようなsを求めていた。しかし、主観視点画像と客観視点画像の双方から得られる幾何的な拘束条件を併用することで計測対象物体の位置及び姿勢を取得する方法はこれに限定されるものではない。本実施形態に係る位置姿勢計測装置は、全体の誤差を最小化する手法とは異なる手法を用いた位置姿勢算出部をその構成要素として有していることを特徴とする。
本実施形態に係る位置姿勢計測装置の構成は基本的には第1の実施形態と同様であるが、位置姿勢算出部120が第1の実施形態のそれとは異なる位置姿勢算出部120’に置換された構成となっている(不図示)。つまり、位置姿勢算出部が行う処理が異なる。
以下、本実施形態に係る位置姿勢計測装置及び位置姿勢計測方法について説明する。
本実施形態では、各部(画像入力部160、データ記憶部170、指標検出部110、姿勢予測部150、及び位置姿勢算出部120’)は1台のコンピュータ内で実行対象となるソフトウェアとして扱う。またこのコンピュータの基本構成は図2に示した構成とする。
図6は、CPU1001が位置姿勢算出部120’のソフトウェアのプログラムを実行することで行われる、撮像装置130の位置及び姿勢を示すパラメータを算出する処理のフローチャートである。なお、以下の処理を行う前段で、同フローチャートに従ったプログラムコードは、RAM1002に既にロードされているものとする。
ステップS6000において、位置姿勢算出部120’は、撮像装置130の姿勢の予測値R(姿勢予測部150の出力)をデータ記憶部170から入力する。
ステップS6003において、位置姿勢算出部120’は、指標検出部110において検出された客観視点指標について、その画像座標とカメラ座標の組を入力する。
なお、複数の客観視点指標が設置されている場合や、複数の客観視点カメラが設置されている場合には、複数の客観視点指標の投影像が検出され、各々の画像座標が入力される状況が発生する。本実施形態では、このような場合であっても、以降の処理に使用される客観視点指標は1点のみであり、位置姿勢算出部120’は、適当な1点を客観視点指標Pの画像座標uとして選択する。
ステップS6006において、位置姿勢算出部120’は、画像座標uに基づいて、世界座標系における客観視点指標Pの位置を拘束する一本の直線を表すパラメータを算出する。まず、世界座標系における直線の傾き(方向ベクトル)hx,hy,hzを、
Figure 2005351886
によって画像座標uに基づいて算出する。ここで、RWBは客観視点指標Pを検出した客観視点カメラ180の世界座標系における姿勢を表す3x3行列、f 及びf は、それぞれx軸方向及びy軸方向における当該客観視点カメラ180の焦点距離であって、いずれも既知の値として予め外部記憶装置1007に保持されているものとする。このとき、世界座標系における直線上の点は、媒介変数τの関数として
Figure 2005351886
のように表すことができる。ここで、tWBは世界座標系における当該客観視点カメラ180の位置であって、既知の値として予め外部記憶装置1007に保持されているものとする。式23で表される直線は、世界座標系における当該客観視点カメラ180の位置と世界座標系における客観視点指標Pの位置とを通る直線であって、世界座標系における客観視点指標Pの位置は、上記媒介変数τが適当な値を取ることにより得られるものである。
以下、世界座標系における客観視点指標Pの位置を定める媒介変数τと、姿勢センサ140の方位ドリフト誤差補正値の更新値φの合計2パラメータを、算出すべき未知パラメータとして取り扱う。以下では、求めるべき未知パラメータを2値の状態ベクトルs’=[τφ]によって記述する。
ステップS6010において、位置姿勢算出部120’は、状態ベクトルs’に適当な初期値s’=[τ−10]を設定する。ここで、τ−1としては、例えば、1ループ前の処理において得られた撮像装置130の位置から客観視点指標Pの世界座標を求め、得られた世界座標に最も近い直線l上の点を表すτを設定する。
ステップS6020において、位置姿勢算出部120’は、指標検出部110において検出された各々の主観視点指標の画像座標とその世界座標の組を入力する。
ステップS6030において、位置姿勢算出部120’は、入力された主観視点指標数が1以上であるかどうかの判定を行う。指標の総数Nが1に満たない場合には、ステップS6040からステップS6090によって実現されるs’の更新処理を行わずに、ステップS6100へと進む。
ステップS6040において、位置姿勢算出部120’は、各々の主観視点指標Qknに対して、その画像座標の推定値uQkn*を、世界座標x Qknとs’から主観視点カメラ座標(主観視点カメラ座標系における座標)x Qknを求める次式、
Figure 2005351886
及び、カメラ座標x Qknから画像座標uQkn*を求める式5に基づいて算出する。ここで、x は、主観視点カメラ座標系における指標Pの座標値であり、既知な情報として予め外部記憶装置1007に保持されている。
すなわち、撮像装置130の位置及び姿勢が従前に求めた状態ベクトルs’に従っていると仮定して、撮像装置130と主観視点指標との位置姿勢関係に応じて、各々の主観視点指標の画像座標の推定値を求める。
ステップS6050において、位置姿勢算出部120’は、各々の主観視点指標Qknに対して、画像座標の推定値uQkn*と実測値uQknとの誤差△uQknを、式10に基づいて算出する。
ステップS6060において、位置姿勢算出部120’は、各々の主観視点指標Qknに対して、状態ベクトルs’に関する画像ヤコビアン(すなわち、式1の関数Fc()(本実施形態では、式24と式5によって構成されるものであり、sはs’となる)をs’の各要素で偏微分した解を各要素に持つ2行×2列のヤコビ行列)Jus’ Qkn(=∂u/∂s’)を算出する。具体的には、式5の右辺をカメラ座標x Qknの各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列Jux Qkn(=∂u/∂x)と、式24の右辺をベクトルs’の各要素で偏微分した解を各要素に持つ3行×2列のヤコビ行列Jxs’ Qkn(=∂x/∂s’)とを算出した後に、これらを用いて式12(ただしsはs’とおきかえる)によって算出する。
ステップS6070において、位置姿勢算出部120’は、式14(ただしsはs’とおきかえる)を用いて、状態ベクトルs’の補正値△s’を算出する。ただし、本実施形態においては、Uは各々の主観視点指標に対して求めた誤差△uQknを垂直に並べた2N次元の誤差ベクトルであり、θは各々の主観視点指標に対して求めた画像ヤコビアンJus’ Qknを垂直に並べた2N行×2列の行列を表している。
ステップS6080において、位置姿勢算出部120’は、ステップS6070において算出した補正値△s’を用いて、式17(ただしsはs’とおきかえる)によって状態ベクトルs’を補正し、得られた値をs’の新たな推定値とする。
ステップS6090において、位置姿勢算出部120’は、誤差ベクトルUが予め定めた閾値より小さいかどうか、あるいは、補正値△s’が予め定めた閾値より小さいかどうかといった何らかの判定基準を用いて、計算が収束しているか否かの判定を行う。収束してない場合には、補正後の状態ベクトルs’を用いて、ステップS6040以降の処理を再度行う。
ステップS6090において計算が収束したと判定されると、ステップS6100において、位置姿勢算出部120’は、撮像装置130の位置及び姿勢を算出する。姿勢Rの算出は、前ステップまでで得られたドリフト誤差補正値の更新値φを用いて、式18によって行う。一方、位置tの算出は、前ステップまでで得られた媒介変数τ及び姿勢Rを用いて、次式によって行う。
Figure 2005351886
ステップS6110において、位置姿勢算出部120’は、得られた撮像装置130の位置及び姿勢の情報をI/F1009を介して外部へ出力する。また、撮像装置130の位置tをデータ記憶部170へと出力する。なお、位置及び姿勢の出力の形態は例えば姿勢を表す3×3行列Rと位置を表す3次元ベクトルtの組であってもよいし、姿勢をオイラー角に変換したものでもよいし、位置及び姿勢から算出したビューイング変換行列でもよいし、他のいずれの位置姿勢記述方法によるものでもよい。
ステップS6120において、位置姿勢算出部120’は、以上の算出工程で得られた方位ドリフト誤差補正値の更新値φを用いて、データ記憶部170が保持している方位ドリフト誤差補正値φを式19によって更新する。
ステップS6130において、位置姿勢算出部120’は、処理を終了するか否かの判定を行い、終了しない場合には再びステップS6000へと進み、次フレーム以降の入力データに対して同様の処理を実行する。
以上の処理によって、客観視点カメラ180から得られる客観視点指標が存在すべき直線を拘束条件として、その拘束条件のもとで、主観視点画像上における主観視点指標の誤差を最小とするような撮像装置130の位置及び姿勢を得ることができる。
なお、本実施形態による位置及び姿勢の計測結果は、第1の実施形態による位置及び姿勢の計測結果と比較して、客観視点カメラ180から得られる情報を優先的に信頼したものとなる。したがって、客観視点カメラ180から得られる情報の信頼性が撮像装置130から得られる情報より相対的に勝っている状況、例えば、高解像度の客観視点カメラを利用可能な場合や、検出精度の非常に高いマーカを客観視点指標としてのみ利用可能な場合等において、本実施形態に係る位置姿勢計測装置は、第1の実施形態と比して有効に機能する。
[第4の実施形態]
上記の実施形態において、位置姿勢算出部120,520,及び120’は、いずれも、姿勢センサ140の方位ドリフト誤差補正値の更新値を未知数として求めていた。しかし、方位方向のみに姿勢の補正項目を限定せずに、姿勢センサ140の3軸方向に対する誤差の補正値を求めることももちろん可能である。本実施形態に係る位置姿勢計測装置の構成は、第1の実施形態に係る位置姿勢計測装置の構成とほぼ同じであるので、以下では、第1の実施形態とは異なる部分についてのみを説明する。
本実施形態におけるデータ記憶部170は、姿勢センサ140の方位ドリフト誤差補正値φの代わりに、姿勢センサ140の誤差補正回転行列△Rを記憶している。
本実施形態における姿勢予測部150は、姿勢センサ140の方位ドリフト誤差補正値φを入力する代わりに姿勢センサ140の誤差補正回転行列△Rを入力し(ステップS3010)、式1の代わりに次式によって姿勢の予測値Rを算出する(ステップS3020)。
Figure 2005351886
本実施形態における位置姿勢算出部120では、撮像装置130の位置t=[xyz]と、撮像装置130の姿勢Rの3値表現ω=[ξψζ]の合計6パラメータを、算出すべき未知パラメータとして取り扱う。以下では、求めるべき未知パラメータを6値の状態ベクトルs’’=[xyzξψζ]によって記述する。
姿勢(回転行列)を3値によって表現する方法には様々なものが存在するが、ここでは、ベクトルの大きさによって回転角を、ベクトルの向きによって回転軸方向を定義するような3値のベクトルによって表現されているものとする。なお、姿勢ωは、次式
Figure 2005351886
(ただし、
Figure 2005351886
である。)
によって、3×3の回転行列Rによっても表現可能であり、ωとRとは、互いに一意に変換することができる。Rからωへの変換方法は公知であるので、その詳細な説明は省略する。
本実施形態における位置姿勢算出部120では、状態ベクトルs’’の初期値を、s’’=x−1−1−1ξψζと設定する(ステップS4010)。ここで、x−1,y−1,z−1は、1ループ前の処理において算出された計測対象物体130の位置を表しており、ξ,ψ,ζは、姿勢の予測値Rから得られる姿勢の3値表現を表している。
本実施形態における位置姿勢算出部120では、入力した指標数による処理の分岐(ステップS4030)を、入力した指標の実体の総数が3点以上か否かで判定する。
本実施形態における位置姿勢算出部120では、主観視点指標Qknの主観視点カメラ座標x Qknを当該指標の世界座標x Qknとs(本実施形態ではs’’)とから求める関係式と、客観視点指標Pkmの世界座標x Pkmを当該指標の主観視点カメラ座標x Pkmとs(本実施形態ではs’’)とから求める関係式が、第1の実施形態における式4と式7から、それぞれ次式(式28及び式29)に変更される。したがって、各指標に対する画像ヤコビアンは、2行×6列のヤコビ行列Jus’’ Qkn(=∂u/∂s’’)となる。
Figure 2005351886
Figure 2005351886
本実施形態における位置姿勢算出部120では、撮像装置130の姿勢Rの算出(ステップS4100)を、得られた状態ベクトルs’’を用いて式27によって行う。
本実施形態における位置姿勢算出部120は、ステップS4120において、以上の算出工程で得られた撮像装置130の姿勢Rを用いて姿勢センサ140の誤差補正回転行列△Rを次式によって求め、データ記憶部170が保持している値を更新する。
Figure 2005351886
以上によって、撮像装置の位置及び姿勢が計測される。
[第5の実施形態]
第1の実施形態では、世界座標系に固定された客観視点カメラ180によって,撮像装置130(に取り付けられた姿勢センサ)上に配置された客観視点指標Pを撮影していた。しかし、撮像装置130の位置及び姿勢を取得するための構成はこれに限られるものではない。本実施形態に係る位置姿勢計測装置は、撮像装置130上に固定された客観視点カメラ180によって、世界座標系に配置された客観視点指標Pを撮影する構成となっていることを特徴とする。以下、本実施形態に係る位置姿勢計測装置及び位置姿勢計測方法について説明する。
図7は、本実施形態に係る位置姿勢計測装置の構成を示す図である。図7に示したように、本実施形態に係る位置姿勢計測装置700は、客観視点カメラ180(180a,180b)、画像入力部160、データ記憶部770、指標検出部110、姿勢センサ140、姿勢予測部150、及び位置姿勢算出部720によって構成されており、撮像装置130に接続されている。なお、第1の実施形態と同じ機能を有する部分については図1と同じ番号を付けており、その説明を省略する。
撮像装置130上には、主観視点カメラ座標系における位置及び姿勢が既知である客観視点カメラ180(180a,180b)が固定して配置されている。
現実空間中の複数の位置には、撮像装置130によって撮影するための主観視点指標Qの他に、客観視点カメラ180によって撮影するための指標として、世界座標系における位置x Pkが既知である複数個の客観視点指標P(k=1,,,K)も配置されている。
図7の例は、3個の主観視点指標Q,Q,Qと2個の客観視点指標P,Pが設定されており、そのうちの2個の主観視点指標Q,Qが撮像装置130の視野内に含まれており、客観視点指標Pが客観視点カメラ180aおよび180bの視野内に、客観視点指標Pが客観視点カメラ180bの視野内に含まれている状況を示している。
図7の場合には、主観視点画像上で検出された指標の数および夫々の客観視点画像上で検出された指標の数は、N=2,M=1,M=2となる。指標検出部110からは、指標の識別子k=1,k=3,ka1=1,kb1=1,kb2=2と、これらを撮影したカメラの識別子と、これらに対応する画像座標uQk1,uQk2,u Pka1,u Pkb1,u Pkb2が出力される。
客観視点カメラ180(180a,180b)は、計測対象範囲内に撮像装置130が位置するときに、そのいずれかが客観視点指標Pを撮像可能となるように配置されている。ここで、各客観視点カメラ180の主観視点カメラ座標系における位置及び姿勢は、データ記憶部770に既知の値として予め保持されているものとする。
位置姿勢算出部720は、撮像装置130の姿勢の予測値と、指標検出部110によって検出された各々の主観視点指標の画像座標uQknと世界座標x Qknの組と、各々の客観視点指標の画像座標uPkam,uPkbmとそれに対応する世界座標x Pkam,x Pkbmの組とをデータ記憶部770から入力し、これらの情報に基づいて撮像装置130の位置及び姿勢を算出し、I/Fを介して外部へ出力する。また、算出した撮像装置130の位置をデータ記憶部770に出力し、さらに、位置及び姿勢の算出工程で導出される姿勢センサ140の方位ドリフト誤差補正値の更新値によって、データ記憶部770が保持する方位ドリフト誤差補正値を更新する。
データ記憶部770は、方位ドリフト誤差補正値、画像入力部160から入力される画像、姿勢予測部150から入力される姿勢の予測値、位置姿勢算出部720から入力される位置の算出値、指標検出部110から入力される各々の指標の画像座標及び識別子、さらに、既知の値である主観視点指標の世界座標、客観視点指標の世界座標、客観視点カメラ180の主観視点カメラ座標系における位置及び姿勢等のデータを保持し、必要に応じてこれらを入出力する。
本実施形態に係る、撮像装置130の位置及び姿勢を示すパラメータを算出する処理のフローチャートは,第1の実施形態に係るフローチャート(図4)とほぼ同じであるので、以下では、第1の実施形態とは異なる部分についてのみ説明する。
ステップS4020において、位置姿勢算出部720は、主観視点カメラ座標(主観視点カメラ座標系における座標値)x P1,x P2を入力する代わりに、世界座標x P1,x P2を入力する。
ステップS4040において、客観視点指標Pkmの画像座標の推定値uPkm*の算出は、客観視点指標Pkm各々の世界座標x Pkmと現在の状態ベクトルsの関数:
Figure 2005351886
を用いて行う。具体的には、関数F( )は、世界座標x Pkmとsから主観視点カメラ座標(主観視点カメラ座標系における座標)x Pkmを求める次式、
Figure 2005351886
及び、主観視点カメラ座標x Pkmから客観視点カメラ座標(客観視点カメラ座標系(客観視点カメラ180上の1点を原点として定義し、更に互いに直交する3軸を夫々X軸、Y軸、Z軸として定義した座標系)上における当該指標の座標)x Pkmを求める次式、
Figure 2005351886
及び、客観視点カメラ座標x Pkmから画像座標uPkm*を求める式9によって構成されている。ここで、f 及びf は夫々の客観視点カメラ180のx軸方向及びy軸方向における焦点距離、RCBは夫々の客観視点カメラ180の主観視点カメラ座標系における姿勢を表す3x3行列、tCBは夫々の客観視点カメラ180の主観視点カメラ座標系における位置を表す3次元ベクトルであり、客観視点カメラ180の夫々に対して既知の値として予め保持されている。
以上によって、撮像手段の位置及び姿勢が計測される。
なお、上記の実施形態では複数台の客観視点カメラ180を用いていたが、必ずしも複数台の客観視点カメラが必要ではなく、客観視点カメラが1台の場合であっても本実施形態と同様の効果が得られることは言うまでもない。
また、第2乃至第4の実施形態においても、本実施形態で説明した、撮像装置130上に固定された客観視点カメラ180によって世界座標系に配置された客観視点指標Pkを撮影する構成を用いることができることは言うまでもない。
(変形例1)
上記の実施形態の各々において、誤差ベクトルUと行列Θに基づく状態ベクトルの補正値△sの算出に式11で表現される最急降下法を用いているが、補正値△sの算出は必ずしも最急降下法によって行わなくてもよい。例えば公知の非線形方程式の反復解法であるLM法(Levenberg−Marquardt法)を用いて求めてもよいし、公知のロバスト推定手法であるM推定等の統計的手法を組み合わせてもよいし、他の何れの数値計算手法を適用しても構わない。
(変形例2)
上記の実施形態の各々において、指標として一つの指標が一つの座標を表すような指標(以下、これを点指標と呼ぶ)を用いていた。しかし、指標の種類に限定されるものではなく、他の種類の指標を用いても構わない。
例えば、公知の位置姿勢計測装置(例えば、”高橋,石井,牧野,中静,VRインターフェースのための単眼による長方形マーカ位置・姿勢の高精度実時間推定法,3次元画像コンファレンス96公演論文集,pp.167−172,1996.”を参照)に用いられているような、特定の幾何形状をもつマーカを主観視点指標及び/あるいは客観視点指標として用いることも出来る。例えば、四角形のマーカを指標として用いる場合、四角形の各頂点の世界座標を既知の値として保持しておき(あるいは、マーカの位置、向き、サイズからこれらの値を演算し)、画像から各頂点の画像座標を検出することで、上記実施形態における4点の指標と同様の効果を得ることができる。特に、ID情報を有する一つの四角形マーカ(例えば、”加藤,M.BillingHurst,浅野,橘,マーカー追跡に基づく拡張現実感システムとそのキャリブレーション,日本バーチャルリアリティ学会論文誌,vol.4,no.4,pp.607−616,1999.”を参照)を客観視点指標として撮像装置に設置する構成(あるいは、姿勢センサに予め一つの四角形マーカを設置しておく構成)は、画像からのマーカの検出精度及び同定精度の良さが期待できるため、特に好適な形態といえる。
また、別の公知の位置姿勢計測装置(例えば、”D.G.Lowe:Fitting parameterized three−dimensional models to images,IEEE Transactions on PAMI,vol.13,no.5,pp.441−450,1991.”を参照)に用いられているような、線特徴によって構成される指標(以下、これを線指標と呼ぶ)を用いてもよい。例えば、直線の原点からの距離を評価のための基準として、画像からの検出値dと状態ベクトルsからの推定値dから算出する誤差△dによって誤差ベクトルUを構成し、dの算出式を状態ベクトルsの各要素で偏微分した解を各要素に持つ1行×6列のヤコビ行列Jds(=∂d/∂s)によって行列θを構成することで、上記実施形態と同様な枠組みによって位置及び姿勢の計測を行うことが出来る。また、線指標と点指標、その他の指標から得られる誤差及び画像ヤコビアンを積み重ねることによって、それらの特徴を併用することが可能である。
(変形例3)
第2の実施形態における主観視点カメラ530は1台であったが、複数台の主観視点カメラを計測対象物体580に設置し、位置及び姿勢の計測に用いることも可能である。この場合、画像入力部150、指標検出部110はそれぞれのカメラからの入力画像を処理する。また、姿勢予測部150及び位置姿勢算出部520は、計測対象物体580の位置及び姿勢を基準とした演算を行う。位置姿勢算出部520では、計測対象物体580の位置及び方位ドリフト補正値によって状態ベクトルsを構成し、各画像から得られる指標の情報から、式20(カメラ毎にRCOとtCOが異なる)に基づいて各指標の誤差と画像ヤコビアンを求め、それらを(客観視点指標の情報と共に)積み重ねて誤差ベクトルU及び行列θを構成することで、上記実施形態と同様な枠組みによって位置及び姿勢の推定を行うことができる。
また、第1、第3,第4の各実施形態における計測対象である撮像装置130は1台であったが、ステレオ・ビデオシースルー・ヘッドマウントディスプレイのような2台の撮像装置を計測する場合であっても、一方の撮像装置(例えば左眼用の撮像装置)を基準とすることで、同様な手法によって位置及び姿勢の計測を行うことができる。
(変形例4)
上記の実施形態の夫々では、方位ドリフト誤差を有する姿勢センサを用いていたが、他の姿勢センサを用いることも可能である。例えば、加速度センサによって傾斜方向の角度を計測し、地磁気センサによって方位方向の角度を計測するタイプの姿勢センサにおいても、位置と方位方向の誤差の更新値を未知パラメータとして、上記実施形態と同様な処理によって計測対象の位置と姿勢の計測を行うことができる。また、傾斜方向のみを計測する姿勢センサを用いる場合でも、方位方向の計測値が常に0となる3軸の姿勢センサと仮定すると、同様な処理によって計測対象の位置と姿勢の計測を行うことができる。
(変形例5)
上記の実施形態の夫々で用いる主観視点カメラまたは客観視点カメラには、可視光とは異なる波長の光を撮像するカメラを用いることも可能である。例えば、客観視点カメラとして赤外光を撮像するカメラを用い、客観視点指標として赤外光を発光または反射する指標を用いてもよい。この場合、主観視点指標は客観視点カメラには写らないため、客観視点画像上で主観視点指標を誤検出することがなくなるという効果がある。
ここで、客観視点指標の各々を、異なるタイミングで赤外光を発光するマーカによって構成すれば、いずれの指標であるかを識別することができる。すなわち、指標検出部において、客観視点画像上からマーカに対応する領域を抽出し、その重心位置を、客観視点カメラによる撮像と同一のタイミングで発光された指標の検出座標とすればよい。もちろん、客観視点指標が一つの場合には発光タイミングの制御は不要である。
なお、客観視点カメラとして赤外光を撮像するカメラを用い、客観視点指標として赤外光を発光または反射する指標を用いることも可能である。さらに、主観視点カメラと客観視点カメラの両方に赤外光を撮像するカメラを用い、主観視点指標と客観視点指標の両方に赤外光を発光または反射する指標を用いてもよい。
また、可視光とは異なる波長の光を撮像するカメラとしては、赤外光を撮像するカメラに限らず、紫外光を撮像するカメラなどを用いてもよい。さらに、可視光とは異なる波長の光と可視光の両方を同時に撮像するカメラを用いてもよい。
[他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記憶媒体に適用する場合、その記憶媒体には先に説明したフローチャートに対応するプログラムコードが格納されることになる。
第1の実施形態における位置姿勢計測装置の構成を示す図である。 コンピュータの基本構成を示す図である。 CPU1001が姿勢予測部150のソフトウェアのプログラムを実行することで行われる、撮像装置130の位置及び姿勢を示すパラメータを算出する処理のフローチャートである。 CPU1001が位置姿勢算出部120のソフトウェアのプログラムを実行することで行われる、撮像装置130の位置及び姿勢を示すパラメータを算出する処理のフローチャートである。 第2の実施形態における位置姿勢計測装置の構成を示す図である。 CPU1001が位置姿勢算出部120’のソフトウェアのプログラムを実行することで行われる、撮像装置130の位置及び姿勢を示すパラメータを算出する処理のフローチャートである。 第5の実施形態における位置姿勢計測装置の構成を示す図である。

Claims (9)

  1. 情景を撮像する撮像装置の位置及び姿勢を算出する位置姿勢計測方法であって、
    前記撮像装置で撮像された第1の画像を入力する第1の画像入力工程と、
    前記撮像装置の客観視点位置から撮像する客観視点撮像手段で撮像された第2の画像を入力する第2の画像入力工程と、
    前記撮像装置の姿勢に関する情報を計測する姿勢センサから、姿勢計測値を入力する姿勢入力工程と、
    前記第1の画像入力工程で入力された第1の画像から、前記情景中に配置された第1の指標の画像座標に関わる特徴量を検出する第1の検出工程と、
    前記第2の画像入力工程で入力された第2の画像から、前記撮像装置上に配置された第2の指標の画像座標に関わる特徴量を検出する第2の検出工程と、
    前記第1の検出工程で検出した前記第1の指標の画像座標に関わる特徴量と、前記第2の検出工程で検出した前記第2の指標の画像座標に関わる特徴量と、前記姿勢入力工程で入力した姿勢計測値とを用いて、前記撮像装置の位置及び姿勢を算出する位置姿勢算出工程とを備えることを特徴とする位置姿勢計測方法。
  2. 前記位置姿勢算出工程は、
    前記姿勢センサの方位誤差を補正するための補正値に関するパラメータと前記撮像装置の位置を表すパラメータとを未知パラメータとして、前記第1の検出工程で検出した前記第1の指標の画像座標に関わる特徴量と、前記第2の検出工程で検出した前記第2の指標の画像座標に関わる特徴量とを用いて当該パラメータを求め、得られたパラメータを利用して前記撮像装置の位置及び姿勢を算出することを特徴とする、請求項1に記載の位置姿勢計測方法。
  3. 前記第2の検出工程で検出する前記第2の指標の画像座標に関わる特徴量は、前記第2の指標の画像座標であり、
    前記位置姿勢算出工程は、前記第2の検出工程で検出した前記第2の指標の画像座標、及び前記客観視点撮像手段の位置姿勢に基づいて、前記第2の指標の3次元空間中における位置を拘束する直線を求め、前記第2の指標が前記直線上に存在するという拘束の元に、前記第1の検出工程で検出した前記第1の指標の画像座標に関わる特徴量と、前記姿勢入力工程で入力した姿勢計測値とを用いて前記撮像装置の位置及び姿勢を算出することを特徴とする、請求項1に記載の位置姿勢計測方法。
  4. 前記位置姿勢算出工程は、
    前記直線上における前記第2の指標の位置を表す媒介変数と、前記姿勢センサの方位誤差を補正するための補正値に関するパラメータとを未知パラメータとして、前記第1の検出工程で検出した前記第1の指標の画像座標に関わる特徴量を用いて当該パラメータを求め、得られたパラメータを利用して前記撮像装置の位置及び姿勢を算出することを特徴とする、請求項3に記載の位置姿勢計測方法。
  5. 情景を撮像する撮像装置の位置及び姿勢を算出する位置姿勢計測方法であって、
    前記撮像装置で撮像された第1の画像を入力する第1の画像入力工程と、
    前記撮像装置上の視点位置から前記情景を撮像する客観視点撮像手段で撮像された第2の画像を入力する第2の画像入力工程と、
    前記撮像装置の姿勢に関する情報を計測する姿勢センサから、姿勢計測値を入力する姿勢入力工程と、
    前記第1の画像入力工程で入力された第1の画像から、前記情景中に配置された第1の指標の画像座標に関わる特徴量を検出する第1の検出工程と、
    前記第2の画像入力工程で入力された第2の画像から、前記情景中に配置された第2の指標の画像座標に関わる特徴量を検出する第2の検出工程と、
    前記第1の検出工程で検出した前記第1の指標の画像座標に関わる特徴量と、前記第2の検出工程で検出した前記第2の指標の画像座標に関わる特徴量と、前記姿勢入力工程で入力した姿勢計測値とを用いて、前記撮像装置の位置及び姿勢を算出する位置姿勢算出工程とを備えることを特徴とする位置姿勢計測方法。
  6. 請求項1乃至5のいずれかに記載の位置姿勢計測方法をコンピュータに実行させるためのプログラム。
  7. 請求項6に記載のプログラムを格納する記録媒体。
  8. 情景を撮像する撮像装置の位置及び姿勢を算出する情報処理装置であって、
    情景を撮像し、第1の画像を取得する前記撮像装置と、
    前記撮像装置を客観視点位置から撮像し、第2の画像を取得する客観視点撮像装置と、
    前記撮像装置の姿勢に関する情報を計測する姿勢センサと、
    前記撮像装置で取得された第1の画像から、前記情景中に配置された第1の指標の画像座標に関わる特徴量を検出する第1の検出手段と、
    前記客観視点撮像装置で取得された第2の画像から、前記撮像装置上に配置された第2の指標の画像座標に関わる特徴量を検出する第2の検出手段と、
    前記第1の検出手段で検出した前記第1の指標の画像座標に関わる特徴量と、前記第2の検出手段で検出した前記第2の指標の画像座標に関わる特徴量と、前記姿勢入力手段で入力した姿勢計測値とを用いて、前記撮像装置の位置及び姿勢を算出する位置姿勢算出手段とを備えることを特徴とする情報処理装置。
  9. 情景を撮像する撮像装置の位置及び姿勢を算出する情報処理装置であって、
    情景を撮像し、第1の画像を取得する前記撮像装置と、
    前記撮像装置装置上の視点位置から前記情景を撮像し、第2の画像を取得する客観視点撮像装置と、
    前記撮像装置の姿勢に関する情報を計測する姿勢センサと、
    前記撮像装置で取得された第1の画像から、前記情景中に配置された第1の指標の画像座標に関わる特徴量を検出する第1の検出手段と、
    前記客観視点撮像装置で取得された第2の画像から、前記撮像装置上に配置された第2の指標の画像座標に関わる特徴量を検出する第2の検出手段と、
    前記第1の検出手段で検出した前記第1の指標の画像座標に関わる特徴量と、前記第2の検出手段で検出した前記第2の指標の画像座標に関わる特徴量と、前記姿勢入力手段で入力した姿勢計測値とを用いて、前記撮像装置の位置及び姿勢を算出する位置姿勢算出手段とを備えることを特徴とする情報処理装置。
JP2005053441A 2004-05-14 2005-02-28 位置姿勢計測方法および情報処理装置 Expired - Fee Related JP4566786B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005053441A JP4566786B2 (ja) 2004-05-14 2005-02-28 位置姿勢計測方法および情報処理装置
US11/126,437 US7467061B2 (en) 2004-05-14 2005-05-11 Information processing method and apparatus for finding position and orientation of targeted object
EP05252971.6A EP1596332B1 (en) 2004-05-14 2005-05-13 Information processing method and apparatus for finding position and orientation of targeted object

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004144893 2004-05-14
JP2005053441A JP4566786B2 (ja) 2004-05-14 2005-02-28 位置姿勢計測方法および情報処理装置

Publications (2)

Publication Number Publication Date
JP2005351886A true JP2005351886A (ja) 2005-12-22
JP4566786B2 JP4566786B2 (ja) 2010-10-20

Family

ID=35586479

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005053441A Expired - Fee Related JP4566786B2 (ja) 2004-05-14 2005-02-28 位置姿勢計測方法および情報処理装置

Country Status (1)

Country Link
JP (1) JP4566786B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008070267A (ja) * 2006-09-14 2008-03-27 Canon Inc 位置姿勢計測方法及び装置
JP2009237878A (ja) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
JP2009538487A (ja) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド 拡張現実を使用して装置の保守命令および動作命令を表示するシステムおよび方法
JP2013234867A (ja) * 2012-05-07 2013-11-21 Mitsutoyo Corp 三次元位置測定装置、三次元測定装置及び三次元位置測定プログラム
US9007445B2 (en) 2008-10-10 2015-04-14 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US9324229B2 (en) 2007-03-08 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
JP2017120441A (ja) * 2013-05-30 2017-07-06 オキュラス ブイアール,エルエルシー ヘッドマウントディスプレイのための知覚に基づく予測追跡

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064749A (en) * 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
JP2000347128A (ja) * 1999-03-26 2000-12-15 Mr System Kenkyusho:Kk ヘッドマウントディスプレイ装置およびヘッドマウントディスプレイシステム
JP2003279310A (ja) * 2002-03-22 2003-10-02 Canon Inc 位置姿勢補正装置、及び位置姿勢補正方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064749A (en) * 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
JP2000347128A (ja) * 1999-03-26 2000-12-15 Mr System Kenkyusho:Kk ヘッドマウントディスプレイ装置およびヘッドマウントディスプレイシステム
JP2003279310A (ja) * 2002-03-22 2003-10-02 Canon Inc 位置姿勢補正装置、及び位置姿勢補正方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009538487A (ja) * 2006-05-26 2009-11-05 アイティーティー マニュファクチャリング エンタープライジーズ, インコーポレイテッド 拡張現実を使用して装置の保守命令および動作命令を表示するシステムおよび方法
US9323055B2 (en) 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
JP2008070267A (ja) * 2006-09-14 2008-03-27 Canon Inc 位置姿勢計測方法及び装置
US9324229B2 (en) 2007-03-08 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
JP2009237878A (ja) * 2008-03-27 2009-10-15 Dainippon Printing Co Ltd 複合映像生成システム、重畳態様決定方法、映像処理装置及び映像処理プログラム
US10748338B2 (en) 2008-10-10 2020-08-18 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US9007445B2 (en) 2008-10-10 2015-04-14 Canon Kabushiki Kaisha Image processing apparatus and image processing method
US9558594B2 (en) 2008-10-10 2017-01-31 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2013234867A (ja) * 2012-05-07 2013-11-21 Mitsutoyo Corp 三次元位置測定装置、三次元測定装置及び三次元位置測定プログラム
KR20180081162A (ko) * 2013-05-30 2018-07-13 아큘러스 브이알, 엘엘씨 헤드 마운트 디스플레이를 위한 예측적 트래킹에 기반한 인식
US10281978B2 (en) 2013-05-30 2019-05-07 Facebook Technologies, Llc Perception based predictive tracking for head mounted displays
US10732707B2 (en) 2013-05-30 2020-08-04 Facebook Technologies, Llc Perception based predictive tracking for head mounted displays
JP2017120441A (ja) * 2013-05-30 2017-07-06 オキュラス ブイアール,エルエルシー ヘッドマウントディスプレイのための知覚に基づく予測追跡
KR102209873B1 (ko) * 2013-05-30 2021-02-01 페이스북 테크놀로지스, 엘엘씨 헤드 마운트 디스플레이를 위한 예측적 트래킹에 기반한 인식
US11181976B2 (en) 2013-05-30 2021-11-23 Facebook Technologies, Llc Perception based predictive tracking for head mounted displays

Also Published As

Publication number Publication date
JP4566786B2 (ja) 2010-10-20

Similar Documents

Publication Publication Date Title
JP4593968B2 (ja) 位置姿勢計測方法および装置
JP4914039B2 (ja) 情報処理方法および装置
JP4785416B2 (ja) 位置姿勢計測方法及び装置
JP5036260B2 (ja) 位置姿勢算出方法及び装置
EP1596332B1 (en) Information processing method and apparatus for finding position and orientation of targeted object
JP4136859B2 (ja) 位置姿勢計測方法
US7529387B2 (en) Placement information estimating method and information processing device
JP4976756B2 (ja) 情報処理方法および装置
JP4859205B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US7613361B2 (en) Information processing method and device
JP5132138B2 (ja) 位置姿勢計測方法、位置姿勢計測装置
JP2008261755A (ja) 情報処理装置、情報処理方法
JP4566786B2 (ja) 位置姿勢計測方法および情報処理装置
JP4726191B2 (ja) 位置姿勢補正装置、位置姿勢補正方法、そのプログラムおよび記憶媒体
JP2013113805A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2005353036A (ja) 情報処理装置および情報処理方法
JP5726024B2 (ja) 情報処理方法および装置
JP4612804B2 (ja) 位置姿勢計測方法および情報処理装置
JP6109213B2 (ja) 情報処理装置および方法、プログラム
JP2009168626A (ja) 位置姿勢計測装置、位置姿勢計測方法
JP5620972B2 (ja) 情報処理装置、情報処理方法
JP4810403B2 (ja) 情報処理装置、情報処理方法
JP2007040980A (ja) 情報処理方法および装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100126

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100803

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100804

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130813

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees