JP5965293B2 - カメラポーズ推定装置、及びカメラポーズ推定プログラム - Google Patents

カメラポーズ推定装置、及びカメラポーズ推定プログラム Download PDF

Info

Publication number
JP5965293B2
JP5965293B2 JP2012245319A JP2012245319A JP5965293B2 JP 5965293 B2 JP5965293 B2 JP 5965293B2 JP 2012245319 A JP2012245319 A JP 2012245319A JP 2012245319 A JP2012245319 A JP 2012245319A JP 5965293 B2 JP5965293 B2 JP 5965293B2
Authority
JP
Japan
Prior art keywords
template
camera pose
feature point
feature points
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012245319A
Other languages
English (en)
Other versions
JP2014095553A (ja
Inventor
達哉 大澤
達哉 大澤
島村 潤
潤 島村
行信 谷口
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012245319A priority Critical patent/JP5965293B2/ja
Publication of JP2014095553A publication Critical patent/JP2014095553A/ja
Application granted granted Critical
Publication of JP5965293B2 publication Critical patent/JP5965293B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラポーズ推定装置、及びカメラポーズ推定プログラムに関する。
コンピュータビジョン分野では、現実環境を仮想情報で補強する拡張現実感に関する研究が多く行われている。例えば、次のような研究成果が報告されている。
カメラで撮影された動画像から各フレームにおいて特徴的な点(以下、特徴点という。)を追跡することで、カメラの三次元空間中の位置及び姿勢と、特徴点の三次元位置とを同時に算出するvSLAM(visual Simultaneous Localization and Mapping)という方法が検討されている(例えば、非特許文献1)。
また、被写体の一部分含むテンプレートを事前に用意しておき、映像中でテンプレートの検出を行う。更に、検出されたテンプレートの三次元位置をvSLAMで算出された特徴点の三次元位置を活用し、この特徴点を画像上に再投影したときにテンプレートの範囲内に入る特徴点の三次元位置を平均化することでテンプレートの三次元位置を求める。これにより、被写体に対するカメラの位置及び姿勢を推定し、推定した位置及び姿勢を利用してカメラ映像上に仮想情報を重畳する技術も検討されている(例えば、非特許文献2)。
Jun SHIMAMURA, Masashi MORIMOTO, and Hideki KOIKE, "Robust vSLAM for dynamic scenes", Proc.12th IAPR Conference on Machine Vision Applications, June 2011, p.344-347 島村潤、森本正志、小池秀樹、「設備保守支援向けARのための部分テンプレート検出とvSLAMの併用によるオブジェクト座標系へのレジストレーション」、画像の認識・理解シンポジウム(MIRU2011)、2011年7月、p.1370−1376
上述したようにvSLAMにより算出される特徴点の三次元座標とテンプレート検出とを組み合わせて被写体に対するカメラの位置及び姿勢を推定する方法では、特徴点を再投影した際にテンプレート範囲内に入る特徴点の中に、実際にはテンプレートの三次元位置を表していない特徴点や、vSLAMの推定誤り等によるノイズなども含まれているため、推定されたカメラの位置及び姿勢に誤差が生じてしまうという問題がある。例えば、映像上でテンプレート付近の奥行きの異なる位置に他の物体が映っている場合など、シーンによっては正確にテンプレートの三次元位置を取得することができず、被写体に対するカメラの位置及び姿勢に大きな誤差が含まれ、仮想情報を映像上に重畳表示した際に仮想情報を表示する位置が大きくずれてしまうという問題がある。
本発明は、上記問題を解決すべくなされたもので、その目的は、被写体を撮影したカメラの被写体に対する位置及び姿勢を示す回転角(以下、カメラポーズという。)の推定精度を向上させることができるカメラポーズ推定装置、及びカメラポーズ推定プログラムを提供することにある。
上記問題を解決するために、本発明のカメラポーズ推定装置は、被写体に対するカメラポーズを推定するカメラポーズ推定装置であって、一連の画像データを入力する画像入力部と、前記一連の画像データにおける特徴点の変化を追跡し、ワールド座標系における特徴点の三次元座標及びカメラポーズを取得する三次元座標・カメラポーズ取得部と、予め用意された複数のテンプレート画像であって前記被写体の一部分を含むテンプレート画像と類似する領域を前記画像データにおいて検出するテンプレート検出部と、前記テンプレート検出部が検出した領域内に含まれる前記特徴点を抽出する特徴点抽出部と、前記特徴点抽出部が抽出した前記特徴点のうち外れ値を除去し、除去されなかった前記特徴点に基づいてテンプレート画像の三次元位置を推定するテンプレート位置推定部と、前記テンプレート位置推定部が推定した三次元位置に基づいてワールド座標系から被写体を基準にした被写体座標系への変換行列を推定し、該変換行列に基づいて前記画像データを取得したカメラの前記被写体に対するカメラポーズを推定するカメラポーズ推定部と、を備え、前記テンプレート位置推定部は、前記特徴点抽出部が抽出した前記特徴点から一つの特徴点をランダムに選択し、選択した特徴点と他の特徴点との距離を算出し、算出した距離に基づいて前記特徴点に含まれる外れ値を除去し、前記テンプレート位置推定部は、前記特徴点抽出部が抽出した前記特徴点から一つの特徴点をランダムに選択する際に、各特徴点に対する信頼度が大きいほど当該特徴点を選択する可能性を高くし、前記特徴点に対する信頼度は、前記三次元座標・カメラポーズ取得部が当該特徴点の三次元座標を取得する際の追跡における移動距離に応じて定められ、移動距離が大きい特徴点に対する信頼度は小さく、移動距離が小さい特徴点に対する信頼度は大きくする、ことを特徴とする。
また、本発明のカメラポーズ推定装置は、被写体に対するカメラポーズを推定するカメラポーズ推定装置であって、一連の画像データを入力する画像入力部と、前記一連の画像データにおける特徴点の変化を追跡し、ワールド座標系における特徴点の三次元座標及びカメラポーズを取得する三次元座標・カメラポーズ取得部と、予め用意された複数のテンプレート画像であって前記被写体の一部分を含むテンプレート画像と類似する領域を前記画像データにおいて検出するテンプレート検出部と、前記テンプレート検出部が検出した領域内に含まれる前記特徴点を抽出する特徴点抽出部と、前記特徴点抽出部が抽出した前記特徴点のうち外れ値を除去し、除去されなかった前記特徴点に基づいてテンプレート画像の三次元位置を推定するテンプレート位置推定部と、前記テンプレート位置推定部が推定した三次元位置に基づいてワールド座標系から被写体を基準にした被写体座標系への変換行列を推定し、該変換行列に基づいて前記画像データを取得したカメラの前記被写体に対するカメラポーズを推定するカメラポーズ推定部と、を備え、前記テンプレート位置推定部は、前記特徴点抽出部が抽出した前記特徴点から一つの特徴点をランダムに選択し、選択した特徴点と他の特徴点それぞれとの距離を算出し、算出した距離の中央値をスコアとする処理を所定の回数繰り返し、最小のスコアが算出されたときに選択された特徴点から2.5σ以上の距離にある特徴点を外れ値として除去し、前記σは段落0041に記載の式(3)で算出され、式(3)における、Cは定数であり、mは前記特徴点抽出部が抽出した前記特徴点の数であり、Scは最小のスコアである、ことを特徴とする。
また、上記問題を解決するために、本発明は、上記に記載のカメラポーズ推定装置としてコンピュータを動作させるためのカメラポーズ推定プログラムである。
この発明によれば、テンプレート画像に対応する領域の三次元位置を推定する際に、当該領域に含まれる特徴点から外れ値を除去してからテンプレート画像の三次元位置を推定するようにしたので、外れ値の影響を抑えて三次元位置の精度を向上させることができる。その結果、推定した三次元位置に基づいて推定する変換行列であってワールド座標系から被写体座標系への変換行列を算出する精度を向上させることができ、カメラの被写体に対するカメラポーズの推定精度を向上させることができる。
本発明に係る実施形態におけるカメラポーズ推定装置10の構成を示す概略ブロック図である。 本実施形態において用いるワールド座標系(Wx,Wy,Wz)と、被写体座標系(Ox,Oy,Oz)との一例を示す図である。 本実施形態におけるカメラポーズ推定装置10が行うカメラポーズ推定処理を示すフローチャートである。 本実施形態におけるカメラポーズ推定処理のステップS105の処理(テンプレート位置推定処理)を示すフローチャートである。 図3のステップS102において取得された特徴点の一例を示す図である。 テンプレート画像の一例と、テンプレート画像に対応する領域の検出結果とを示す図である。 2つめのテンプレート画像に含まれる特徴点の分布を示す図である。 通信機器を撮影した画像データに作業位置を示す仮想情報が重畳表示されている一例を示す図である。
以下、図面を参照して、本発明の実施形態におけるカメラポーズ推定装置、及びカメラポーズ推定プログラムを説明する。
図1は、本発明に係る実施形態におけるカメラポーズ推定装置10の構成を示す概略ブロック図である。カメラポーズ推定装置10は、取得した映像データ又は入力される映像データに基づいて、当該映像データが示す映像に含まれる被写体に対するカメラの位置及び姿勢を示す回転角(以下、カメラポーズという。)を推定し、推定したカメラポーズを出力する装置である。
カメラポーズ推定装置10は、図1に示すように、画像入力部11、三次元座標・カメラポーズ取得部12、特徴点三次元座標記憶部13、テンプレート検出部14、特徴点抽出部15、テンプレート位置推定部16、及び、カメラポーズ推定部17を備えている。
画像入力部11は、各時刻に撮影された画像データを取得する。例えば、画像入力部11には、デジタルカメラやビデオカメラ等の画像センサを有する撮像装置が用いられる。なお、画像入力部11は、映像データを構成する一連の画像データを取得できればよく、予め撮影された映像データを取得する装置などであってもよい。
三次元座標・カメラポーズ取得部12は、画像入力部11により取得された画像データから特徴点を抽出し、一連の画像データにおける特徴点の位置を追跡することにより、特徴点の三次元座標を取得する。三次元座標・カメラポーズ取得部12は、取得した特徴点の三次元座標を特徴点三次元座標記憶部13に記憶させる。また、三次元座標・カメラポーズ取得部12は、取得したカメラポーズを特徴点抽出部15に出力する。
特徴点三次元座標記憶部13は、三次元座標・カメラポーズ取得部12が取得した特徴点の三次元座標を記憶する。
テンプレート検出部14は、予め用意されたテンプレート画像を記憶しており、画像入力部11により取得され画像データにおいて、当該テンプレート画像と類似している領域であるテンプレート領域を検出する。テンプレート検出部14が記憶しているテンプレート画像は、カメラポーズを推定する際の基準となる被写体の一部分を含む画像であって、座標変換行列を推定するために少なくとも3つの画像である。
特徴点抽出部15は、現時刻において三次元座標・カメラポーズ取得部12が取得したカメラポーズを用いて、特徴点三次元座標記憶部13に記憶されている各特徴点を画像データ上に投影する投影計算を行う。特徴点抽出部15は、画像データ上に投影した各特徴点のうち、テンプレート検出部14が検出したテンプレート領域に含まれる特徴点を抽出する
テンプレート位置推定部16は、特徴点抽出部15が取得した特徴点のうち、各テンプレート画像により示される被写体の位置を表していない特徴点や、特徴点の三次元推定における誤りなどのノイズを除去する。テンプレート位置推定部16は、ノイズを除去した特徴点に基づいて、各テンプレート画像の三次元位置を推定する。
カメラポーズ推定部17は、テンプレート位置推定部16が推定した各テンプレート画像の三次元位置に基づいて、特徴点を基準としたワールド座標系から被写体を基準とした被写体座標系へ変換する変換行列を推定する。カメラポーズ推定部17は、三次元座標・カメラポーズ取得部12により推定された残時刻のカメラポーズに対して推定した変換行列を乗じて、被写体座標系におけるカメラポーズ推定する。
ここで、本実施形態のカメラポーズ推定装置10の処理において用いるワールド座標系と被写体座標系とについて説明する。図2は、本実施形態において用いるワールド座標系(Wx,Wy,Wz)と、被写体座標系(Ox,Oy,Oz)との一例を示す図である。ワールド座標系は、任意の位置又は予め定めた位置を基準として定められる座標系である。被写体座標系は、被写体の任意の位置を基準として定められる座標系である。図2においては、直方体の被写体の角を基準(原点)として各辺の方向にX軸、Y軸、及びZ軸を有する座標系を被写体座標系としている。なお、三次元座標・カメラポーズ取得部12が取得する特徴点の三次元座標やカメラポーズは、ワールド座標系における三次元座標である。
以下、カメラポーズ推定装置10の動作について説明する。なお、位置及び姿勢(ポーズ)の推定対象となるカメラのカメラ内部パラメータ(焦点距離や投影中心)は、事前にキャリブレーション済みで既知であり、カメラポーズ推定装置10はカメラ内部パラメータを記憶している。また、テンプレート位置推定部16は、例えば、テンプレート画像の位置を推定する際に、LMedS(Least Median of Squares;最小メディアン)推定を用いるものとする。
図3は、本実施形態におけるカメラポーズ推定装置10が行うカメラポーズ推定処理を示すフローチャートである。
カメラポーズ推定処理が開始されると、カメラポーズ推定装置10において、画像入力部11がカメラにより撮影された画像データImを入力する(ステップS101)。
三次元座標・カメラポーズ取得部12は、画像入力部11が入力した画像データImから特徴点の変化を追跡し、特徴点の三次元座標(X,Y,Z)及びカメラポーズ(Tx,Ty,Tz,φ,θ,ψ)をワールド座標系で取得する。三次元座標・カメラポーズ取得部12は取得した各特徴点の三次元座標(X,Y,Z)を特徴点三次元座標記憶部13に記憶させる(ステップS102)。
なお、特徴点の三次元座標(X,Y,Z)やカメラポーズ(Tx、Ty,Tz,φ、θ、ψ)を取得する処理は、vSLAMと呼ばれており、例えば、非特許文献1に記載された方法により取得することができる。
テンプレート検出部14は、画像入力部11が入力した画像データImから各テンプレート画像に対応する領域を検出する(ステップS103)。
ステップS103において行う処理は、予め用意した3つのテンプレート画像と類似している部分を画像データImにおいて検出することにより実現できる。例えば、2画像の輝度値の差分の絶対値を示すSAD関数などの評価関数を用いて一番類似度の高い部分を検出結果とし、各テンプレート画像に対する検出結果を示す領域をTm1、Tm2、Tm3とする。
特徴点抽出部15は、特徴点三次元座標記憶部13に記憶されている各特徴点を、ステップS102において取得したカメラポーズに基づいて画像データIm上に投影し、領域Tm1、Tm2、Tm3の領域に含まれる特徴点を抽出する。特徴点抽出部15は、領域Tm1、Tm2、Tm3ごとに、それぞれの領域に含まれる特徴点を集合FP1、FP2、FP3として取得する(ステップS104)。
特徴点の画像データIm上へ投影する投影計算は、次式(1)により計算することができる。
式(1)において、行列Aはカメラ内部パラメータを示す3×3のカメラ内部行列である。行列(R|T)はカメラの位置及び姿勢で構成される3×4のカメラ外部行列である。行列Xは特徴点の三次元座標(X,Y,Z)に「1」を追加して4×1の行列(X,Y,Z,1)である。mは画像データIm上の投影点を示す3×1の行列m(x,y,z)である。
式(1)を用いて算出した画像データIm上の投影座標は、行列mの第三成分で第一成分及び第二成分を除算した(u,v)=(x/z,y/z)として得られる。この座標(u,v)のうち、テンプレート検出により得られた領域Tm1、Tm2、Tm3に含まれる特徴点を集合FP1、FP2、FP3として取得する。
テンプレート位置推定部16は、特徴点抽出部15が取得した特徴点の集合FP1、FP2、PF3のうち、テンプレート画像の三次元位置を示していない特徴点をアウトライヤ(外れ値)として除去し、テンプレート画像の三次元位置を算出する(ステップS105)。
なお、ステップS105における詳細な処理については後述する。
カメラポーズ推定部17は、テンプレート位置推定部16が算出した各テンプレート画像の三次元位置(各テンプレート画像に対応する3つの三次元座標)に基づいて、ワールド座標系から被写体座標系への変換行列を算出し、被写体に対するカメラポーズを推定する(ステップS106)。
ステップS106における変換行列の算出は、非特許文献2に記載されているように、被写体座標系の原点をテンプレート画像1の位置として定義し、変換行列の並進成分を求める。また、3つのテンプレート画像1〜テンプレート画像3の各位置で構成される平面における平面法線ベクトルと、テンプレート画像1とテンプレート画像2とで構成される直線ベクトルを利用して回転成分を求めることができる。
カメラポーズ推定部17は、推定処理を終了するか否かを判定し(ステップS107)、推定を継続する場合(ステップS107:NO)、処理をステップS101に戻してステップS101〜ステップS107の処理を繰り返して行う。一方、処理を終了する場合(ステップS107:YES)、処理を終了する。なお、推定処理を終了するか否かの判断は、例えば、カメラポーズ推定装置10に対するユーザの入力操作に基づいて行うようにしてもよい。
図4は、本実施形態におけるカメラポーズ推定処理のステップS105の処理(テンプレート位置推定処理)を示すフローチャートである。
テンプレート位置推定部16は、特徴点抽出部15が集合FP1、FP2、PF3を取得すると、集合FP1、FP2、PF3ごとにN回の反復処理を行うことにより、テンプレート画像の三次元位置の推定を行う。以下の説明において、テンプレート画像に含まれる特徴点をFPという。
テンプレート位置推定処理が開始されると、テンプレート位置推定部16は、処理において用いるパラメータnとScとを初期化する(ステップS201)。例えば、反復回数のカウントに用いるパラメータnを「0」に初期化する。
テンプレート位置推定部16は、集合FPからランダムにいずれか一つの特徴点を選択し、選択した特徴点の三次元座標を一時パラメータ(Xt,Yt,Zt)とし、パラメータnの値を「1」増加させる(ステップS202)。
なお、集合FPから一つの特徴点をランダムに選択(ランダムサンプリング)する際に、各特徴点の三次元座標に対する信頼度などのデータが付加されている場合には、当該信頼度で重み付けした選択(サンプリング)を行うようにしてもよい。これにより、反復回数Nをより小さくしてもアウトライヤの除去が可能となる。反復回数Nは処理時間に大きく影響するため、リアルタイム性が要求されるARアプリケーションにおいてはできるだけ少ない反復回数で処理を行うことが重要となる。
例えば信頼度としては、三次元座標・カメラポーズ取得部12が特徴点の三次元座標を取得する際の追跡において、移動距離が大きい特徴点に対する信頼度を小さくし、移動距離が小さい特徴点に対する信頼度を大きくする。
テンプレート位置推定部16は、一時パラメータと、集合FPのうち選択されなかった他の特徴点の三次元座標全てと三次元空間中での距離Diを、次式(2)を用いて算出する(ステップS203)。
次式(2)における座標(Xi,Yi,Zi)は集合FPから選択されなかった任意の特徴点の三次元座標である。
テンプレート位置推定部16は、ステップS203において算出した距離Diを大きさ順でソートして、距離Diの中間値を選択した特徴点に対するスコアStとして算出する(ステップS204)。
テンプレート位置推定部16は、一時パラメータを仮パラメータとして採用するか否かをスコアStに基づいて判定してスコアの更新を行う(ステップS205)。
具体的には、現在の仮パラメータのスコアScと、直前のステップS204において算出したスコアStとを比較し、スコアStがスコアScより小さい場合には一時パラメータを仮パラメータに採用し、スコアStを新たなスコアScとして更新する。一方、スコアStがスコアSc以上である場合には一時パラメータを破棄して仮パラメータに採用しない。
テンプレート位置推定部16は、パラメータnと反復回数Nとを比較して反復回数がN回に達したか否かを判定し(ステップS206)、N回の反復が終わっていない場合(ステップS206:NO)、処理をステップS202に戻してステップS202からステップS206の処理を繰り返して行う。
一方、N回の反復が終わっている場合(ステップS206:YES)、テンプレート位置推定部16は処理をステップS207に進める。
テンプレート位置推定部16は、テンプレート画像の三次元位置を決定する(ステップS207)。
具体的には、テンプレート位置推定部16は、テンプレート画像の位置を表していなかったり、ノイズと考えられたりする三次元座標値を除去するための基準を仮パラメータのスコアScを利用して設定する。この基準は、次式(3)を用いて算出する。
式(3)において、Cは定数であり、例えば、誤差が正規分布に従うと考えられる場合にはC=1.4826となる。また、mは集合FPに含まれる特徴点の数である。
テンプレート位置推定部16は、この基準σを用いて仮パラメータから2.5σ以上の距離にある三次元座標値はテンプレートの位置を示していないと考え、アウトライヤとして除去する。
以上の処理を行い、最終的に除去されなかった特徴点の三次元座標の平均値を算出することにより、テンプレート位置推定部16はテンプレート画像の三次元位置の推定値を算出する。
このように、テンプレート位置推定部16は、予め用意された3つのテンプレート画像に対応する各領域に含まれる特徴点に基づいて、各テンプレート画像の位置を推定する。
上述のように、カメラポーズ推定装置10は、LMedS推定を用いて、画像データImにおけるテンプレート画像の位置を推定する精度を向上させることができるので、テンプレート画像の位置に基づいて算出する座標系相互の変換行列の推定精度を向上させることができる。その結果、被写体座標系におけるカメラポーズをより精度よく算出することができる。
なお、本実施形態におけるカメラポーズ推定装置10において、テンプレート位置推定部16がLMedS推定を用いたアウトライヤの除去を行う構成について説明したが、これに限ることなく、RANSACなどのアウトライヤを除去する他の方法を利用してもよい。また、本実施形態では三次元座標点が正規分布になると考えて式(3)によるアウトライヤ除去のための基準σを算出する構成を説明したが、これに限ることなく、スコアScを用いた任意の関数により基準σを算出するようにしてもよい。
また、本実施形態において、テンプレート検出部14は、3つのテンプレート画像を用いてテンプレート領域を検出する構成について説明したが、これに限ることなく、4つ以上のテンプレート画像を用いて、検出したテンプレート領域のうち類似度の高い3つのテンプレート領域を選択し、選択したテンプレート領域を特徴点抽出部15に通知するようにしてもよい。
図5から図8を参照して、本実施形態におけるカメラポーズ推定装置10が行うカメラポーズ推定処理の一例を示す。以下に示す例では、1台のカメラから得られた映像を処理して、被写体に対するカメラポーズを推定し、推定したカメラポーズに基づいて映像に仮想情報を重畳表示する。また、図3に示したカメラポーズ推定処理に沿って説明する。
カメラポーズ推定処理が開始されるとカメラから画像データを入力する(ステップS101)。
入力された画像データからカメラポーズと特徴点を取得する(ステップS102)。図5は、図3のステップS102において取得された特徴点の一例を示す図である。図5(A)は、入力された画像データに特徴点を重畳した画像である。図5(B)は取得した特徴点とカメラポーズとを三次元座標上に示した画像である。
カメラポーズ推定装置10は、入力された画像データに対してテンプレート検出を行う(ステップS103)。図6はテンプレート画像の一例と、テンプレート画像に対応する領域の検出結果とを示す図である。図6(A)はテンプレート画像の一例を示す図である。ここでは、ネジを含む2つの画像と、数字を含む画像との3つのテンプレート画像を予め用意している。図6(B)は、カメラで入力した画像データにおいて、図6(A)に示した3つのテンプレート画像に対応する領域が示されている。同図に示すように、テンプレート検出処理では、テンプレート画像に類似している領域に矩形が表示されており、テンプレート画像に対応する領域が検出されていることがわかる。
カメラポーズ推定装置10は、特徴点を画像データ上に再投影し、領域内に含まれる特徴点の集合FPを取得する(ステップS104)。
カメラポーズ推定装置10は、各テンプレート画像の領域に含まれる特徴点からアウトライヤを除去し、テンプレート画像の三次元位置を精度よく推定する(ステップS105)。図7は、2つめのテンプレート画像に含まれる特徴点の分布を示す図である。同図に示すように、特徴点の分布は多峰性を有しており、テンプレート画像の正確な位置を推定するにはアウトライヤの除去が必要なことがわかる。
カメラポーズ推定装置10は、推定したテンプレート画像の三次元位置を用いて、被写体座標系とワールド座標系との変換行列を算出し、被写体座標系におけるカメラポーズを算出する(ステップS107)。
以上の処理により、被写体座標系におけるカメラポーズを精度よく推定することができるので、図8に示すように、被写体に仮想情報を精度よく重畳表示することができる。図8は、通信機器を撮影した画像データに作業位置を示す仮想情報が重畳表示されている一例を示す図である。
以上に説明した処理を繰り返すことで本実施形態におけるカメラポーズ推定装置10は、テンプレート画像の三次元位置を推定する際にアウトライヤを検出、除去することにより、テンプレート画像の三次元位置を推定する精度を向上させることができ、被写体座標系におけるカメラポーズを安定して精度よく推定することができる。その結果、仮想情報を被写体に高い精度で重畳表示させることが可能となり、違和感やぶれの少ない拡張現実感を実現することができる。
なお、本発明におけるカメラポーズ推定装置の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによりカメラポーズ推定処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。更に「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。更に、前述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
カメラ等により得られた画像データに仮想情報を重畳表示する装置やシステム等に適用することができる。
10 カメラポーズ推定装置
11 画像入力部
12 三次元座標・カメラポーズ取得部
13 特徴点三次元座標記憶部
14 テンプレート検出部
15 特徴点抽出部
16 テンプレート位置推定部
17 カメラポーズ推定部

Claims (3)

  1. 被写体に対するカメラポーズを推定するカメラポーズ推定装置であって、
    一連の画像データを入力する画像入力部と、
    前記一連の画像データにおける特徴点の変化を追跡し、ワールド座標系における特徴点の三次元座標及びカメラポーズを取得する三次元座標・カメラポーズ取得部と、
    予め用意された複数のテンプレート画像であって前記被写体の一部分を含むテンプレート画像と類似する領域を前記画像データにおいて検出するテンプレート検出部と、
    前記テンプレート検出部が検出した領域内に含まれる前記特徴点を抽出する特徴点抽出部と、
    前記特徴点抽出部が抽出した前記特徴点のうち外れ値を除去し、除去されなかった前記特徴点に基づいてテンプレート画像の三次元位置を推定するテンプレート位置推定部と、
    前記テンプレート位置推定部が推定した三次元位置に基づいてワールド座標系から被写体を基準にした被写体座標系への変換行列を推定し、該変換行列に基づいて前記画像データを取得したカメラの前記被写体に対するカメラポーズを推定するカメラポーズ推定部と、
    を備え
    前記テンプレート位置推定部は、前記特徴点抽出部が抽出した前記特徴点から一つの特徴点をランダムに選択し、選択した特徴点と他の特徴点との距離を算出し、算出した距離に基づいて前記特徴点に含まれる外れ値を除去し、
    前記テンプレート位置推定部は、前記特徴点抽出部が抽出した前記特徴点から一つの特徴点をランダムに選択する際に、各特徴点に対する信頼度が大きいほど当該特徴点を選択する可能性を高くし、
    前記特徴点に対する信頼度は、前記三次元座標・カメラポーズ取得部が当該特徴点の三次元座標を取得する際の追跡における移動距離に応じて定められ、移動距離が大きい特徴点に対する信頼度は小さく、移動距離が小さい特徴点に対する信頼度は大きくする、
    ことを特徴とするカメラポーズ推定装置。
  2. 被写体に対するカメラポーズを推定するカメラポーズ推定装置であって、
    一連の画像データを入力する画像入力部と、
    前記一連の画像データにおける特徴点の変化を追跡し、ワールド座標系における特徴点の三次元座標及びカメラポーズを取得する三次元座標・カメラポーズ取得部と、
    予め用意された複数のテンプレート画像であって前記被写体の一部分を含むテンプレート画像と類似する領域を前記画像データにおいて検出するテンプレート検出部と、
    前記テンプレート検出部が検出した領域内に含まれる前記特徴点を抽出する特徴点抽出部と、
    前記特徴点抽出部が抽出した前記特徴点のうち外れ値を除去し、除去されなかった前記特徴点に基づいてテンプレート画像の三次元位置を推定するテンプレート位置推定部と、
    前記テンプレート位置推定部が推定した三次元位置に基づいてワールド座標系から被写体を基準にした被写体座標系への変換行列を推定し、該変換行列に基づいて前記画像データを取得したカメラの前記被写体に対するカメラポーズを推定するカメラポーズ推定部と、
    を備え
    前記テンプレート位置推定部は、
    前記特徴点抽出部が抽出した前記特徴点から一つの特徴点をランダムに選択し、選択した特徴点と他の特徴点それぞれとの距離を算出し、算出した距離の中央値をスコアとする処理を所定の回数繰り返し、最小のスコアが算出されたときに選択された特徴点から2.5σ以上の距離にある特徴点を外れ値として除去し、
    前記σは式(A)で算出され、式(A)における、Cは定数であり、mは前記特徴点抽出部が抽出した前記特徴点の数であり、Scは最小のスコアである、
    ことを特徴とするカメラポーズ推定装置。
  3. 請求項1又は請求項のいずれかに記載のカメラポーズ推定装置としてコンピュー
    タを動作させるためのカメラポーズ推定プログラム。
JP2012245319A 2012-11-07 2012-11-07 カメラポーズ推定装置、及びカメラポーズ推定プログラム Expired - Fee Related JP5965293B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012245319A JP5965293B2 (ja) 2012-11-07 2012-11-07 カメラポーズ推定装置、及びカメラポーズ推定プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012245319A JP5965293B2 (ja) 2012-11-07 2012-11-07 カメラポーズ推定装置、及びカメラポーズ推定プログラム

Publications (2)

Publication Number Publication Date
JP2014095553A JP2014095553A (ja) 2014-05-22
JP5965293B2 true JP5965293B2 (ja) 2016-08-03

Family

ID=50938753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012245319A Expired - Fee Related JP5965293B2 (ja) 2012-11-07 2012-11-07 カメラポーズ推定装置、及びカメラポーズ推定プログラム

Country Status (1)

Country Link
JP (1) JP5965293B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6557973B2 (ja) 2015-01-07 2019-08-14 株式会社リコー 地図生成装置、地図生成方法およびプログラム
WO2016199605A1 (ja) * 2015-06-12 2016-12-15 ソニー株式会社 画像処理装置および方法、並びにプログラム
KR101763307B1 (ko) * 2016-03-30 2017-08-04 (주)이누크리에이티브앤미디어 모바일디바이스 센서를 이용한 카메라 제어 시스템
KR102472767B1 (ko) * 2017-09-14 2022-12-01 삼성전자주식회사 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치
WO2020251151A1 (ko) 2019-06-14 2020-12-17 고려대학교 산학협력단 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치
KR102387797B1 (ko) * 2019-06-14 2022-04-19 고려대학교 산학협력단 3차원 가상 공간 모델을 이용한 사용자 포즈 추정 방법 및 장치
CN111862180B (zh) * 2020-07-24 2023-11-17 盛景智能科技(嘉兴)有限公司 一种相机组位姿获取方法、装置、存储介质及电子设备
JP7415853B2 (ja) * 2020-08-28 2024-01-17 株式会社豊田自動織機 自律走行車

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5380792B2 (ja) * 2007-06-15 2014-01-08 株式会社Ihi 物体認識方法および装置
CN104524758B (zh) * 2007-09-21 2017-10-03 游戏数据有限责任公司 对象定位及移动检测系统和方法
JP2011237296A (ja) * 2010-05-11 2011-11-24 Nippon Telegr & Teleph Corp <Ntt> 3次元形状計測方法、3次元形状計測装置、及びプログラム

Also Published As

Publication number Publication date
JP2014095553A (ja) 2014-05-22

Similar Documents

Publication Publication Date Title
JP5965293B2 (ja) カメラポーズ推定装置、及びカメラポーズ推定プログラム
TWI536320B (zh) 影像分割方法
US8355529B2 (en) Motion capture apparatus and method, and motion capture program
KR101616926B1 (ko) 영상 처리 장치 및 방법
JP6641163B2 (ja) オブジェクト追跡装置及びそのプログラム
US10140777B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP5620343B2 (ja) 物体座標系変換装置、物体座標系変換方法、及び物体座標系変換プログラム
US9767611B2 (en) Information processing apparatus and method for estimating depth values using an approximate plane
JP6515039B2 (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
WO2016025328A1 (en) Systems and methods for depth enhanced and content aware video stabilization
KR102001636B1 (ko) 이미지 센서와 대상 객체 사이의 상대적인 각도를 이용하는 깊이 영상 처리 장치 및 방법
JP4938748B2 (ja) 画像認識装置及びプログラム
JP7162079B2 (ja) 頭部のジェスチャーを介してディスプレイ装置を遠隔制御する方法、システムおよびコンピュータプログラムを記録する記録媒体
CN105809664B (zh) 生成三维图像的方法和装置
JP2018113021A (ja) 情報処理装置およびその制御方法、プログラム
JP4631973B2 (ja) 画像処理装置、画像処理装置の制御方法、および画像処理装置の制御プログラム
JP6310288B2 (ja) 画像処理装置および3次元物体トラッキング方法
JP6196562B2 (ja) 被写体情報重畳装置、被写体情報重畳方法及びプログラム
JP6228239B2 (ja) プリミティブの組を用いてデータをレジストレーションする方法
JP6730695B2 (ja) 特徴追跡及びモデル登録により三次元多視点を再構成するための方法。
JP5736285B2 (ja) 被写体の3次元形状を復元する装置、方法およびプログラム
JP4559375B2 (ja) 対象物位置追跡方法、装置、およびプログラム
JP5937977B2 (ja) 変換行列推定装置、変換行列推定方法、及びプログラム
JP5478533B2 (ja) 全方位画像生成方法、画像生成装置およびプログラム
JP2019220032A (ja) 原画像を目標画像に基づいて変形した表示画像を生成するプログラム、装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160701

R150 Certificate of patent or registration of utility model

Ref document number: 5965293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees