JP5476264B2 - カメラトラッキング装置およびそのプログラム - Google Patents

カメラトラッキング装置およびそのプログラム Download PDF

Info

Publication number
JP5476264B2
JP5476264B2 JP2010211518A JP2010211518A JP5476264B2 JP 5476264 B2 JP5476264 B2 JP 5476264B2 JP 2010211518 A JP2010211518 A JP 2010211518A JP 2010211518 A JP2010211518 A JP 2010211518A JP 5476264 B2 JP5476264 B2 JP 5476264B2
Authority
JP
Japan
Prior art keywords
feature
camera
feature point
threshold
inliers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010211518A
Other languages
English (en)
Other versions
JP2012068772A (ja
Inventor
漢薫 朴
秀樹 三ツ峰
真人 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2010211518A priority Critical patent/JP5476264B2/ja
Publication of JP2012068772A publication Critical patent/JP2012068772A/ja
Application granted granted Critical
Publication of JP5476264B2 publication Critical patent/JP5476264B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像の特徴点をトラッキングすることでカメラの姿勢を推定するカメラトラッキング装置およびそのプログラムに関する。
従来、実画像にCG(Computer Graphics)画像を合成して提示するバーチャルスタジオによる撮影では、カメラが撮影する画像と合成用のCGとで合成位置を精度よく合わせるために、カメラが撮影する画像内の既知の特徴点から、カメラの姿勢を検出している。
例えば、3D(3次元)モデルをベースとしたカメラトラッキング(モデルベースカメラトラッキング:Model-based camera tracking)手法では、既知の被写体の3D特徴(点やエッジ)を2次元平面に投影し、撮影した画像の特徴点の位置合わせにより、カメラ姿勢を推定している。
このとき、モデルベースカメラトラッキング手法では、粗いカメラ姿勢でカメラが撮影した画像から抽出した3D特徴に対する2次元座標位置と、既知の3D特徴を画像上に投影した2次元座標位置とのマッチングエラーを最小化することで、正確なカメラ姿勢を推定する。
このように既知の特徴からカメラ姿勢を推定する手法は種々提案されている(例えば、特許文献1参照)。また、このように、特徴点のマッチングを行うには、特徴空間において距離が最も近い、あるいは、ある閾値(距離閾値)よりも近い特徴点を求める手法や、ある特徴点に対し、特徴空間において近い特徴点との距離比をもとに、どの程度似ているかを判定する最近傍距離比マッチング(Nearest neighbor distance ratio〔NNDR〕 matching)という手法が存在する(非特許文献1参照)。
この最近傍距離比マッチング手法は、あるマッチング対象の対象特徴点から最も特徴が近似する最近傍の特徴点までの特徴空間上の距離と、対象特徴点から2番目に特徴が近似する特徴点までの特徴空間上の距離の比が、予め定めた閾値(距離比閾値)よりも小さい場合、すなわち、最近傍の特徴点と2番目の特徴点との差が顕著な場合に、最近傍の特徴点を、ある特徴点にマッチングした特徴点であると判定する手法である。
例えば、図4に示すように、ある画像(a)と、マッチングを行う対象となる画像(b)とにおいて、それぞれ黒丸位置に特徴点が存在しているとする。また、ここで、画像(a)の特徴点Aと、画像(b)の特徴点A〜Aとの特徴空間において、それぞれの距離がd〜dで、dが最も短く、その次に短いのがd、その次がd、そして、最も長いのがdであるとする。
このとき、最近傍距離比マッチング手法は、最も特徴が近似する最近傍の特徴点との距離dと、2番目に近似する特徴点との距離dとの比(d/d)が、予め定めた閾値(距離比閾値)よりも小さい場合に特徴点Aと特徴点Aとがマッチングすると判定する。これは、比の値が小さければ、最近傍の特徴点と2番目の特徴点との差が大きく、特徴の違いが顕著であるため、最近傍の特徴点がマッチングする可能性が高くなり、比の値が大きければ、最近傍の特徴点と2番目の特徴点との特徴の差が小さく、誤った特徴点とマッチングを起こす可能性が高くなるからである。
これによって、最近傍距離比マッチング手法は、類似する特徴点に対する誤ったマッチングを軽減させることができる。
特開2010−33447号公報
D. G. Lowe,"Distinctive Image Features from Scale-Invariant Keypoints", International Journal of Computer Vision, Vol. 60,No. 2,pp. 91-110,2004.
前記した従来の技術において、特徴点のマッチングを行う際に、距離や距離比を固定した閾値で判定すると、照明等の環境下によって大きく変化する画像特徴に対して、安定的に一定数の対応する特徴点を確保することができず、頑健(ロバスト)にトラッキングを行うことができないという問題がある。
例えば、最近傍距離比マッチングの場合、正しくマッチ(インライヤ)した数と正しくマッチしなかった外れ値(アウトライヤ)の数が、距離比閾値によって大きく異なる。
この距離比閾値を“1”に近い大きな値とすると、多くの不確定なアウトライヤ(外れ値)を含んだ粗いマッチングとなる。これに対して、距離比閾値を小さい値(例えば、“0.3”未満)とすると、インライヤの数が減少し、タイトなマッチングとなる。したがって、照明やカメラの視点位置などが大きく変化する環境下においてカメラトラッキングを行う場合、固定の閾値(距離比閾値、距離閾値)では、不十分な数のインライヤあるいは大量のアウトライヤによって悪影響を受け、頑健にトラッキングを行うことができない。
本発明は、以上のような問題に鑑みてなされたものであり、環境に応じてマッチング判定を行う閾値の大きさを調整し、環境変化に対して頑健にトラッキングを行うことが可能なカメラトラッキング装置およびそのプログラムを提供することを課題とする。
本発明は、前記課題を解決するために創案されたものであり、まず、請求項1に記載のカメラトラッキング装置は、カメラで撮影された被写体のカメラ画像内の2次元座標上の特徴点と、前記被写体の3次元座標上の既知の情報である特徴点とをマッチングすることで、前記カメラの姿勢を推定するカメラトラッキング装置において、記憶手段と、特徴対応点検出手段と、カメラ姿勢推定手段と、を備え、前記特徴対応点検出手段は、特徴点検出手段と、特徴点マッチング手段と、対応点集計手段と、閾値算出手段と、を備える構成とした。
かかる構成において、カメラトラッキング装置は、記憶手段に、被写体の3次元座標上の既知の情報である特徴点の位置および多次元の特徴量を予め対応付けて記憶しておく。なお、この特徴量は、当該特徴点をカメラで撮影した際の画像上の特徴量であって、予め設定しておくものである。
そして、カメラトラッキング装置は、特徴対応点検出手段によって、カメラ画像内の特徴点と、記憶手段に記憶されている特徴点とに基づいて、カメラの姿勢を推定するための特徴点同士の対応点を検出する。
すなわち、カメラトラッキング装置は、特徴対応点検出手段の特徴点検出手段によって、カメラ画像から、画像内容が変化する特徴的な部分である特徴点の位置および多次元の特徴量を検出する。この特徴点の位置および特徴量を検出するには、例えば、SURFやSIFTを用いることができる。
そして、カメラトラッキング装置は、特徴対応点検出手段の特徴点マッチング手段によって、特徴点検出手段で検出された特徴点の多次元の特徴量と、記憶手段に記憶されている多次元の特徴量との特徴空間上の距離に基づいて、閾値による近似判定を行うことで特徴点のマッチングを行い対応点を検出する。この特徴点のマッチングには、例えば、最近傍距離比マッチングを用いることができる。
また、カメラトラッキング装置は、特徴対応点検出手段の対応点集計手段によって、カメラ画像の対応点としてマッチングが行われた特徴点の数であるインライヤ数と対応点としてマッチングが行われなかった特徴点の数であるアウトライヤ数とを集計する。そして、カメラトラッキング装置は、特徴対応点検出手段の閾値算出手段によって、インライヤ数が予め定めた数未満の場合、特徴点マッチング手段で特徴点がマッチングしているか否かの判定を行う閾値に所定の調整量を加算し、インライヤ数が予め定めた数以上の場合に、閾値から調整量を減算して新たな閾値を算出する。
なお、閾値算出手段は、インライヤ数が予め定めた数以上の場合であっても、アウトライヤ数のインライヤ数に対する割合が予め定めた値以下の場合に、閾値に調整量を加算する。
これによって、インライヤ数が少なければ、閾値による制限が緩められることになり、特徴点同士がマッチングする度合いが高まり、インライヤ数が増加する。一方、インライヤ数が多ければ、閾値による制限が厳しくなり、逆に、インライヤ数が減少する。
また、アウトライヤ数のインライヤ数に対する割合が予め定めた値以下の場合に、閾値を増加させることで、閾値による制限が緩められることになり、特徴点同士がマッチングする度合いが高まり、インライヤ数が増加し、アウトライヤ数が減少する。
そして、カメラトラッキング装置は、カメラ姿勢推定手段によって、特徴対応点検出手段で検出された対応点であるカメラ画像内の2次元座標上の特徴点の位置と、記憶手段に記憶されている3次元座標上の特徴点の位置とに基づいて、カメラ姿勢を推定する。
また、請求項に記載のカメラトラッキング装置は、請求項に記載のカメラトラッキング装置において、前記特徴対応点検出手段が、特徴点投影手段と、投影誤差算出手段と、をさらに備える構成とした。
かかる構成において、カメラトラッキング装置は、特徴点投影手段によって、現在のカメラ姿勢に基づいて、並進、回転演算を行うことで、記憶手段に記憶されている3次元座標上の特徴点を2次元座標の画像上に投影する。
そして、カメラトラッキング装置は、投影誤差算出手段によって、特徴点投影手段で投影された特徴点の位置と、当該特徴点に対応して特徴点マッチング手段でマッチングが行われたカメラ画像内の特徴点の位置との誤差を累計する。この誤差が大きければ、マッチングの精度が低いことを意味する。
そこで、カメラトラッキング装置は、閾値算出手段によって、インライヤ数が予め定めた数以上、かつ、投影誤差算出手段で累計された誤差が予め定めた数より多い場合、アウトライヤ数のインライヤ数に対する割合にかかわらず、閾値から調整量を減算して新たな閾値を算出する。これによって、閾値による制限が厳しくなり、インライヤ数を減少させることで、よりマッチング精度の高いインライヤが選択されるため、高精度のカメラマッチングが可能になる。
さらに、請求項に記載のカメラトラッキング装置は、請求項1または請求項2に記載のカメラトラッキング装置において、閾値調整量算出手段を、さらに備える構成とした。
かかる構成において、カメラトラッキング装置は、閾値調整量算出手段によって、閾値算出手段で算出される閾値が、予め定めた回数連続して増加した場合、調整量から予め定めた値を減算し、予め定めた回数連続して減少した場合、調整量に予め定めた値を加算して新たな調整量を算出する。これによって、閾値の増減幅を大きくし、閾値を調整したい方向により早く調整することができる。
また、請求項に記載のカメラトラッキングプログラムは、カメラで撮影された被写体のカメラ画像内の2次元座標上の特徴点と、前記被写体の3次元座標上の既知の情報である特徴点とをマッチングすることで、前記カメラの姿勢を推定するカメラトラッキング装置において、コンピュータを、特徴点検出手段、特徴点マッチング手段、対応点集計手段、閾値算出手段、カメラ姿勢推定手段、として機能させる構成とした。
かかる構成において、カメラトラッキングプログラムは、特徴点検出手段によって、カメラ画像から、画像内容が変化する特徴的な部分である特徴点の位置および多次元の特徴量を検出する。
そして、カメラトラッキングプログラムは、特徴点マッチング手段によって、特徴点検出手段で検出された特徴点の多次元の特徴量と、既知の情報として前記被写体の3次元座標上の特徴点の位置に対応付けて予め記憶手段に記憶されている多次元の特徴量との特徴空間上の距離に基づいて、閾値による近似判定を行うことで特徴点のマッチングを行い対応点を検出する。
また、カメラトラッキングプログラムは、対応点集計手段によって、カメラ画像の対応点としてマッチングが行われた特徴点の数であるインライヤ数と対応点としてマッチングが行われなかった特徴点の数であるアウトライヤ数とを集計する。そして、カメラトラッキングプログラムは、閾値算出手段によって、インライヤ数が予め定めた数未満の場合、特徴点マッチング手段で特徴点がマッチングしているか否かの判定を行う閾値に所定の調整量を加算し、インライヤ数が予め定めた数以上の場合に、閾値から調整量を減算して新たな閾値を算出する。
なお、閾値算出手段は、インライヤ数が予め定めた数以上の場合であっても、アウトライヤ数のインライヤ数に対する割合が予め定めた値以下の場合に、閾値に調整量を加算する。
そして、カメラトラッキングプログラムは、カメラ姿勢推定手段によって、特徴対応点検出手段で検出された対応点であるカメラ画像内の2次元座標上の特徴点の位置と、記憶手段に記憶されている3次元座標上の特徴点の位置とに基づいて、カメラ姿勢を推定する。
本発明は、以下に示す優れた効果を奏するものである。
請求項1,に記載の発明によれば、特徴点がマッチングするか否かの判定に用いる閾値を、インライヤ数に応じて調整することができるため、カメラ画像を撮影した環境に応じて、インライヤ数を安定して確保することができる。これによって、本発明は、画像特徴が照明等の環境下によって大きく変化する場合であっても、安定的にマッチングする特徴点を確保することができ、頑健(ロバスト)にカメラトラッキングを行うことができる。
また、請求項1,4に記載の発明によれば、特徴点がマッチングするか否かの判定に用いる閾値を、インライヤ数とアウトライヤ数との割合に応じて調整することができるため、インライヤ数を増加させ、アウトライヤ数を減少させることができる。これによって、本発明は、インライヤ数の増加により安定的にカメラマッチングを行うことができるとともに、カメラトラッキングに不要なアウトライヤ数の減少により演算量を抑えることができる。
請求項に記載の発明によれば、投影誤差によって、マッチング精度を判定することができるため、投影誤差が少なくなる方向に閾値を調整することで、インライヤの精度が高まり、頑健(ロバスト)にカメラトラッキングを行うことができる。
請求項に記載の発明によれば、閾値の増減方向が一定であれば、閾値の増減幅を大きくし、閾値を調整したい方向により早く調整することができる。これによって、本発明は、素早く最適なインライヤ数を確保することができ、カメラ画像を撮影した環境に変化がある場合であっても、素早くカメラトラッキングを行うことができる。
本発明の実施形態に係るカメラトラッキング装置の構成を示すブロック構成図である。 本発明の実施形態に係るカメラトラッキング装置の動作を示すフローチャートである。 距離比閾値の変化を示すグラフ図である。 最近傍距離比マッチングの手法を説明するための説明図である。
以下、本発明の実施形態について図面を参照して説明する。
[カメラトラッキング装置の構成]
最初に、図1を参照して、本発明の実施形態に係るカメラトラッキング装置の構成について説明する。カメラトラッキング装置1は、カメラによって撮影され入力される画像に含まれる特徴点から、カメラの姿勢を逐次推定するものである。
ここでは、カメラトラッキング装置1は、画像入力手段10と、記憶手段20と、特徴対応点検出手段30と、カメラ姿勢推定手段40と、カメラ姿勢出力手段50と、を備えている。また、ここでは、カメラトラッキング装置1は、外部にカメラCを接続し、カメラCによって撮影された画像(フレーム)を逐次入力することとする。
画像入力手段10は、カメラCを介して画像(フレーム)を入力するものである。この画像入力手段10は、カメラCとケーブル等を介して接続された、一般的な画像入力ボードで構成することができる。この画像入力手段10は、入力した画像を、画面を構成するフレーム画像単位で特徴対応点検出手段30に出力する。
記憶手段20は、カメラトラッキング装置1の撮影対象となる撮影空間における被写体の3次元空間上の位置と当該位置における多次元の特徴量(特徴記述子)とを、予め対応付けた特徴データベースを記憶するものである。この記憶手段20は、ハードディスク、半導体メモリ等の一般的な記憶装置で構成することができる。
この記憶手段20に記憶される特徴データベースは、予め定めた被写体の特徴点の3次元空間上の座標(x,y,z)と、当該位置を事前にカメラで撮影した際の画像上の特徴量とを対応付けて記憶したものである。この特徴量は、後記する特徴点検出手段31において検出する特徴点の特徴量と同一のものを用いる。また、この特徴量には、その種類を特に限定する必要はないが、例えば、SURF(Speeded Up Robust Features)特徴量、SIFT(Scale-Invariant Feature Transform)特徴量等を用いることができる。なお、本実施形態においては、特徴量として、SURF特徴量を用いることとする。
特徴対応点検出手段30は、カメラCで撮影された画像から特徴点(位置および特徴量)を検出し、記憶手段20に記憶されている特徴点(位置および特徴量)と対応する対応点(特徴点同士の対)を検出するものである。ここでは、特徴対応点検出手段30は、特徴点検出手段31と、特徴点マッチング手段32と、対応点集計手段33と、特徴点投影手段34と、投影誤差算出手段35と、閾値算出手段36と、閾値調整量算出手段37と、を備えている。
特徴点検出手段31は、画像入力手段10を介して入力されるカメラCが撮影した画像から、画像内容が変化する特徴的な部分を示す特徴点の位置および多次元の特徴量を検出するものである。この特徴点検出手段31は、エッジ、コーナー等、画像内の特徴的な部分を検出するものであって、その位置を検出するとともに、その位置における画像の特徴量を算出する。なお、この特徴点検出手段31は、公知の手法を用いることができる。例えば、SURFやSIFTを用いることができる。ここでは、記憶手段20に予め記憶している特徴量と同じSURF特徴量を算出するため、特徴点検出手段31が行う特徴点検出にSURFを用いることとする。
この特徴点検出手段31は、カメラCが撮影した画像から検出した特徴点の位置および多次元の特徴量を、特徴点マッチング手段32に出力する。
ここで、一例として、特徴点検出手段31が行うSURFによる特徴点の位置および多次元の特徴量を算出する手法について簡単に説明する。
まず、特徴点検出手段31は、入力された画像に対して、スケールσの異なるガウシアンフィルタ(Laplacian-of-Gaussian filter)によって画像を平滑化する。このとき、特徴点検出手段31は、以下の(1)式に示す近似ヘッセ行列の行列式(ヘシアン値)H(X,σ)を計算する。
Figure 0005476264
ここで、Lxx(X,σ)は、画像上の点X=(x,y)において、スケールσのガウシアンフィルタによって垂直方向(y方向)に畳み込み演算を行った画素値である。Lyy(X,σ)は、画像上の点X=(x,y)において、スケールσのガウシアンフィルタによって水平方向(x方向)に畳み込み演算を行った画素値である。また、Lxy(X,σ)は、画像上の点X=(x,y)において、スケールσのガウシアンフィルタによって斜め方向(xy方向)に畳み込み演算を行った画素値である。
そして、特徴点検出手段31は、スケールσごとに生成された画素ごとのヘシアン値で構成されるヘシアン画像において、予め定めた閾値よりも大きいヘシアン値を有する点X=(x,y)の近傍画素(点Xおよび隣接8画素)と、異なる大小のスケールで生成したヘシアン画像における当該近傍画素に対応する各画素(9画素+9画素)との間で、極大値(ピーク値)となる画素を特徴点と特定する。なお、特徴点検出手段31は、特徴点と判定されなかった画素に対応するヘシアン値は、値“0”を設定する。
これによって、特徴点検出手段31は、ヘシアン値が“0”以外の画素に特徴点が存在すると判定することができる。
また、特徴点検出手段31は、入力画像において、各特徴点Xで、ハールウェブレット(Haar wavelet)によって、最も支配的な輝度の傾き方向(dominant rotation)を求める。そして、特徴点検出手段31は、最も支配的な方向を基準に、特徴点X近傍の予め定めた16個のブロック内で、それぞれ輝度勾配の方向の総和(水平Σdx、垂直Σdy)と大きさの総和(水平Σ|dx|、垂直Σ|dy|)の4つの値を特徴量として算出する。
すなわち、特徴点検出手段31は、特徴点Xごとに、SURF特徴量として、64次元(16×4)の特徴量を算出する。
このように、ここでは、特徴点検出手段31は、ヘシアン値が“0”以外の値で特徴点の位置を示すヘシアン画像と、64次元のSURF特徴量とを、特徴点マッチング手段32に出力する。
特徴点マッチング手段32は、特徴点検出手段31で検出された特徴点と、記憶手段20に記憶されている特徴点とを照合し、特徴点同士を対応付けるものである。
ここでは、特徴点マッチング手段32は、特徴空間において最も近い距離と、2番目に近い距離との比(最近傍距離比)が、閾値(距離比閾値)よりも小さい場合に、特徴量の差が顕著であるため、特徴空間において最も近い特徴点同士を対応する点と判定する。なお、距離比閾値は、後記する閾値算出手段36で算出された値を用いるが、初期値には、予め定めた値を設定しておくものとする。
例えば、特徴点マッチング手段32は、特徴点検出手段31で検出されたある特徴点Xの特徴量をv (i=1〜64)、記憶手段20に記憶されているある特徴点Dの特徴量をv (i=1〜64)としたとき、特徴空間の距離を以下の(2)式に示すユークリッド距離dとして算出する。
Figure 0005476264
そして、特徴点マッチング手段32は、特徴点検出手段31で検出されたある特徴点ごとに、記憶手段20に記憶されている特徴点すべての距離を算出し、最短の距離dと、2番目に近い距離dとが、以下の(3)式に示すように閾値rthよりも小さい場合に、対応する特徴点であると判定する。
Figure 0005476264
このように、特徴点マッチング手段32は、特徴点検出手段31で検出された特徴点のすべてについて、記憶手段20に記憶されている特徴点と対応する点(インライヤ)であるか、対応しない点(アウトライヤ)であるかを判定し、その判定結果を対応点集計手段33および投影誤差算出手段35に出力する。
対応点集計手段33は、特徴点マッチング手段32で、対応点と判定された特徴点の数(インライヤ数)と、対応点と判定されなかった特徴点の数(アウトライヤ数)とを集計するものである。このインライヤ数とアウトライヤ数は、特徴点マッチング手段32において使用する閾値(距離比閾値)の大きさを調整するための指標として用いられるために、後記する閾値算出手段36に出力される。
特徴点投影手段34は、後記するカメラ姿勢推定手段40によって推定されたカメラ姿勢(3方向の並進量、3つの回転パラメータ)に基づいて、特徴点マッチング手段32で対応する特徴点(インライヤ)として判定された記憶手段20に記憶されている特徴点の位置(3次元座標)を、2次元画像上に投影するものである。
この特徴点投影手段34は、画像上に投影した座標(2次元座標)を、記憶手段20に記憶されている特徴点の位置と対応付けて、投影誤差算出手段35に出力する。
なお、特徴点投影手段34は、カメラ姿勢推定手段40によってカメラ姿勢が推定される前の初期状態においては、初期設定として予め定めたカメラ姿勢(基準姿勢)を基準として、インライヤとして判定された記憶手段20に記憶されている特徴点の位置(3次元座標)を2次元画像上に投影することとする。
投影誤差算出手段35は、特徴点投影手段34で投影された特徴点の画像上の位置と、特徴点マッチング手段32によって記憶手段20に記憶されている特徴点と対応がとられた特徴点検出手段31で検出された特徴点(インライヤ)の画像上の位置との誤差(投影誤差)を算出するものである。
この特徴点検出手段31で検出された特徴点(インライヤ)の画像上の位置と、特徴点投影手段34で投影された特徴点の画像上の位置とは、記憶手段20に記憶されている特徴点とそれぞれ対応がとられているため、投影誤差算出手段35は、対応する特徴点同士の画像上における座標の距離の誤差(平均値)を算出する。
例えば、投影誤差算出手段35は、インライヤ数をn、検出された特徴点(インライヤ)の座標をXp(i=1〜n)、画像上に投影された特徴点の座標をXr(i=1〜n)としたとき、以下の(4)式に示すように、座標間の距離の平均二乗誤差を算出することで、カメラ姿勢Eにおける投影誤差e(E)を算出する。
Figure 0005476264
このように算出された投影誤差e(E)は、特徴点マッチング手段32において使用する閾値(距離比閾値)の大きさを調整するための指標として用いられるために、後記する閾値算出手段36に出力される。
また、ここでは、投影誤差算出手段35は、検出された特徴点の座標と、対応する投影された特徴点の座標との距離差(二乗誤差)が小さいものから順に、カメラ姿勢推定に必要な予め定めた数の特徴点(インライヤ)の組(対応点)をカメラ姿勢推定手段40に出力する。なお、投影誤差算出手段35は、単に、検出された特徴点の座標と、対応する投影された特徴点の座標とを、任意にカメラ姿勢推定に必要な予め定めた数だけ選択して対応点としてカメラ姿勢推定手段40に出力することしてもよい。
この投影誤差算出手段35が選択するカメラ姿勢推定に必要な数については後記する。
閾値算出手段36は、対応点集計手段33で集計されたインライヤ数およびアウトライヤ数と、投影誤差算出手段35で算出された投影誤差とに基づいて、特徴点マッチング手段32で使用する閾値(距離比閾値)を算出するものである。この閾値算出手段36は、算出した閾値rthを、特徴点マッチング手段32および閾値調整量算出手段37に出力する。
なお、特徴点マッチング手段32において判定されたインライヤ数の絶対数が少なければ、カメラトラッキングが不安定になる。また、投影誤差が多くなれば、同様にカメラトラッキングが不安定になる。さらに、アウトライヤ数のインライヤ数に対する割合(アウトライヤ数/インライヤ数)が、より大きくなると、カメラトラッキングに不要なアウトライヤ数が増加することになり、対応点を探索する演算量が多くなってしまう。
そこで、閾値算出手段36は、以下の(5)式に示す条件に従って、閾値(距離比閾値)rthを、調整量Δ分だけ増減させる。
Figure 0005476264
ここで、Ninlierはインライヤ数、Noutlierはアウトライヤ数を示す。また、τは、予め定めたインライヤ数(Ninlier)の絶対数の最小値を示し、例えば、その値を“10”とする。また、εは、予め定めた投影誤差(エラー数)の最小値を示し、例えば、その値を“5”とする。また、nthは、予め定めたアウトライヤ数のインライヤ数に対する割合(アウトライヤ数/インライヤ数)の最大値を示し、例えば、その値を“0.2”とする。なお、調整量Δは、固定値(例えば、“0.005”)として予め定めておくこととしてもよいが、ここでは、後記する閾値調整量算出手段37によって算出された調整量Δを用いる。
このように、閾値算出手段36は、インライヤ数がτ未満の場合、閾値rthを調整量Δ分増加させる。これによって、閾値rthによる制限が緩められ、特徴点同士がマッチングする度合いが高まり、インライヤ数が増加する方向に作用する。一方、インライヤ数がτ以上の場合、閾値算出手段36は、基本的には、閾値rthを調整量Δ分減少させる。これによって、閾値rthによる制限が厳しくなり、インライヤ数が減少する方向に作用する。
しかし、閾値算出手段36は、インライヤ数がτ以上の場合であっても、アウトライヤ数のインライヤ数に対する割合がnth以下の場合、閾値rthを調整量Δ分増加させる。これによって、閾値rthによる制限が緩められ、特徴点同士がマッチングする度合いが高まり、インライヤ数が増加することで、アウトライヤ数が減少する方向に作用する。
さらに、閾値算出手段36は、インライヤ数がτ以上、かつ、投影誤差e(E)がεより多い場合、アウトライヤ数のインライヤ数に対する割合にかかわらず、閾値rthを調整量Δ分減少させる。これによって、閾値による制限が厳しくなり、インライヤ数を減少させることで、よりマッチング精度の高いインライヤが選択されるため、高精度のカメラマッチングが可能になる。
なお、ここでは、最適な条件として前記(5)式としたが、条件を減らした簡易な判定としてもよい。例えば、インライヤ数のみで、閾値を調整することとしてもよい。
このように、前記(5)式に示した条件により、τの値によってインライヤ数の絶対数を確保するように閾値が調整され、さらに、εの値によって投影誤差が減少するように閾値が調整されるため、カメラトラッキングを安定化させることができる。
また、前記(5)式に示した条件により、nthによってインライヤ数を増加させ、アウトライヤ数を減少させる方向に閾値が調整されるため、インライヤ数の最大化と、アウトライヤ数の最小化が可能になり、演算量を抑えつつ、安定したカメラトラッキングを実現することができる。
閾値調整量算出手段37は、閾値算出手段36で閾値を調整するための調整量Δを算出するものである。この閾値調整量算出手段37は、閾値算出手段36で算出された閾値が、連続的に増加する場合に、さらに、閾値を増加させる方向に作用させるように調整量を算出する。また、閾値調整量算出手段37は、閾値算出手段36で算出された閾値が、連続的に減少する場合に、さらに、閾値を減少させる方向に作用させるように調整量を算出する。この閾値調整量算出手段37は、算出した調整量Δを、閾値算出手段36に出力する。
例えば、閾値調整量算出手段37は、以下の手法で調整量を算出する。
まず、閾値調整量算出手段37は、予め“0”から“0.1”の範囲(0<Δ<0.1)でランダムに調整量Δを初期値として定めておく。そして、閾値調整量算出手段37は、閾値算出手段36から入力された閾値rthが、予め定めた回数連続して増加した場合、現在の調整量Δに“0.001”を加算して、新たな調整量を算出する。
また、閾値調整量算出手段37は、閾値算出手段36から入力された閾値rthが、予め定めた回数連続して減少した場合、現在の調整量Δから“0.001”を減算して、新たな調整量を算出する。なお、閾値調整量算出手段37は、調整量Δを増減させる場合、下限値“0”および上限値“0.1”で調整量Δをクリップング(0<Δ<0.1)することとする。
このように、閾値調整量算出手段37は、閾値rthが連続して増加した際には、さらに閾値を増加させる方向に調整量を増加させ、閾値rthが連続して減少した際には、さらに閾値を減少させる方向に調整量を増加させることで、最適な閾値に素早く調整することができる。これによって、安定したカメラトラッキングに必要な、インライヤ数やアウトライヤ数の調整を素早く行うことができる。
カメラ姿勢推定手段40は、特徴対応点検出手段30(特徴点マッチング手段32)によって対応付けられた画像上の特徴点の位置(2次元座標)と、記憶手段20に記憶されている特徴点の位置(3次元座標)とに基づいて、カメラ姿勢(3方向の並進量、3つの回転パラメータ)を推定するものである。
ここでは、カメラ姿勢推定手段40は、投影誤差算出手段35において、特徴点マッチング手段32によって対応付けられた画像上の特徴点の位置(2次元座標)と、記憶手段20に記憶されている特徴点の位置(3次元座標)との誤差(距離差)が小さいものから順に選択されたカメラ姿勢推定に必要なインライヤの組を入力し、カメラ姿勢を推定する。そして、カメラ姿勢推定手段40は、推定したカメラ姿勢を推定結果として、特徴対応点検出手段30の特徴点投影手段34およびカメラ姿勢出力手段50に出力する。
なお、このカメラ姿勢推定手段40におけるカメラCの姿勢を推定する手法は、一般的な手法を用いることができる。以下、カメラ姿勢推定の一例について簡単に説明する。
カメラCで撮影された画像上の2次元座標(u,v)と、実世界の3次元座標(X,Y,Z)とは、透視投影変換行列Pを用いて、以下の(6)式で表される。
Figure 0005476264
なお、“〜”は、射影的に等しい、すなわち、定数倍の違いであっても等しいことを意味する。また、透視投影変換行列Pは、以下の(7)式となる。
Figure 0005476264
なお、前記(6)式は、定数倍の違いを許容しているため、p34=1とし、固定のカメラ画像上への変換と規定すると、前記(6)式および(7)式から、3次元座標座標(X,Y,Z)を画像上に透視投影変換した座標(u,v)は、以下の(8)式を満たす。
Figure 0005476264
この(8)式に示した方程式は、未知数が(p11,p12,p13,p14,p21,p22,p23,p24,p31,p32,p33)の計11個であるため、特徴点マッチング手段32によって対応付けられた対応点(インライヤ)の組が最低6組あれば、透視投影変換行列Pを求めることができる。すなわち、投影誤差算出手段35が、カメラ姿勢推定手段40に出力するインライヤの組数は、6組あればよい。
また、透視投影変換行列Pは、以下の(9)式により、カメラC固有の内部パラメータ行列Aと、カメラの並進ベクトル(3方向〔xyz方向〕の並進量)tと、カメラの姿勢を示す回転行列R(3つ〔ロール、ピッチ、ヨー角〕の回転パラメータ)とに分解することができる。
Figure 0005476264
これによって、カメラ姿勢推定手段40は、画像上の2次元座標上の特徴点と、予め定めた3次元座標上の特徴点とに基づいて、カメラ姿勢を推定することができる。
カメラ姿勢出力手段50は、カメラ姿勢推定手段40によって推定されたカメラ姿勢を外部に出力するものである。このカメラ姿勢出力手段50は、入力された画像(フレーム)に同期してカメラ姿勢を出力する。これによって、例えば、外部に接続されたCG合成装置によって、カメラCで撮影された画像に対して、CG画像を正確な位置に合成することができる。
以上、カメラトラッキング装置1の構成について説明したが、本発明はこの構成に限定されるものではない。
例えば、ここでは、特徴点マッチング手段32において、最近傍距離比によって特徴点がマッチングするか否かを判定したが、特徴点検出手段31で検出された特徴点と、記憶手段20に記憶されている特徴点との特徴空間での距離が予め定めた距離より短いものを、特徴点同士がマッチングすると判定してもよい。
この場合、特徴点マッチング手段32は、閾値rthを距離比ではなく、予め定めたマッチングを許容する最大限の距離の値とすればよい。また、閾値調整量算出手段37が行う閾値を調整するための調整量Δについても、距離比ではなく、閾値よりも小さい予め定めた微小な値を調整量とすればよい。
また、ここでは、閾値算出手段36において、閾値を調整する調整量Δを適宜増減させることとしたが、この調整量Δは固定の値であってもよく、その場合、閾値調整量算出手段37を構成から省略することができる。
また、カメラトラッキング装置1は、一般的なコンピュータを前記した各手段として機能させるプログラム(カメラトラッキングプログラム)により動作させることができる。
[カメラトラッキング装置の動作]
次に、図2を参照(構成については、適宜図1参照)して、本発明の実施形態に係るカメラトラッキング装置の動作について説明する。
まず、カメラトラッキング装置1は、画像入力手段10によって、カメラCから入力される画像(動画像)を順次入力する(ステップS1)。
そして、カメラトラッキング装置1は、特徴対応点検出手段30において、以下の手順によって、特徴点同士の対応点を検出する。
すなわち、カメラトラッキング装置1は、特徴点検出手段31によって、ステップS1で入力された画像(フレーム)から、エッジ、コーナー等、画像内の特徴的な部分を特徴点として検出し、当該特徴点の特徴量を算出する(ステップS2)。ここでは、特徴点検出手段31は、SURFによって、特徴点の画像上の位置(2次元座標)を検出し、特徴点近傍の64次元の特徴量をSURF特徴量として算出する。
そして、カメラトラッキング装置1は、特徴点マッチング手段32によって、ステップS2で検出された特徴点(位置および特徴量)と、記憶手段20に予め記憶されている特徴点(位置および特徴量)とを、最近傍距離比マッチングにより特徴点同士が対応する対応点(インライヤ)であるか否かを判定する(ステップS3)。
このとき、特徴点マッチング手段32は、初期状態においては、最近傍距離比マッチングを行う際の閾値(距離比閾値)として、予め定めた値(初期値)を用いるが、次画像(フレーム)が入力され、後記するステップS7において、閾値が算出された場合は、その閾値を用いて最近傍距離比マッチングを行う。
さらに、カメラトラッキング装置1は、対応点集計手段33によって、ステップS3で特徴点同士が対応点であると判定された特徴点の数(インライヤ数)と、対応点と判定されなかった特徴点の数(アウトライヤ数)とを集計する(ステップS4)。
そして、カメラトラッキング装置1は、特徴点投影手段34によって、ステップS3でインライヤと判定された記憶手段20に記憶されている特徴点の位置(3次元座標)を、2次元画像上に投影する(ステップS5)。
このとき、特徴点投影手段34は、初期状態においては、初期設定として予め定めたカメラ姿勢(基準姿勢)を基準として、インライヤとして判定された記憶手段20に記憶されている特徴点の位置(3次元座標)を2次元画像上に投影するが、次画像(フレーム)が入力され、後記するステップS8において、カメラ姿勢が推定された場合は、そのカメラ姿勢により特徴点の投影を行う。
そして、カメラトラッキング装置1は、投影誤差算出手段35によって、ステップS5で画像上に投影された特徴点の位置と、ステップS3において当該特徴点とマッチングがとられている特徴点(インライヤ)の画像上の位置との誤差をすべてのインライヤにおいて算出し、その総和を投影誤差として算出する。また、このとき、投影誤差算出手段35は、インライヤと判定された特徴点の画像上の誤差が小さいものから順に、カメラ姿勢推定に必要な予め定めた数の特徴点(インライヤ)の組を選択する(ステップS6)。
その後、カメラトラッキング装置1は、閾値算出手段36によって、ステップS4で集計されたインライヤ数およびアウトライヤ数と、ステップS6で算出された投影誤差とに基づいて、ステップS3において、特徴点マッチング手段32で使用する閾値(距離比閾値)を算出する(ステップS7)。このとき、閾値算出手段36は、前記(5)式に示す条件に従って、閾値(距離比閾値)rthを、調整量Δ分だけ増減させる。
また、カメラトラッキング装置1は、順次このステップS7の動作を行う際に、閾値算出手段36が算出した閾値が予め定めた回数連続して増加した場合、閾値調整量算出手段37によって、現在の調整量Δに予め定めた値を加算して、新たな調整量を算出する。また、閾値算出手段36が算出した閾値が予め定めた回数連続して減少した場合、閾値調整量算出手段37によって、現在の調整量Δから予め定めた値を減算して、新たな調整量を算出する。なお、このとき、閾値調整量算出手段37は、調整量Δを予め定めた下限値と上限値の範囲でクリップングする。
そして、カメラトラッキング装置1は、カメラ姿勢推定手段40によって、ステップS6で選択された画像上の特徴点の位置(2次元座標)と、記憶手段20に記憶されている特徴点の位置(3次元座標)とに基づいて、カメラ姿勢(3方向の並進量、3つの回転パラメータ)を推定する(ステップS8)。
その後、カメラトラッキング装置1は、カメラ姿勢出力手段50によって、ステップS8で推定されたカメラ姿勢を外部に出力する(ステップS9)。
そして、カメラトラッキング装置1は、画像入力手段10において、さらに、カメラCから次画像(フレーム)が入力された場合(ステップS10でYes)、ステップS2に戻って動作を継続する。一方、カメラCから次画像(フレーム)が入力されなかった場合(ステップS10でNo)、動作を終了する。
以上の動作により、カメラトラッキング装置1は、最近傍距離比マッチングによって特徴点のマッチングを行う際に、インライヤ数、アウトライヤ数および投影誤差に応じて、最近傍距離比マッチングに用いる閾値を適宜変化させて、カメラマッチングを行うことができる。これによって、カメラトラッキング装置1は、照明やカメラの視点位置などが大きく変化する環境下においても、頑健にトラッキングを行うことができる。
[カメラトラッキング装置の評価]
ここで、本発明のカメラトラッキング装置1を評価した評価結果について説明する。
以下の〔表1〕は、前記(5)式において、調整量Δおよび割合最大値nthを異なる初期値としたときの距離比閾値rth、調整量Δ、インライヤ数Ninlier、アウトライヤ数/インライヤ数(Noutlier/Ninlier)、並進および回転の姿勢のエラー量(mm,度)の各平均値を示したものである。
また、以下の〔表2〕は、従来の手法により、距離比閾値rthを固定にした場合のインライヤ数Ninlier、アウトライヤ数/インライヤ数(Noutlier/Ninlier)、並進および回転の姿勢のエラー量(mm,度)の各平均値を示したものである。
なお、姿勢エラー量は、カメラ姿勢が既知の状態で、カメラトラッキング装置1において推定したカメラ姿勢のエラー量を測定したものである。また、ここで、前記(5)式において、インライヤ数の絶対数の最小値τを“10”、投影誤差の最小値εを“5”とした。
Figure 0005476264
Figure 0005476264
この〔表1〕に示すように、本発明のカメラトラッキング装置1は、調整量Δおよび割合最大値nthを異なる初期値とした場合であっても、距離比閾値rthや調整量Δを動的に調整し、少ない姿勢エラー量で頑健にカメラ姿勢を推定することができた。
また、〔表2〕に示すように、従来の手法では、距離比閾値rthが“0.55”以下の場合、インライヤ数が少なくなり、しばしば、カメラ姿勢の推定が破綻する等、カメラトラックングが不安定となった。また、距離比閾値が“0.85”以上の場合、アウトライヤ数(表不記載)が多くなり、カメラトラックングが不安定となった。
これに対し、本発明のカメラトラッキング装置1は、カメラ姿勢の推定が破綻することなく、頑健にカメラ姿勢を推定することができた。
また、図3は、本発明のカメラトラッキング装置1において、距離比閾値rthの初期値を“0”に設定した際の距離比閾値rthの変化を示している。なお、この図3では、横軸にフレームk、縦軸に距離比閾値rthを示している。
この図3に示すように、距離比閾値rthの初期値を“0”に設定した場合であっても、カメラトラッキング装置1は、逐次入力されるカメラ画像のインライヤ数、アウトライヤ数および投影誤差に応じて、距離比閾値rthを調整することができる。これによって、従来のように画像の特性に応じて予め距離比閾値rthを固定に設定する必要がなく、照明やカメラの視点位置などが大きく変化する環境下においても、人手を介さずに最適な調整を行いカメラトラッキングを行うことができる。
1 カメラトラッキング装置
10 画像入力手段
20 記憶手段
30 特徴対応点検出手段
31 特徴点検出手段
32 特徴点マッチング手段
33 対応点集計手段
34 特徴点投影手段
35 投影誤差算出手段
36 閾値算出手段
37 閾値調整量算出手段
40 カメラ姿勢推定手段
50 カメラ姿勢出力手段

Claims (4)

  1. カメラで撮影された被写体のカメラ画像内の2次元座標上の特徴点と、前記被写体の3次元座標上の既知の情報である特徴点とをマッチングすることで、前記カメラの姿勢を推定するカメラトラッキング装置において、
    前記被写体の3次元座標上の既知の情報である特徴点の位置および多次元の特徴量を予め対応付けて記憶する記憶手段と、
    前記カメラ画像内の特徴点と、前記記憶手段に記憶されている特徴点とに基づいて、前記カメラの姿勢を推定するための特徴点同士の対応点を検出する特徴対応点検出手段と、
    この特徴対応点検出手段で検出された対応点である前記カメラ画像内の2次元座標上の特徴点の位置と、前記記憶手段に記憶されている3次元座標上の特徴点の位置とに基づいて、カメラ姿勢を推定するカメラ姿勢推定手段と、を備え、
    前記特徴対応点検出手段は、
    前記カメラ画像から、画像内容が変化する特徴的な部分である特徴点の位置および多次元の特徴量を検出する特徴点検出手段と、
    この特徴点検出手段で検出された特徴点の多次元の特徴量と、前記記憶手段に記憶されている多次元の特徴量との特徴空間上の距離に基づいて、閾値による近似判定を行うことで特徴点のマッチングを行い前記対応点を検出する特徴点マッチング手段と、
    この特徴点マッチング手段において、前記カメラ画像の対応点としてマッチングが行われた特徴点の数であるインライヤ数と前記対応点としてマッチングが行われなかった特徴点の数であるアウトライヤ数とを集計する対応点集計手段と、
    この対応点集計手段で集計されたインライヤ数が予め定めた数未満の場合、前記特徴点マッチング手段で特徴点がマッチングしているか否かの判定を行う前記閾値に所定の調整量を加算し、前記インライヤ数が予め定めた数以上の場合に、前記閾値から前記調整量を減算して新たな閾値を算出する閾値算出手段と、を備え
    前記閾値算出手段は、前記インライヤ数が予め定めた数以上の場合であっても、前記アウトライヤ数の前記インライヤ数に対する割合が予め定めた値以下の場合に、前記閾値に前記調整量を加算することを特徴とするカメラトラッキング装置。
  2. 前記特徴対応点検出手段は、
    現在のカメラ姿勢に基づいて、前記記憶手段に記憶されている3次元座標上の特徴点を2次元座標の画像上に投影する特徴点投影手段と、
    この特徴点投影手段で投影された特徴点の位置と、当該特徴点に対応して前記特徴点マッチング手段でマッチングが行われた前記カメラ画像内の特徴点の位置との誤差を累計する投影誤差算出手段と、をさらに備え、
    前記閾値算出手段は、前記インライヤ数が予め定めた数以上、かつ、前記投影誤差算出手段で累計された誤差が予め定めた数より多い場合、前記アウトライヤ数の前記インライヤ数に対する割合にかかわらず、前記閾値から前記調整量を減算して新たな閾値を算出することを特徴とする請求項に記載のカメラトラッキング装置。
  3. 前記閾値算出手段で算出される閾値が、予め定めた回数連続して増加した場合、前記調整量から予め定めた値を減算し、予め定めた回数連続して減少した場合、前記調整量に予め定めた値を加算して新たな調整量を算出する閾値調整量算出手段を、さらに備えることを特徴とする請求項1または請求項2に記載のカメラトラッキング装置。
  4. カメラで撮影された被写体のカメラ画像内の2次元座標上の特徴点と、前記被写体の3次元座標上の既知の情報である特徴点とをマッチングすることで、前記カメラの姿勢を推定するカメラトラッキング装置において、コンピュータを、
    前記カメラ画像から、画像内容が変化する特徴的な部分である特徴点の位置および多次元の特徴量を検出する特徴点検出手段、
    この特徴点検出手段で検出された特徴点の多次元の特徴量と、既知の情報として前記被写体の3次元座標上の特徴点の位置に対応付けて予め記憶手段に記憶されている多次元の特徴量との特徴空間上の距離に基づいて、閾値による近似判定を行うことで特徴点のマッチングを行い対応点を検出する特徴点マッチング手段、
    この特徴点マッチング手段において、前記カメラ画像の対応点としてマッチングが行われた特徴点の数であるインライヤ数と前記対応点としてマッチングが行われなかった特徴点の数であるアウトライヤ数とを集計する対応点集計手段、
    この対応点集計手段で集計されたインライヤ数が予め定めた数未満の場合、前記特徴点マッチング手段で特徴点がマッチングしているか否かの判定を行う前記閾値に所定の調整量を加算し、前記インライヤ数が予め定めた数以上の場合に、前記閾値から前記調整量を減算して新たな閾値を算出する閾値算出手段、
    前記対応点として検出された前記カメラ画像内の2次元座標上の特徴点の位置と、前記記憶手段に記憶されている3次元座標上の特徴点の位置とに基づいて、カメラ姿勢を推定するカメラ姿勢推定手段、として機能させ
    前記閾値算出手段は、前記インライヤ数が予め定めた数以上の場合であっても、前記アウトライヤ数の前記インライヤ数に対する割合が予め定めた値以下の場合に、前記閾値に前記調整量を加算することを特徴とするカメラトラッキングプログラム。
JP2010211518A 2010-09-22 2010-09-22 カメラトラッキング装置およびそのプログラム Expired - Fee Related JP5476264B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010211518A JP5476264B2 (ja) 2010-09-22 2010-09-22 カメラトラッキング装置およびそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010211518A JP5476264B2 (ja) 2010-09-22 2010-09-22 カメラトラッキング装置およびそのプログラム

Publications (2)

Publication Number Publication Date
JP2012068772A JP2012068772A (ja) 2012-04-05
JP5476264B2 true JP5476264B2 (ja) 2014-04-23

Family

ID=46166017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010211518A Expired - Fee Related JP5476264B2 (ja) 2010-09-22 2010-09-22 カメラトラッキング装置およびそのプログラム

Country Status (1)

Country Link
JP (1) JP5476264B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5429336B2 (ja) * 2011-09-16 2014-02-26 株式会社リコー 画像処理装置、画像処理方法およびプログラム
JP6121302B2 (ja) * 2013-09-30 2017-04-26 Kddi株式会社 姿勢パラメータ推定装置、姿勢パラメータ推定システム、姿勢パラメータ推定方法、およびプログラム
JP6503906B2 (ja) 2015-06-10 2019-04-24 富士通株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6494103B2 (ja) * 2015-06-16 2019-04-03 西日本旅客鉄道株式会社 画像処理を利用した列車位置検出システムならびに画像処理を利用した列車位置および環境変化検出システム
WO2018000038A1 (en) * 2016-06-29 2018-01-04 Seeing Machines Limited System and method for identifying a camera pose of a forward facing camera in a vehicle
JP6946912B2 (ja) * 2017-10-06 2021-10-13 富士通株式会社 推定プログラム、推定装置、及び推定方法
CN107816989B (zh) * 2017-10-13 2021-01-08 中国船舶重工集团公司七五0试验场 水下机器人航向数据处理方法和装置
WO2021251171A1 (ja) * 2020-06-12 2021-12-16 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
CN113947686A (zh) * 2021-08-06 2022-01-18 上海有个机器人有限公司 一种图像的特征点提取阈值动态调整方法和系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4753072B2 (ja) * 2005-11-14 2011-08-17 独立行政法人産業技術総合研究所 映像内の複数広告看板の認識方法
GB0625455D0 (en) * 2006-12-20 2007-01-31 Mitsubishi Electric Inf Tech Graph-based multiple panorama extraction from unordered image sets

Also Published As

Publication number Publication date
JP2012068772A (ja) 2012-04-05

Similar Documents

Publication Publication Date Title
JP5476264B2 (ja) カメラトラッキング装置およびそのプログラム
CN105654464B (zh) 图像处理装置及图像处理方法
JP4556873B2 (ja) 画像照合システム及び画像照合方法
US9070042B2 (en) Image processing apparatus, image processing method, and program thereof
JP5954668B2 (ja) 画像処理装置、撮像装置および画像処理方法
US10957068B2 (en) Information processing apparatus and method of controlling the same
US8199202B2 (en) Image processing device, storage medium storing image processing program, and image pickup apparatus
JP5075757B2 (ja) 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
US20120194652A1 (en) Image processing apparatus and method, and program
US20150097827A1 (en) Target Region Fill Utilizing Transformations
JP6464938B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2015014111A1 (zh) 一种光流跟踪方法和装置
US20160050372A1 (en) Systems and methods for depth enhanced and content aware video stabilization
CN114693760A (zh) 图像校正方法、装置及系统、电子设备
JP6061770B2 (ja) カメラ姿勢推定装置及びそのプログラム
US9224212B2 (en) Image processing apparatus and image processing method
JP6894707B2 (ja) 情報処理装置およびその制御方法、プログラム
JP7188201B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP6045523B2 (ja) 画像処理装置およびその制御方法
CN108335328B (zh) 摄像机姿态估计方法和摄像机姿态估计装置
US20170069072A1 (en) Image processing apparatus, image processing system, and image processing method
JP2011141710A (ja) 奥行推定装置、奥行推定方法および奥行推定プログラム
JP2006350465A (ja) 画像マッチング装置、画像マッチング方法および画像マッチング用プログラム
JP6922348B2 (ja) 情報処理装置、方法、及びプログラム
CN113642397B (zh) 一种基于手机视频的物体长度测量方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140207

R150 Certificate of patent or registration of utility model

Ref document number: 5476264

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees