JP2000003447A - 物体形状及びカメラ・パラメータの推定方法、三次元データ入力装置、並びに、記録媒体 - Google Patents

物体形状及びカメラ・パラメータの推定方法、三次元データ入力装置、並びに、記録媒体

Info

Publication number
JP2000003447A
JP2000003447A JP10167352A JP16735298A JP2000003447A JP 2000003447 A JP2000003447 A JP 2000003447A JP 10167352 A JP10167352 A JP 10167352A JP 16735298 A JP16735298 A JP 16735298A JP 2000003447 A JP2000003447 A JP 2000003447A
Authority
JP
Japan
Prior art keywords
camera
feature point
object shape
camera parameters
coordinate value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10167352A
Other languages
English (en)
Inventor
Hirofumi Nishida
広文 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP10167352A priority Critical patent/JP2000003447A/ja
Publication of JP2000003447A publication Critical patent/JP2000003447A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 特徴点の遮蔽が起きる場合でも、画像系列か
ら効率的な処理により物体形状及びカメラ・パラメータ
を高精度に推定する。 【解決手段】 画像系列の各フレーム上での各特徴点の
座標値を特徴点抽出・追跡部103で求め、それら座標
値に対し、その信頼度に応じた重みを重み設定部104
で設定する。反復推定演算部105において、アフィン
・カメラモデルを仮定し、特徴点の座標値及びその重み
を用いて、物体形状を固定した条件下でカメラ・パラメ
ータを最小二乗法で推定し、次に、カメラ・パラメータ
を固定した条件下で物体形状を最小二乗法で推定する2
段階からなる反復推定処理を、物体形状及びカメラ・パ
ラメータが収束するまで繰り返す。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、デジタルビデオカ
メラなどによって撮影された時系列画像から、対象物体
の三次元形状とカメラ・パラメータを推定する技術分野
に関する。
【0002】
【従来の技術】デジタルスチルカメラやデジタルビデオ
カメラのようなデジタルメディアによって取り込んだ動
画像からの対象物体の三次元形状の推定が、コンピュー
タヴィジョンの研究分野において重要な課題となってお
り、その応用分野、例えばロボットヴィジョン、自動走
行車、ビデオカメラを使った三次元形状入力、画像符号
化、三次元モデリングなどでも大きな関心が持たれてい
る。
【0003】時系列の二次元動画像からの三次元情報の
抽出問題において、物体形状とカメラ運動を同時に計算
する方法として、TomasiとKanadeにより提案された「因
子分解法(factorization)」がある( C.Tomasi and T.K
anade, "Shape and motionfrom image stream under or
thography: A factorization method,"International J
ournal of Computer Vision,vol.9,1992,pp.137-15
4)。この方法は、正射影モデルに基づいて線形定式化
を行い、数値計算的に安定な行列の特異値分解を用いる
ため、反復計算を使わずに解を求めることができ、か
つ、他の手法に比べて解が極めて安定である。また、定
式化の線形性を保ちながら、実際のカメラモデルである
中心射影により近い擬似中心射影(paraperspective)モ
デルを利用する因子分解法が、PoelmanとKanadeにより
提案された( C.J.Poelmanand T.Kanade, "A parapersp
ective factorization method for shape andmotion re
covery," IEEE Transaction on Pattern Analysis and
MachineIntelligence, vol.19,no.3,pp.206-218)。
【0004】
【発明が解決しようとする課題】因子分解法において
は、選ばれたすべての特徴点が、動画像のすべての画像
フレームにわたって追跡できることを前提としている。
すなわち、最初の画像フレームで見えている特徴点が途
中で隠れて見えなくなったり、途中の画像フレームで新
しい特徴点が導入されたりしないことを仮定している。
しかしながら、カメラが物体の周りを一回りするような
状況では、最初の画像フレームで見えている特徴点の一
部は途中で物体に遮蔽されてしまうので、そのような仮
定は、長時間にわたって撮影された動画像には適用でき
ない。
【0005】この問題への対処として、前述のTomasiと
Kanadeは、特定の画像フレーム上で隠れて見えないよう
な特徴点について、その画像面での投影位置、すなわ
ち、物体が透明な場合に、その特徴点が画像面上で観測
されるべき位置を推定する方法を提案している。この方
法では、推定対象の近傍の画像フレームの部分集合と特
徴点の部分集合に因子分解法を適用し、それにより得ら
れた画像フレームと特徴点の位置情報の部分推定を使っ
て、隠れて見えない特徴点の画像面での投影位置を最小
二乗近似によって求める。しかし、この方法で得られる
推定値は、本来の投影条件である中心射影によるもので
はなく、因子分解法で仮定する投影モデル(正射影や擬
似中心射影)により投影されたものになってしまう。そ
のため、推定値が実際のカメラモデルである中心投影に
よる投影位置から大きくずれて誤差が大きくなることが
ある。このような誤差が大きい推定値を使うことは、全
体の形状と運動の復元精度に悪影響を及ぼす。
【0006】さらに、三次元空間内の点の画像フレーム
上への投影を考えると、画像フレームの中心から離れる
ほど、擬似中心射影による投影位置と実際のカメラモデ
ルの中心射影による投影位置との誤差が大きくなること
が解析的に示される。したがって、擬似中心射影モデル
を用いて形状復元をする場合には、各画像フレームにお
いて、中心に近い特徴点ほど信頼性が高く、遠い特徴点
ほど信頼性が低いことになる。
【0007】本発明は、上に述べた2つの問題点に鑑み
てなされたもので、一連の時系列画像中に隠れて見えな
いような特徴点がある場合にも、より効率的な処理によ
って、より高い精度で、物体の形状とカメラ・パラメー
タを推定できるようにすることを目的とする。
【0008】
【課題を解決するための手段】本発明においては、画像
系列に対し特徴点の追跡を行い、その結果として得られ
た各画像フレーム上の各特徴点の座標値に対し、その信
頼度に応じた重みを設定する。具体的には、特徴点の重
みを、特徴点の画像フレームの中心からの距離の単調減
少関数として定義すればよく、遮蔽されて見えなくなっ
た特徴点については、信頼度が0であるので、その重み
を0に設定すればよい。アフィン・カメラモデルを仮定
し、特徴点の座標値に基づいて物体形状とカメラ・パラ
メータを推定するが、その際に、各特徴点の座標値を、
設定された重みを用いて重みづけする。推定には反復法
を用いる。まず、物体形状を固定した条件下でカメラ・
パラメータを最小二乗法で推定し、次に、カメラ・パラ
メータを固定した条件下で物体形状を最小二乗法で推定
するという2段階からなる反復処理を、物体形状及びカ
メラ・パラメータが収束するまで繰り返す。
【0009】
【発明の実施の形態】本発明においては、カメラ・モデ
ルとして、擬似中心射影モデルを含むアフィン・カメラ
モデルを仮定する。まず、このアフィン・カメラモデル
に関して図1を参照して説明する。
【0010】図1において、1はカメラ中心、2はカメ
ラ中心1から焦点p距離だけ離れた画像面である。C
は、カメラにより撮影された物体の特徴点(その一部が
■マークで代表して表されている)の集合の重心(物体
の重心)である。3は重心Cを通り画像面2に平行な仮
想画像面である。ワールド座標系の原点を重心Cに採
り、特徴点pのワールド座標系での三次元座標をsp
(spx,spy,spz)T∈R3とする。
【0011】時系列画像中のある画像フレームfに関
し、カメラ中心1の座標をtf、画像面2の二次元ロー
カル座標系の基底ベクトルをif,jf∈R3(ただし、
‖if‖=‖jf‖=1,if×jf=0)、カメラの光軸
方向をkf=if×jf∈R3とする。画像フレームfにお
いて、画像面2と、ベクトルkfの交点Ofを原点に採
り、単位直交ベクトルの組(if,jf)により、二次元
ローカル座標系Σf=(Of;if,jf)を定義する。特
徴点pの画像面2への投影点のΣf=(Of;if,jf
での座標を(ufp,vfp)とする。ただし、カメラの焦
点距離を1とする。
【0012】アフィン・カメラモデルでは、(ufp,v
fp)は、次のように表現される。ただし、mf=(mfx,
fy,mfz),nf=(nfx,nfy,nfz)、xf,yfはカメ
ラ・パラメータである。
【0013】
【数1】
【0014】特に、擬似中心射影モデルでは、図1のよ
うに、ワールド座標系の原点を特徴点集合の重心Cに採
ったとき、
【0015】
【数2】
【0016】となる。ここで、zfはカメラ中心1から
仮想画像面3までの距離である。擬似中心射影モデル
は、|sp2/zf 2≒0の仮定のもとで中心射影を近似
したものである。
【0017】擬似中心射影モデルを含むアフィン・カメ
ラモデルにおいては、画像面2の中心から離れるほど、
中心射影の投影位置との誤差が大きくなる。特に、擬似
中心射影モデルでは、画像フレームfでの二次元ローカ
ル座標系Σf=(Of;if,jf)における、投影点座標の推
定値の誤差(Δu,Δv)は
【0018】
【数3】
【0019】となる。ただし、図1に示すように、Dは
推定される点sp∈R3から仮想画像面3までのワールド
座標系での符号付き距離であり、特徴点spが仮想画像
面3に対して、カメラ中心1と同じ側にあるときに負、
反対側にあるときに正の符号をとる。(u,v)は、Σ
f=(Of;if,jf)での点spの画像面2へ正射影した
投影点の座標である。(uc,vc)は、Σf=(Of;
f,jf)での特徴点集合の重心Cの画像面2へ正射影
した投影点の座標である。もしカメラの光軸がCを通れ
ば、(uc,vc)=0となる。
【0020】以下、本発明の方法及び装置の一実施形態
として、デジタルビデオカメラなどによって撮影された
F枚の画像フレームからなる画像系列を取り込み、対象
物体の形状とカメラ・パラメータを推定する三次元デー
タ入力システムについて説明する。図2は、この三次元
データ入力システムの機能的ブロック構成を示すブロッ
ク図である。図3乃至図5は、この三次元データ入力シ
ステムにおける処理内容を説明するためのフローチャー
トである。
【0021】図2において、100は画像系列を入力す
る画像入力部である。この画像入力部100は、例え
ば、物体の撮影に使用されたデジタルビデオカメラその
ものであったり、デジタルビデオカメラなどで予め撮影
された画像データを格納している記憶媒体から画像デー
タを読み込むものであったり、あるいは、外部の機器か
ら通信回線を通じて画像データを取り込むものである。
101は、画像入力部100から入力された一連の画像
フレームの全部、又は、少なくとも相前後した2枚の画
像フレームを一時的に記憶するためのフレームメモリで
ある。
【0022】102は、フレームメモリ101内の画像
フレームから特徴点を抽出して、それを全フレームにわ
たって追跡する特徴点抽出・追跡部である。この特徴点
の抽出・追跡の結果として、各画像フレームf(f=1,
2,...,F)における各特徴点p(p=1,2,...,P)の画像
面への投影点の座標(ufp,vfp)が例えば図6に示す
ような形でワークメモリ103に記憶される。特徴点と
しては、例えば、物体のエッジや模様のような輝度変化
の激しい点が抽出される。このような特徴点の追跡(フ
レーム間での特徴点の対応付け)は、例えば、相前後す
るフレーム間でのブロックマッチングによって行われ
る。前述のように特徴点の遮蔽、あるいは撮影時の照明
の変動などによって、ある特徴点が、ある画像フレーム
では抽出されない場合があり、そのような特徴点の座標
値は欠測値となる。
【0023】104は、ワークメモリ103上に得られ
た特徴点の座標値(ufp,vfp)に対し、その信頼度に
応じた重みwfp(0≦wfp≦1)を設定する重み設定部
である。設定された重みwfpは、例えば図6のような形
式でワークメモリ103に記憶される。105は、ワー
クメモリ103上の座標値と重みを参照し、反復推定演
算処理を行うことにより対象物体の形状とカメラ・パラ
メータを推定する反復推定演算部である。推定結果はワ
ークメモリ103に記憶される。106は、ワークメモ
リ103より推定結果を外部の記憶媒体や出力機器へ出
力する出力部である。
【0024】このような三次元データ入力システムにお
ける処理内容について、図3乃至図5のフローチャート
に示す処理の流れに沿って詳細に説明する。
【0025】画像入力部100によって画像系列を入力
し、それに対する特徴点の抽出・追跡を特徴点抽出・追
跡部102で行う(処理ブロック200,201)。な
お、フレームメモリ101に例えば2フレームだけを一
時的に記憶する場合には、最終の第Fフレームまで、2
フレーム単位で処理ブロック200,201の処理が繰
り返される。
【0026】このようにしてワークメモリ103上に得
られた座標値に対する重みが重み設定部104によって
設定される(処理ブロック202)。画像フレームfに
おける特徴点pの欠測値でない座標値(ufp,vfp)の
重みwfpは次のようにして決定される。画像フレームf
の中心Ofから特徴点pの投影点(ufp,vfp)までの距
離をdfpとする。重みwfpは、dfp=0のときに1をと
るような、dfpの単調減少関数として定義する。例え
ば、画像フレームfの中心Ofから最も遠くにある投影
点までの距離をDf、aを0<a≦1のような定数とす
るとき、
【0027】
【数4】
【0028】又は
【0029】
【数5】
【0030】のような関数を使うことができる。ただ
し、欠測値に対しては、その信頼度は0であるから、そ
の重みを0とする。
【0031】このような重み設定が終了すると、反復推
定演算部105によって、対象物体の形状とカメラ・パ
ラメータの推定が行われる(処理ブロック203)。ワ
ークメモリ103上に得られた推定結果は、出力部10
6によって出力され(処理ブロック204)、本システ
ムの処理が終了する。
【0032】次に、処理ブロック203における処理内
容を詳細に説明する。ここでは、ワークメモリ103上
に得られたデータ{(ufp,vfp;wfp):f=1,...,F;
p=1,...,P}に対して、
【0033】
【数6】
【0034】
【数7】
【0035】としたときに、
【0036】
【数8】
【0037】のεを最小にするような物体形状{sp
(spx,spy,spz):p=1,...,P}、カメラ・パラメータ
{mf=(mfx,mfy,mfz):f=1,...,F},{nf=(nfx,
fy,nfz):f=1,...,F}、及び{(xf,yf):f=1,...,
F}を反復法で求める。その具体的なアルゴリズムを次
に説明する。図4は、そのフローチャートである。
【0038】まず、各f=1,...,Fについて、sp
f,nf,xf,yf の初期値sp (0),mf (0)
f (0),xf (0),yf (0)を設定する(ステップ30
0)。その設定方法については後述する。
【0039】反復回数kを1にセットする(ステップ3
01)。spをsp (k-1)に固定し(したがって、最初はs
pをその初期値sp (0)に固定)、各f=1,...,Fについ
て、
【0040】
【数9】
【0041】を最小にするmf (k),xf (k)を最小二乗法
により求める(ステップ302)。
【0042】同様に、spをsp (k-1)に固定し、各f=
1,...,Fについて、
【0043】
【数10】
【0044】を最小にするnf (k),yf (k)を最小二乗法
により求める(ステップ303)。
【0045】つぎに、mf,xf,nf,yfをそれぞれm
f (k),xf (k),nf (k),yf (k)に固定して、各p=
1,...,Pについて
【0046】
【数11】
【0047】を最小にするsp (k)を最小二乗法で求める
(ステップ304)。
【0048】そして、sp (k),mf (k),xf (k)
f (k),yf (k)の収束又は反復回数オーバーの判定を行
う(ステップ305)。すなわち、予め定めた収束パラ
メータeに対し、各p=1,...,Pについて ‖sp (k)−sp (k-1)‖<e 各f=1,...,Fについて ‖mf (k)−mf (k-1)‖<e,‖nf (k)−nf (k-1)‖<e ‖(xf (k),yf (k))−(xf (k-1),yf (k-1))‖<e の全ての条件が成立するときには収束したと判定する。
また、予め定めた最大反復回数Kに対し、k≧Kならば
反復回数オーバーと判定する。
【0049】収束したとは判定されず、かつ、反復回数
オーバーとも判定されない場合には、反復回数kを1だ
けインクリメントし(ステップ306)、ステップ30
2に戻って物体形状とカメラ・パラメータの推定を繰り
返す。
【0050】ステップ305において、収束したと反復
されるか、あるいは反復回数オーバーと判定されたとき
には、その段階における各p=1,...,Pに対するsp (k)
と、各f=1,...,Fに対するmf (k),nf (k),xf (k)
f (k)をsp,mf,nf,xf,yfの推定値として確定
し、ワークメモリ103に保存する(ステップ30
7)。これで推定処理は終了する。
【0051】このように、物体形状を固定してカメラ・
パラメータを最小二乗法で推定し、次にカメラ・パラメ
ータを固定して物体形状を最小二乗法で推定するという
2段階ならなる反復処理を、物体形状とカメラ・パラメ
ータが収束するまで繰り返す反復推定法であり、欠測値
の推定を行わないため、効率的な推定が可能である。そ
して、実際のカメラ投影モデルと近似モデルの誤差を考
慮して特徴点の座標値に重みを設定し、それを用いて推
定演算において特徴点の座標値に重み付けするため、カ
メラが大きく運動する場合や、長時間に渡って撮影され
た動画像において、隠れて見えなくなるような特徴点が
存在する場合でも、その特徴点の画像面上での投影位置
(欠測値)を推定しなくとも、高い精度で物体の形状を
推定可能である。
【0052】次に、ステップ300の初期値設定の好ま
しいアルゴリズムを説明する。図5は、そのフローチャ
ートである。
【0053】まず、フレームの部分集合ΣF⊆{1,...,F}
と特徴点の部分集合ΣP⊆{1,...,P}を、そのすべてのフ
レームと特徴点の組(f,p);f∈ΣF,p∈ΣP
対して(ufp,vfp)が欠測値でないように選ぶ(ステ
ップ400)。
【0054】次に、初期値sp (0),mf (0),nf (0),x
f (0),yf (0)をランダムに設定し(ステップ401)、
図4のステップ301〜ステップ307と同様の反復推
定処理によってsp(p∈ΣP)、並びに、mf,nf,x
f,yf(f∈ΣF)を求める(ステップ402)。
【0055】そして、ΣF≠{1,...,F}ならば(ステップ
403,YES)、つまり、処理の対象とならなかった
フレームが残っているならば、f∈{1,...,F}−ΣF、つ
まり未処理のフレームを適当に選ぶ(ステップ40
4)。そして、選んだフレームfについて
【0056】
【数12】
【0057】
【数13】
【0058】をそれぞれ最小にするmf,xf,nf,yf
を最小二乗法で求める(ステップ405)。そして、ス
テップ404で選んだフレームとΣFとの和集合を、あ
らためてΣFとする(ステップ406)。
【0059】次に、ΣP≠{1,...,P}ならば(ステップ4
07,YES)、つまり、処理の対象とならなかった特
徴点が残っているならば、p∈{1,...,P}−ΣP、つまり
未処理の特徴点を適当に選ぶ(ステップ408)。そし
て、選んだ特徴点pについて
【0060】
【数14】
【0061】を最小にするspを最小二乗法で求める
(ステップ409)。そして、ステップ408で選んだ
特徴点とΣPとの和集合を、あらためてΣPとする(ステ
ップ410)。
【0062】次に、ΣF≠{1,...,F}であるか判定し
(ステップ411)、そうならばステップ404から処
理を続ける。そうでなければ、ΣP≠{1,...,P}であるか
判定する(ステップ412)。そうならばステップ40
8から処理を続ける。
【0063】以上の処理が繰り返され、全てのフレーム
及び特徴点について処理がなされると、得られたsp(p
=1,...,P)並びにmf,nf,xf,yf(f=1,..,F)を初
期値として確定し(ステップ413)、処理を終了す
る。
【0064】このようなアルゴリズムによれば、特徴点
の座標値の欠測値が存在する場合でも、実際の物体形状
及びカメラ・パラメータにかなり近い初期値を設定でき
るため、図4の反復推定処理における物体形状及びカメ
ラ・パラメータの収束を早め、推定処理時間の短縮が可
能である。
【0065】図3乃至図5を参照して説明した処理は、
専用のハードウェアによって実現することも可能である
が、例えば図7に略示するようなCPU500、メモリ
501、ハードディスクなどの補助記憶装置502、フ
ロッピーディスクなどの可搬記録媒体504の読み書き
のためのドライブ503、外部の入力機器との入力イン
ターフェイス505、外部の出力機器との出力インター
フェイス506、ディスプレイ装置507などをシステ
ムバス508によって接続したようなコンピュータを用
い、ソフトウエアによって実現することも可能である。
この場合、図3乃至図5に示す処理を実行させるための
プログラム510はメモリ501上に置かれてCPU5
00によって実行される。このプログラム510は、例
えば、それが記録されたフロッピーディスクなどの可搬
記録媒体504からドライブ503を介してメモり50
1にロードされ、あるいは補助記憶装置502に一旦格
納され処理実行時にメモリ501にロードされる。処理
対象の画像系列は、例えば、デジタルビデオカメラなど
の画像入力機器から入力インターフェイス505を介し
てメモり501に書き込まれ、又は補助記憶装置502
に一旦格納され処理実行時にメモリ501に読み込まれ
る。フレームメモリ101及びワークメモリ103は、
メモリ501の特定の記憶域が割り当てられる。推定結
果は、例えば、メモリ501から直接、あるいは補助記
憶装置502に一旦記憶された後、出力インターフェイ
ス506を介して外部の機器もしくは処理システムへ出
力され、ドライブ503を介して可搬記録媒体504に
記録され、あるいは、メモリ501上の形状復元プログ
ラムに渡されることにより、ディスプレイ装置507に
復元された物体形状が表示される。
【0066】
【発明の効果】以上の説明から明らかなように、本発明
によれば、デジタルビデオカメラなどで撮影された画像
系列から、物体形状とカメラ・パラメータを推定するこ
とができ、カメラが大きく運動する場合や、長時間に渡
って撮影された動画像において、隠れて見えなくなるよ
うな特徴点が存在し、その座標値が欠測値となる場合で
も、その推定を行うことなく、効率的な処理で物体形状
とカメラ・パラメータを推定でき、しかも、特徴点の座
標値に、その信頼度に応じた重みを設定し、それを用い
て推定演算において特徴点の座標値に重み付けするた
め、欠測値があっても高い精度で物体形状を推定可能で
ある、等々の効果を得られる。
【図面の簡単な説明】
【図1】アフィン・カメラモデルの説明のための図であ
る。
【図2】本発明による三次元データ入力システムのブロ
ック図である。
【図3】三次元データ入力システムの全体的処理フロー
を示すフローチャートである。
【図4】反復推定処理の内容を示すフローチャートであ
る。
【図5】初期値設定処理の内容を示すフローチャートで
ある。
【図6】特徴点追跡データと重みデータを説明するため
の図である。
【図7】本発明をソフトウエアにより実現するために用
いられるコンピュータの構成例を示すブロック図であ
る。
【符号の説明】
100 画像入力部 101 フレームメモリ 102 特徴点抽出・追跡部 103 ワークメモリ 104 重み設定部 105 反復推定演算部

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 画像系列に対し特徴点の追跡を行うこと
    により得られた各画像フレーム上での各特徴点の座標値
    から、物体形状とカメラ・パラメータを推定する方法で
    あって、 各画像フレーム上での各特徴点の座標値に対し、その信
    頼度に応じた重みを設定する第1のステップと、アフィ
    ン・カメラモデルを仮定し、各画像フレーム上での各特
    徴点の座標値及び該第1ステップで設定された重みを用
    いて、物体形状を固定した条件下でカメラ・パラメータ
    を最小二乗法で推定し、次に、カメラ・パラメータを固
    定した条件下で物体形状を最小二乗法で推定する2段階
    からなる反復推定処理を、物体形状及びカメラ・パラメ
    ータが収束するまで繰り返す第2のステップとを含むこ
    とを特徴とする物体形状及びカメラ・パラメータの推定
    方法。
  2. 【請求項2】 画像フレームの中心からの距離の単調減
    少関数に従った重みが設定され、欠測値となった座標値
    に対する重みは0に設定されることを特徴とする請求項
    1記載の物体形状及びカメラ・パラメータの推定方法。
  3. 【請求項3】 画像系列を入力する第1手段と、該第1
    手段により入力された画像系列に対し特徴点の追跡を行
    って各画像フレーム上の各特徴点の座標値を求める第2
    手段と、該第2手段により求められた各座標値に対し、
    その信頼度に応じた重みを設定する第3手段と、アフィ
    ン・カメラモデルを仮定し、該第2手段により得られた
    座標値及び該第3手段により設定された重みを用いて、
    物体形状を固定した条件下でカメラ・パラメータを最小
    二乗法で推定し、次に、カメラ・パラメータを固定した
    条件下で物体形状を最小二乗法で推定する2段階からな
    る反復推定処理を、物体形状及びカメラ・パラメータが
    収束するまで繰り返す第4手段と、該第4手段により推
    定された物体形状及びカメラ・パラメータを外部へ出力
    する第5手段とを具備する三次元データ入力装置。
  4. 【請求項4】 該第3手段は、欠測値でない座標値に対
    しては画像フレームの中心からの距離の単調減少関数に
    従った重みを設定し、欠測値となった座標値に対しては
    重みを0に設定することを特徴とする請求項3記載の三
    次元データ入力装置。
  5. 【請求項5】 画像系列に対し特徴点の追跡を行うこと
    により各画像フレーム上での各特徴点の座標値を得る第
    1のステップ、該第1のステップで得られた座標値に対
    し、その信頼度に応じた重みを設定する第2のステッ
    プ、及び、アフィン・カメラモデルを仮定し、該第1の
    ステップで得られた座標値及び該第2ステップで設定さ
    れた重みを用いて、物体形状を固定した条件下でカメラ
    ・パラメータを最小二乗法で推定し、次に、カメラ・パ
    ラメータを固定した条件下で物体形状を最小二乗法で推
    定する2段階からなる反復推定処理を、物体形状及びカ
    メラ・パラメータが収束するまで繰り返す第3のステッ
    プをコンピュータに実行させるプログラムが記録された
    ことを特徴とするコンピュータ読み取り可能な記録媒
    体。
  6. 【請求項6】 画像系列に対し特徴点の追跡を行うこと
    により各画像フレーム上での各特徴点の座標値を得る第
    1のステップ、該第1のステップで得られた座標値に対
    し、画像フレームの中心点からの距離の単調減少関数に
    従った重みを設定し、欠測値となった座標値に対しては
    重みを0に設定する第2ステップ、及び、アフィン・カ
    メラモデルを仮定し、該第1のステップで得られた座標
    値及び該第2ステップで設定された重みを用いて、物体
    形状を固定した条件下でカメラ・パラメータを最小二乗
    法で推定し、次に、カメラ・パラメータを固定した条件
    下で物体形状を最小二乗法で推定する2段階からなる反
    復推定処理を、物体形状及びカメラ・パラメータが収束
    するまで繰り返す第3のステップをコンピュータに実行
    させるプログラムが記録されたことを特徴とするコンピ
    ュータ読み取り可能な記録媒体。
JP10167352A 1998-06-15 1998-06-15 物体形状及びカメラ・パラメータの推定方法、三次元データ入力装置、並びに、記録媒体 Pending JP2000003447A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10167352A JP2000003447A (ja) 1998-06-15 1998-06-15 物体形状及びカメラ・パラメータの推定方法、三次元データ入力装置、並びに、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10167352A JP2000003447A (ja) 1998-06-15 1998-06-15 物体形状及びカメラ・パラメータの推定方法、三次元データ入力装置、並びに、記録媒体

Publications (1)

Publication Number Publication Date
JP2000003447A true JP2000003447A (ja) 2000-01-07

Family

ID=15848142

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10167352A Pending JP2000003447A (ja) 1998-06-15 1998-06-15 物体形状及びカメラ・パラメータの推定方法、三次元データ入力装置、並びに、記録媒体

Country Status (1)

Country Link
JP (1) JP2000003447A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011105616A1 (en) * 2010-02-26 2011-09-01 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium
JP2014112887A (ja) * 2014-01-07 2014-06-19 Canon Inc 頭部装着型表示装置、仮想画像生成装置およびそれらを有するシステム、並びに制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011105616A1 (en) * 2010-02-26 2011-09-01 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium
JP2011179908A (ja) * 2010-02-26 2011-09-15 Canon Inc 3次元計測装置、その処理方法及びプログラム
US9355453B2 (en) 2010-02-26 2016-05-31 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, model generation apparatus, processing method thereof, and non-transitory computer-readable storage medium
JP2014112887A (ja) * 2014-01-07 2014-06-19 Canon Inc 頭部装着型表示装置、仮想画像生成装置およびそれらを有するシステム、並びに制御方法

Similar Documents

Publication Publication Date Title
Torresani et al. Tracking and modeling non-rigid objects with rank constraints
CN111462207A (zh) 一种融合直接法与特征法的rgb-d同时定位与地图创建方法
US11037325B2 (en) Information processing apparatus and method of controlling the same
US8363902B2 (en) Moving object detection method and moving object detection apparatus
KR20140033868A (ko) 증강현실 응용을 위한 환경 모델링 방법 및 장치
US20180005039A1 (en) Method and apparatus for generating an initial superpixel label map for an image
JP2018113021A (ja) 情報処理装置およびその制御方法、プログラム
JP4086422B2 (ja) 被写体認識装置
Koujan et al. DeepFaceFlow: in-the-wild dense 3D facial motion estimation
Dornaika et al. Fitting 3D face models for tracking and active appearance model training
JP2007271408A (ja) 三次元環境情報取得装置,三次元環境情報取得方法及びその方法を実現したプログラムを格納した記録媒体
Zhang et al. 3D head tracking under partial occlusion
Al Ismaeil et al. Real-time enhancement of dynamic depth videos with non-rigid deformations
Banno et al. Shape recovery of 3D data obtained from a moving range sensor by using image sequences
JP2002032743A (ja) 3次元画像生成システムおよび3次元画像生成方法、並びにプログラム提供媒体
Ni et al. A hybrid framework for 3-D human motion tracking
CN112085842A (zh) 深度值确定方法及装置、电子设备和存储介质
JP2019507934A (ja) 3次元運動評価装置、3次元運動評価方法、及びプログラム
JP2000003446A (ja) 欠測値推定方法、三次元データ入力装置、及び、記録媒体
Xu et al. Optical flow-based video completion in spherical image sequences
JP2000003447A (ja) 物体形状及びカメラ・パラメータの推定方法、三次元データ入力装置、並びに、記録媒体
JP2002032742A (ja) 3次元画像生成システムおよび3次元画像生成方法、並びにプログラム提供媒体
JP2009048305A (ja) 形状解析プログラム及び形状解析装置
JP2002008014A (ja) 3次元形状抽出方法及び装置並びに記録媒体
Cordea et al. 3D head pose recovery for interactive virtual reality avatars