JP5366258B2 - 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム - Google Patents

大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム Download PDF

Info

Publication number
JP5366258B2
JP5366258B2 JP2010032136A JP2010032136A JP5366258B2 JP 5366258 B2 JP5366258 B2 JP 5366258B2 JP 2010032136 A JP2010032136 A JP 2010032136A JP 2010032136 A JP2010032136 A JP 2010032136A JP 5366258 B2 JP5366258 B2 JP 5366258B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
coordinates
area
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010032136A
Other languages
English (en)
Other versions
JP2011170487A (ja
Inventor
浩嗣 三功
整 内藤
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2010032136A priority Critical patent/JP5366258B2/ja
Publication of JP2011170487A publication Critical patent/JP2011170487A/ja
Application granted granted Critical
Publication of JP5366258B2 publication Critical patent/JP5366258B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラ間の仮想視点画像を生成する方法およびプログラムに関するものである。より詳細には、大規模な空間で行われるイベントを撮影した多視点画像をもとに仮想視点における画像を生成する方法およびプログラムに関する。
仮想視点画像生成を生成する代表的な合成方法であるモデルベース手法は、3次元のボクセルモデルを作成することにより行われる。この方法は、空間内のユークリッド座標系とカメラ座標系との射影関係を推定するカメラの強校正を予め行う必要がある。しかしながら、大規模な空間において、カメラの強校正を正確に行うことは極めて困難である。
そのため、非特許文献1では、大規模な空間において、仮想視点画像を生成する方法として、カメラ間に成り立つ射影幾何的関係のみを用い、実カメラの中間に視点を移動させた画像を合成する手法を提案している。ここでは、画像を時間とともに位置や形状の変化する移動領域と、カメラからの距離が遠い遠景領域と、それ以外のフィールド領域の三領域に分割して、それぞれに対する合成画像を生成し、それらを重ね合わせることで仮想視点画像を生成している。
上記の移動領域は、複数の移動領域に分割して処理される。まず、隣接する2視点で得られた画像に対して背景差分・2値化を行い、全移動領域が抽出されたシルエット画像を2枚作成する。それぞれの画像に対してラベリングを行い、各移動領域に分割する。分割された各シルエット画像に対して視点間で対応付けを行い、対応のとれた各シルエットに対してエピポーラ線を投影して対応点を算出する。得られた対応点情報をもとにモーフィングを行い仮想視点での画像を合成している。
また、フィールド領域は、平面近似を行い移動領域と同様に対応点を求め、モーフィングにより仮想視点の合成画像を生成している。遠景領域は、イメージモザイキングによって連結し、パノラマ画像からその中間領域を切り出すことで視点の内挿を行っている。
稲本奈穂,斎藤英雄,「サッカーシーンにおける自由視点映像生成のための視点内挿法」 TVRSJ vol.7, no.4, 2002年
しかしながら、移動領域の合成は、視点間における人物どうしの対応付けが重要であるが、従来技術においては、人物どうしが重なるオクルージョンの影響や、背景差分時に生じるシルエット画像中のノイズ等の影響により精度が大きく低下してしまうという問題があった。
したがって、本発明は、対象フィールドの幾何的情報をもとに各カメラの射影行列を推定し、人物の位置情報を大まかに算出することで、人物領域の合成を高精度に実現する仮想視点画像生成方法およびプログラムを提供することを目的とする。
上記目的を実現するため本発明による仮想視点での画像を生成する方法は、複数の視点画像から、仮想視点での画像を生成する方法であって、前記複数の視点画像を、1つまたは複数の移動領域と背景領域に分割するステップと、前記複数の視点画像内の幾何情報をもとに、モデル座標空間を構築するステップと、視点画像毎に前記移動領域の座標を算出し、該座標から前モデル座標空間における前記移動領域の座標を算出し、該座標情報をもとに仮想視点での移動領域の画像を生成するステップと、前記背景領域の画像から、仮想視点での背景領域の画像を生成するステップと、前記生成された移動領域の画像と前記生成された背景領域の画像を合成するステップと、を含み、前記移動領域の画像を生成するステップは、視点画像毎に、該視点画像と前記モデル座標空間との間で成立する平面射影行列を算出するサブステップと、前記平面射影行列により、視点画像毎に前記移動領域の座標を前記モデル座標空間における床平面に射影するサブステップと、前記射影された座標から、前記移動領域のモデル座標空間における座標を算出するサブステップと、仮想視点において前記モデル座標空間との間で成立する空間射影行列を算出し、該空間射影行列により、前記モデル座標空間中の座標をもとに仮想視点での移動領域の画像を生成するサブステップと、を含み、前記移動領域のモデル座標空間における座標の算出は、各座標間の距離をもとに該座標をグループ化して、同一グループ内の重心を算出することを特徴とする。
また、前記仮想視点での移動領域の画像を生成するサブステップは、モデル座標空間中の移動領域ごとに、適当な大きさの長方形領域を設定し、該長方形領域の仮想視点での対応領域および実視点での対応領域を算出し、仮想視点での対応領域のテクスチャを仮想視点に近い実視点での対応領域から抽出することも好ましい。
また、前記仮想視点での対応領域および実視点での対応領域の算出は、前記仮想視点および実視点において前記モデル座標空間との間で成立する中心射影行列を算出し、該中心射影行列により、前記モデル空間中の移動領域ごとに設定された長方形領域を各仮想画像および実視点に射影することで画像領域を決定することも好ましい。
また、前記仮想視点での対応領域のテクスチャを実視点での対応領域から抽出する方法は、前記仮想視点での対応領域と前記実視点での対応領域間の平面射影行列を算出し、実視点での対応領域のテクスチャを仮想視点での対応領域に射影することも好ましい。
また、前記仮想視点での対応領域のテクスチャを実視点での対応領域から抽出する方法は、前記実視点での対応領域においてオクルージョンが生じているか否かを判定する機能を有し、生じている場合は、他の実視点での対応領域をもとに合成することも好ましい。
また、前記幾何情報は、前記視点画像内の線分の長さおよび対応点であり、前記座標空間を構築するステップは、原点を定め、前記線分の長さをもとに対応点に座標を割り当てることも好ましい。
また、前記幾何情報は、前記視点画像内の平行線であり、前記座標空間を構築するステップは、前記平行線が同一方向になるように各視点画像を回転させ、該視点画像の平行線上の点を距離をもとにグループ化して、同一グループ内の重心を対応点として、該対応点に座標を割り当てることも好ましい。
また、前記平面射影行列は、前記対応点から算出されることも好ましい。
上記目的を実現するため本発明によるコンピュータプログラムは、複数の視点画像から、仮想視点での画像を生成するためのコンピュータを、前記複数の視点画像を、1つまたは複数の移動領域と背景領域に分割する手段と、前記複数の視点画像内の幾何情報をもとに、モデル座標空間を構築する手段と、視点画像毎に前記移動領域の座標を算出し、該座標から前モデル座標空間における前記移動領域の座標を算出し、該座標情報をもとに仮想視点での移動領域の画像を生成する手段と、前記背景領域の画像から、仮想視点での背景領域の画像を生成する手段と、前記生成された移動領域の画像と前記生成された背景領域の画像を合成する手段と、して機能させ、前記移動領域の画像を生成する手段は、視点画像毎に、該視点画像と前記モデル座標空間との間で成立する平面射影行列を算出する手段と、前記平面射影行列により、視点画像毎に前記移動領域の座標を前記モデル座標空間における床平面に射影する手段と、前記射影された座標から、前記移動領域のモデル座標空間における座標を算出する手段と、仮想視点において前記モデル座標空間との間で成立する空間射影行列を算出し、該空間射影行列により、前記モデル座標空間中の座標をもとに仮想視点での移動領域の画像を生成する手段と、して機能させ、前記移動領域のモデル座標空間における座標の算出は、各座標間の距離をもとに該座標をグループ化して、同一グループ内の重心を算出することとして機能させ、仮想視点での画像を生成することを特徴とする。
本発明により,従来手法で問題となっていたオクルージョンの影響および背景差分時に生じるシルエット画像中のノイズ等の影響に対してロバストな結果を得ることができ、高精度の仮想視点画像を生成することが可能になった。
本発明による仮想視点画像を構築する方法を示すフローチャートである。 本発明による対応点の位置を決定する処理を示すフローチャートである。 フットサルコートの縦横のラインから、消失点V,V算出の例を示す。 フットサルコートの画像をフィールド平面が正面に来るように変換した画像を示す。 フットサルコートの画像内の直線上の対応点を平面にマッピングした例を示す。 フットサルコートにおける平面座標での選手位置の算出の例を示す。 フットサルコートにおける平面座標での全視点分のマッピング結果の例を示す。 視点画像および背景画像に射影された長方形領域を示す。 フットサルコートにおける視点1、視点2のカメラ画像と、該カメラ画像から生成された仮想視点画像の例を示す。
本発明を実施するための最良の実施形態について、以下では図面を用いて詳細に説明する。図1は、本発明による仮想視点画像を構築する方法を示すフローチャートである。以下、本フローチャートに基づいて説明する。
本発明は、カメラの強校正を前提としない、画像情報のみを用いた合成方式として、対象フィールドの幾何的情報をもとに、対象フィールドに座標空間を構築し、各カメラ画像の射影行列を推定し、移動領域の位置情報を算出し、仮想視点における射影行列により、移動領域の位置に移動領域の画像を作成することで、仮想視点の画像を高精度に生成する。
ステップ1:複数台のカメラにより、対象フィールドの視点画像と背景画像を複数枚取得する。なお、背景画像は、移動領域が写っていない画像である。本カメラの強校正は予め行う必要はない。また、対象フィールドの幾何的情報として、対象フィールド内の線分の長さ、対応点を予め測定しておく。少なくとも、視点画像毎に4点以上の平面座標、2点以上の空間座標が分かるように測定しておく。また、対象フィールドの幾何的情報として、視点画像内に平行線が2組以上含まれるように撮影することも可能である。平行線とは、例えば、競技コートのラインである。この場合、平行線から対応点を求める。
ステップ2:対象フィールドの視点画像を移動領域と背景領域に分割する。移動領域は、時間とともに位置や形状の変化する領域であり、対象フィールドがフットサルコートである場合、人物領域に該当する。
ステップ3:視点画像間の対応点の位置を決定し、モデル座標空間を構築し、視点画像毎に平面射影行列H、焦点距離f、中心射影行列Pを算出する。
本実施形態は、対応点を予め測定してないため、視点画像内に平行線から対応点を求める。図2は、本発明による対応点の位置を決定する処理を示すフローチャートである。以下、本フローチャートに基づいて説明する。
ステップ21:消失点から焦点距離を計算する。各カメラ視点画像中の2組の平行な2直線の交点座標から消失点V(u,v),V(u,v)を求め、
+v+f=0
から、焦点距離fを求める。図3は、フットサルコートの縦横のラインから、消失点V,V算出の例を示す。
ステップ22:フィールド正面視点へ画像を変換する。基準となる方向の平行線を定め、その消失点に対し方位角θが0°、仰角φが−90°となるように回転し、コートラインが画像上で正面に来るようにし、コートが画像内に来るように平行移動する。図4は、フットサルコートの画像をフィールド平面が正面に来るように変換した画像を示す。
上記方位角θ、仰角φは、基準となる消失点V(u,v)と、焦点距離fから
Figure 0005366258
により求まる。なお、u、vは、画像中心の座標を表している。例えば、1920×1080の画像の場合、u=960,v=540となる。
フィールド平面を正面化する変換行列Hは、
Figure 0005366258
と表される。なお、Aは視点での内部パラメータ行列である。
ステップ23:直線上の対応点を距離をもとにグループ化し、対応点の位置を決定する。視点画像毎に直線上に対応点を取り、平面にマッピングする。マッピングされた対応点は、ユークリッド距離によるグループ分けされ、グループ内の点を1つの点にまとめる。最初小さな閾値から初め、その閾値内の点を1つにまとめるが、1つにまとまらない場合がある。その場合は、閾値を徐々に大きくしていき、対応点を1つにまとめ、対応点の位置を決定する。
図5は、フットサルコートの画像内の直線上の対応点を平面にマッピングした例を示す。3本の直線上にそれぞれ7つの対応点を取った例を示している。図5a、図5b、図5c、図5dと閾値を徐々に大きくして対応点をまとめている。図5dで、直線上の対応点の位置が決定される。
上記のようにして、各視点画像に対応点の位置が決定され、この対応点を用いて、各視点画像に座標空間を構築し、平面射影行列H、焦点距離f、中心空間射影行列Pを求めることが可能になる。
平面射影行列Hは、視点画像の4つ以上の平面上の対応点、例えば、4つのコートラインの座標から算出する。焦点距離fは、視点画像の4つ以上の対応点、例えば、コートラインの頂点座標から消失点V(u,v),V(u,v)を求め、
+v+f=0
から求まる。中心射影行列Pは、視点画像の4つ以上の平面上の対応点、および2つ以上の空間上の対応点の位置と高さから算出する。
ステップ4:平面射影行列Hにより、各移動領域のモデル座標における床平面での座標を算出する。視点画像と背景画像を用意し、各色成分と色相で差分をとり、2値化し、移動領域(選手位置)を検出する。各移動領域をラベリングし、各移動領域の足元点を検出する。平面射影行列Hにより各移動領域の足元点を、床平面にマッピングする。
図6は、フットサルコートにおける平面座標での選手位置の算出の例を示す。図6aは視点画像であり、図6bは2進化した画像であり、図6cは、選手位置をL0からL8にラベリングした図であり、図6dは、足元点を平面にマッピングした画像であり、足元点は+で示されている。
ステップ5:全視点分のマッピング結果を用い、モデル座標上の移動領域位置を決定する。各視点からの足元位置のマッピング結果には、
・重なっているところは、一番手前の選手の位置しかマッピングできていない
・同じ選手のマッピングでもH行列の精度で微妙にずれている
・対応していないごみエリアを含んでいる
という状態を含んでいる。図7は、フットサルコートにおける平面座標での全視点分のマッピング結果の例を示す。ここで、図7aは、全視点分がマッピングされた画像である。例えば、矢印1で示されるところは、それぞれ同じ選手のずれている位置であるが、微妙にずれていることがわかる。
移動領域位置は、ユークリッド距離によるグループ分けにより、決定される。
・モデル座標上にマッピングされたn個の点P(x,y,0),・・・,P(x,y,0)に対し、全ての点間でのユークリッド2乗距離
ij =(x−x+(y−y (i,j=1,2,・・・,n)
を求め、
ij<閾値
である場合、点P(x,y,0)と点P(x,y,0)は同じグループに属すると判断される。逆に、
ij≧閾値
である場合、点P(x,y,0)と点P(x,y,0)は同じグループに属さないと判断される。
次に、グループ内の要素数が1の場合は、ゴミであると判断して、その点を消去する。要素数が2以上の場合は、グループ内の点の重心を求め、その点を選手の位置とする。図7bは、グループ分けにより、移動領域位置が決定された図である。矢印1で示す点は、それぞれ1つにまとめられたことがわかる。
ステップ6:モデル座標上の移動領域位置に長方形領域を設定し、各視点画像に射影する。床平面座標上の選手位置の座標を中心にして、選手エリアを想定する。選手エリアは長方形と仮定し、鉛直方向2m(20px)、幅1m(10px)を割り当て、向きは、各カメラ視点方向正面とする。カメラ位置と各移動領域との距離を求め、奥行き情報を得る。次に、中心射影行列Pを用いて、長方形領域を視点画像および背景画像に射影する。投影された長方形領域内に、選手領域(移動領域)が含まれている。図8は、視点画像および背景画像に射影された長方形領域を示す。
ステップ7:長方形領域のテクスチャを切り出す。各視点に射影された長方形領域に含まれる部分を、視点画像から切り出す。背景差分により選手領域の部分以外は取り除く。視点の向き情報とともにビルボードとして、全視点分のテクスチャを集める。
ステップ8:長方形領域の重なりを判定し、オクルージョン処理を行う。カメラ位置に対して、フィールド平面上での各選手位置とのユークリッド距離を求める。このユークリッド距離を元に重なり順をもとめる。各視点画像において長方形領域の全ての組に対して、重なり判定を行なう。他の長方形領域と重なっていてかつ手前にある場合、抜き出したテクスチャ領域に対して次の処理を行なう。
・隣の視点でオクルージョンを起こしていない場合:隣の視点の背景領域を、オクルージョンしている視点に射影する。射影した背景領域を用いて人物領域のテクスチャを抜き出す。
・隣の視点でもオクルージョンを起こしている場合:この場合、抜き出したテクスチャをそのまま利用する。
ステップ9:2視点のカメラパラメータ行列と、内挿比αを用いて、仮想視点cでの空間射影行列Pを算出する。仮想視点cでの空間射影行列Pは、以下のように求められる。
・視点1、視点2の内部パラメータ行列A,Aから仮想視点cでの内部パラメータ行列Aを求める。内部パラメータ行列A,Aは、
Figure 0005366258
と表せる。ここで、fA1,fA2は、視点1、2における焦点距離fであり、xA1,xA2は、画像の縦の長さであり、yA1,yA2は、画像の横の長さである。
画像中心は不変であり、仮想視点cでの焦点距離は視点1と2での焦点距離と内挿比αを用いて、次のように表せる。
Ac=(1−α)fA1+αfA2
このfAcを用いて、仮想視点cでの内部パラメータ行列Aは、
Figure 0005366258
と表せる。
・視点1、視点2の回転行列R,Rから仮想視点cでの回転行列Rを求める。回転行列R,Rに対して、方位角θ、仰角φ、チルト角τに分解する(ただし、本実施形態では水平線に対して傾いていることは想定しないのでτ=0とする)。回転行列R,Rの方位角θ,θ、仰角φ,φ、すると、仮想視点cの方位角θ、φは、
θ=(1−α)θ+αθ
φ=(1−α)φ+αφ
と表せる。このθ、φとを組み合わせて、Rが求まる。
・視点1、視点2の並進ベクトルT,Tから仮想視点cでの並進ベクトルTを求める。視点1、視点2、仮想視点cのモデル座標上での位置を、それぞれ
Figure 0005366258
とすると、
Figure 0005366258
であるため、仮想視点cのモデル座標上での位置は、
Figure 0005366258
と表せる。並進ベクトルTは、
Figure 0005366258
より求めることができる。
・空間射影行列Pは、A、R、Tから、
=A[R|T
で求められる。ここで、[R|T]は、3×3の行列Rと1×3のベクトルTを、あわせた3×4の行列である。Aとこの行列の積により、空間射影行列Pが求まる。
ステップ10:モデル座標上の移動領域位置に長方形領域を設定し、仮想視点に射影する。床平面座標上の選手位置の座標を中心にして、選手エリアを想定する。選手エリアは長方形と仮定し、鉛直方向2m(20px)、幅1m(10px)を割り当て、向きは、各カメラ視点方向正面とする。カメラ位置と各移動領域との距離を求め、奥行き情報を得る。次に、空間射影行列Pを用いて、長方形領域を仮想視点に射影する。
ステップ11:ビルボードを選択し、テクスチャマッピングを行い内挿画像を合成する。各長方形領域において、仮想視点方向に最も近い向きのビルボードを選択する。ただし、選択したビルボードがオクルージョンしている場合、オクルージョンしていない最も近い向きのビルボードを選択する。選択されたビルボードのテクスチャを仮想視点の長方形領域の大きさに合わせてマッピングし内挿画像を合成する。
ステップ12:背景領域の画像から、仮想視点での背景領域の画像を生成する。仮想視点での背景領域の画像は、既存の手法により生成される。例えば、背景領域を遠景領域およびフィールド領域に分割して、非特許文献1に記載の方法により作成することができる。
ステップ13:生成された移動領域の画像と生成された背景領域の画像を合成し、仮想視点の画像を生成する。本合成も既存の手法により行われる。
次に本発明の効果を実際に生成された仮想視点での画像により示す。図9は、フットサルコートにおける視点1、視点2のカメラ画像と、該カメラ画像から生成された仮想視点画像の例を示す。図9aは、視点1のカメラ画像の例であり、図9bは、視点2のカメラ画像の例であり、図9cは、図9aと図9bから、従来技術により生成された仮想視点画像の例であり、図9dは、図9aと図9bから、本発明の方法により生成された仮想視点画像の例である。図9cおよび図9dは、視点1と視点2の中間(α=0.5)の仮想視点の画像である。なお、それぞれ元の画像は、1920×1080のフルHDの画像であるが、比較のため、一部を抽出している。
図9cおよび図9dを比較すると、図9cでは、画像間の対応がとれないため、人物の画像が除去されてしまい、映っていない場合があるが、図9dでは、削除されることがない。また、人物画像同士を比較すると、図9dの方が鮮明に写っており、画像の精度が高いことが分かる。
以上に述べた実施形態は、全て本発明を例示的に示すものであって、限定的に示すものではない、本発明は、他の種々の変形形態及び変更態様で実施できる。従って本発明の範囲は、特許請求の範囲及びその均等範囲によってのみ規定されるものである。

Claims (9)

  1. 複数の視点画像から、仮想視点での画像を生成する方法であって、
    前記複数の視点画像を、1つまたは複数の移動領域と背景領域に分割するステップと、
    前記複数の視点画像内の幾何情報をもとに、モデル座標空間を構築するステップと、
    視点画像毎に前記移動領域の座標を算出し、該座標から前モデル座標空間における前記移動領域の座標を算出し、該座標情報をもとに仮想視点での移動領域の画像を生成するステップと、
    前記背景領域の画像から、仮想視点での背景領域の画像を生成するステップと、
    前記生成された移動領域の画像と前記生成された背景領域の画像を合成するステップと、を含み、
    前記移動領域の画像を生成するステップは、
    視点画像毎に、該視点画像と前記モデル座標空間との間で成立する平面射影行列を算出するサブステップと、
    前記平面射影行列により、視点画像毎に前記移動領域の座標を前記モデル座標空間における床平面に射影するサブステップと、
    前記射影された座標から、前記移動領域のモデル座標空間における座標を算出するサブステップと、
    仮想視点において前記モデル座標空間との間で成立する空間射影行列を算出し、該空間射影行列により、前記モデル座標空間中の座標をもとに仮想視点での移動領域の画像を生成するサブステップと、を含み、
    前記移動領域のモデル座標空間における座標の算出は、各座標間の距離をもとに該座標をグループ化して、同一グループ内の重心を算出することを特徴とする仮想視点での画像を生成する方法。
  2. 前記仮想視点での移動領域の画像を生成するサブステップは、モデル座標空間中の移動領域ごとに、適当な大きさの長方形領域を設定し、該長方形領域の仮想視点での対応領域および実視点での対応領域を算出し、仮想視点での対応領域のテクスチャを仮想視点に近い実視点での対応領域から抽出することを特徴とする請求項に記載の仮想視点での画像を生成する方法。
  3. 前記仮想視点での対応領域および実視点での対応領域の算出は、前記仮想視点および実視点において前記モデル座標空間との間で成立する中心射影行列を算出し、該中心射影行列により、前記モデル空間中の移動領域ごとに設定された長方形領域を各仮想画像および実視点に射影することで画像領域を決定することを特徴とする請求項に記載の仮想視点での画像を生成する方法。
  4. 前記仮想視点での対応領域のテクスチャを実視点での対応領域から抽出する方法は、前記仮想視点での対応領域と前記実視点での対応領域間の平面射影行列を算出し、実視点での対応領域のテクスチャを仮想視点での対応領域に射影することを特徴とする請求項またはに記載の仮想視点での画像を生成する方法。
  5. 前記仮想視点での対応領域のテクスチャを実視点での対応領域から抽出する方法は、前記実視点での対応領域においてオクルージョンが生じているか否かを判定する機能を有し、生じている場合は、他の実視点での対応領域をもとに合成することを特徴とする請求項からのいずれか1項に記載の仮想視点での画像を生成する方法。
  6. 前記幾何情報は、前記視点画像内の線分の長さおよび対応点であり、
    前記座標空間を構築するステップは、原点を定め、前記線分の長さをもとに対応点に座標を割り当てることを特徴とする請求項1からのいずれか1項に記載の仮想視点での画像を生成する方法。
  7. 前記幾何情報は、前記視点画像内の平行線であり、
    前記座標空間を構築するステップは、前記平行線が同一方向になるように各視点画像を回転させ、該視点画像の平行線上の点を距離をもとにグループ化して、同一グループ内の重心を対応点として、該対応点に座標を割り当てることを特徴とする請求項1からのいずれか1項に記載の仮想視点での画像を生成する方法。
  8. 前記平面射影行列は、前記対応点から算出されることを特徴とする請求項またはに記載の仮想視点での画像を生成する方法。
  9. 複数の視点画像から、仮想視点での画像を生成するためのコンピュータを、
    前記複数の視点画像を、1つまたは複数の移動領域と背景領域に分割する手段と、
    前記複数の視点画像内の幾何情報をもとに、モデル座標空間を構築する手段と、
    視点画像毎に前記移動領域の座標を算出し、該座標から前モデル座標空間における前記移動領域の座標を算出し、該座標情報をもとに仮想視点での移動領域の画像を生成する手段と、
    前記背景領域の画像から、仮想視点での背景領域の画像を生成する手段と、
    前記生成された移動領域の画像と前記生成された背景領域の画像を合成する手段と、して機能させ、
    前記移動領域の画像を生成する手段は、
    視点画像毎に、該視点画像と前記モデル座標空間との間で成立する平面射影行列を算出する手段と、
    前記平面射影行列により、視点画像毎に前記移動領域の座標を前記モデル座標空間における床平面に射影する手段と、
    前記射影された座標から、前記移動領域のモデル座標空間における座標を算出する手段と、
    仮想視点において前記モデル座標空間との間で成立する空間射影行列を算出し、該空間射影行列により、前記モデル座標空間中の座標をもとに仮想視点での移動領域の画像を生成する手段と、して機能させ、
    前記移動領域のモデル座標空間における座標の算出は、各座標間の距離をもとに該座標をグループ化して、同一グループ内の重心を算出することとして機能させ、仮想視点での画像を生成することを特徴とするコンピュータプログラム。
JP2010032136A 2010-02-17 2010-02-17 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム Active JP5366258B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010032136A JP5366258B2 (ja) 2010-02-17 2010-02-17 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010032136A JP5366258B2 (ja) 2010-02-17 2010-02-17 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2011170487A JP2011170487A (ja) 2011-09-01
JP5366258B2 true JP5366258B2 (ja) 2013-12-11

Family

ID=44684572

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010032136A Active JP5366258B2 (ja) 2010-02-17 2010-02-17 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム

Country Status (1)

Country Link
JP (1) JP5366258B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5751996B2 (ja) * 2011-09-09 2015-07-22 Kddi株式会社 被写体3次元領域推定方法およびプログラム
JP6309749B2 (ja) * 2013-12-09 2018-04-11 シャープ株式会社 画像データ再生装置および画像データ生成装置
JP6501348B2 (ja) * 2014-12-26 2019-04-17 Kddi株式会社 自由視点画像生成装置、方法およびプログラム
JP6389452B2 (ja) * 2015-11-27 2018-09-12 日本電信電話株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP6555755B2 (ja) * 2016-02-29 2019-08-07 Kddi株式会社 画像処理装置、画像処理方法および画像処理プログラム
JP6882868B2 (ja) 2016-08-12 2021-06-02 キヤノン株式会社 画像処理装置、画像処理方法、システム
JP6641313B2 (ja) * 2017-01-31 2020-02-05 Kddi株式会社 領域抽出装置及びプログラム
JP2020046944A (ja) * 2018-09-19 2020-03-26 キヤノン株式会社 画像処理装置、制御方法、及びプログラム
JP7395189B2 (ja) 2018-11-22 2023-12-11 国立大学法人 東京大学 モーションキャプチャ・カメラシステム及びキャリブレーション方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene

Also Published As

Publication number Publication date
JP2011170487A (ja) 2011-09-01

Similar Documents

Publication Publication Date Title
JP5366258B2 (ja) 大空間カメラ配置における幾何情報に基づく仮想視点画像生成方法およびプログラム
JP5011168B2 (ja) 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
Franco et al. Exact polyhedral visual hulls
US8447099B2 (en) Forming 3D models using two images
US8452081B2 (en) Forming 3D models using multiple images
JP5026526B2 (ja) ライトのモデリングのための方法およびシステム
JP6201476B2 (ja) 自由視点画像撮像装置およびその方法
Stamos et al. Integration of range and image sensing for photo-realistic 3D modeling
US20130095920A1 (en) Generating free viewpoint video using stereo imaging
Vedula et al. Modeling, combining, and rendering dynamic real-world events from image sequences
EP3503030A1 (en) Method and apparatus for generating a three-dimensional model
JP6818606B2 (ja) 自由視点画像の生成表示方法、装置およびプログラム
JP2016537901A (ja) ライトフィールド処理方法
JP2012185772A (ja) 非固定ズームカメラを用いた自由視点映像の合成画質高精度化方法およびプログラム
CN110490967A (zh) 图像处理和对象建模方法与设备、图像处理装置及介质
WO2020075252A1 (ja) 情報処理装置、プログラム及び情報処理方法
JP5667846B2 (ja) 対象物画像判定装置
Starck et al. Virtual view synthesis of people from multiple view video sequences
JP4354708B2 (ja) 多視点カメラシステム
JP5373931B2 (ja) 仮想視点画像生成方法,仮想視点画像生成装置および仮想視点画像生成プログラム
Yaguchi et al. Arbitrary viewpoint video synthesis from multiple uncalibrated cameras
JP5422538B2 (ja) 画像処理装置、表示装置、方法およびそのプログラム
Grammatikopoulos et al. Automatic multi-image photo-texturing of 3d surface models obtained with laser scanning
JP2003271928A (ja) 三次元モデリング装置及びその方法及びそのプログラム
Graciá et al. A system for real-time multi-view 3d reconstruction

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120816

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130408

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20130509

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130904

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130906

R150 Certificate of patent or registration of utility model

Ref document number: 5366258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150