JP2009037301A - 局所領域分割による自由視点画像の生成方法 - Google Patents

局所領域分割による自由視点画像の生成方法 Download PDF

Info

Publication number
JP2009037301A
JP2009037301A JP2007199053A JP2007199053A JP2009037301A JP 2009037301 A JP2009037301 A JP 2009037301A JP 2007199053 A JP2007199053 A JP 2007199053A JP 2007199053 A JP2007199053 A JP 2007199053A JP 2009037301 A JP2009037301 A JP 2009037301A
Authority
JP
Japan
Prior art keywords
image
camera
virtual viewpoint
viewpoint image
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007199053A
Other languages
English (en)
Other versions
JP4947593B2 (ja
Inventor
Akio Ishikawa
彰夫 石川
Shigeyuki Sakasawa
茂之 酒澤
Atsushi Koike
淳 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2007199053A priority Critical patent/JP4947593B2/ja
Priority to US12/182,630 priority patent/US8243122B2/en
Publication of JP2009037301A publication Critical patent/JP2009037301A/ja
Application granted granted Critical
Publication of JP4947593B2 publication Critical patent/JP4947593B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Abstract

【課題】仮想視点位置がカメラを配置した平面上にない場合の仮想視点画像を生成する方法を提供する。
【解決手段】 被写体を取り囲む実空間(例えば、円周上)に、光軸が水平な複数のカメラを配置した環境において、該円周上の任意の視点の画像を生成する。また、カメラで撮影した画像を合成して、カメラの置かれていない仮想視点(高い又は低い位置からの視点)からの自由視点画像を生成する。これを実現する方法としては、局部領域合成部20で、表示位置の移動量の算出20aを行い、この移動量を局所領域の自由視点画像に反映する。また、他の方法としては、自由視点画像生成部17において、予め局所領域内の画像の読み込み位置の移動量を算出し、イメージ・ベースド・レンダリングの手法などを用いて、局所領域内の自由視点画像を生成する。
【選択図】図2

Description

本発明は、局所領域分割による自由視点画像の生成方法に関し、特に、被写体を取り囲むように、光軸が水平な複数のビデオカメラ(以下、単にカメラと呼ぶ)を配置し、該カメラにより撮影した被写体の画像を用いて自由視点画像を生成する方法に関する。
近年、画像処理技術や画像通信技術の発達に伴い、次世代の画像コンテンツとして、3次元自由視点画像が注目されている。そこで、被写体の周囲にビデオカメラを配置して撮影した多視点画像を用いて全周囲自由視点画像を生成する技術が、研究、開発されている。
この場合、任意の視点に対応するように、被写体の周りにカメラを密に配置すると、カメラの台数が多くなり、高コストとなり、現実的ではない。そこで、カメラを、被写体の周りに疎に配置することが行われるが、このようにすると、ビデオカメラ間の画像が得られなくなる。
この不具合を解決するために、従来、カメラによって撮影されない視点からの画像を、イメージ・ベースド・レンダリングを用い、画像間の画像を補間することによって生成する方法が提案されている。
多視点画像間の補間を行うイメージ・ベースド・レンダリングの代表的な方法として、「光線空間方式」があり、該光線空間方式を用いた補間画像の生成を説明する技術文献として、下記の特許文献1、2に示されているものがある。
しかしながら、被写体が実空間中に広範囲に分布していて、奥行きの違いによる視差(奥行き視差)が大きい場合には、前記従来技術によって奥行き視差を補正しようとすると、光線情報の補間処理が煩雑になり、実用的ではないという課題があった。
そこで、本出願人は、実空間を奥行き視差の無視できる小さな局所領域に分割し、それぞれの局所領域に対して個別にイメージ・ベースド・レンダリングの手法を適用して局所的な自由視点画像を生成し、それらを合成して目的の自由視点画像を生成するようにした発明を特許出願した(特願2006−185648号)。
この特許出願発明の概要を、図14を用いて簡単に説明する。被写体を取り囲む複数のカメラの一つによって撮像された被写体画像が同図(a)であり、ある局所領域の画像が同図(b)であったとすると、前記複数のカメラによって撮像された前記局所領域における各画像(同図(c))が、同図(d)に示されているように光線情報として光線空間に格納される。次いで、同図(e)に示されているように、光線情報の内挿補間が行われ、光線空間の充填がなされる。次いで、同図(f)に示されているように、光線情報の切り出しが行われ、該切り出された光線情報が同図(g)に示されているように合成され、これを被写体画像領域に戻すことにより、同図(h)に示されているような自由視点(仮想視点)画像を得る。
この特許出願発明によれば、被写体が実空間中の広範囲に分布していて奥行きの違いによる視差が大きい場合であっても、現実に近い実空間上の任意の視点の画像を生成することができるようになる。また、被写体と被写体の間の仮想視点からの画像を生成することができ、ウォークスルーを実現することができる。
特開2004−258775号公報 特開平10−111951号公報
しかしながら、前記特許出願発明では、仮想視点の位置はカメラを配置した平面上に限定されており、その平面上にない場合、例えばその平面に対して垂直に上方または下方に仮想視点を移動させた場合の自由視点画像、つまりカメラをその平面に対して垂直に移動させたと仮定した場合の自由視点画像を生成することはできなかった。
本発明は、前記した課題に鑑みてなされたものであり、その目的は、仮想視点がカメラを配置した平面上にない場合に該仮想視点からみた自由視点画像を生成することができる自由視点画像の生成方法を提供することにある。
前記した目的を達成するために、本発明は、光軸が水平な複数のカメラが、被写体を取り囲むように配置されており、該被写体を撮影した該カメラの画像を用いて、任意の視点の画像を生成する自由視点画像生成方法であって、実空間を局所領域に分割する第1のステップと、前記局所領域のそれぞれで、前記カメラのそれぞれの光軸が該局所領域を向くように、該カメラの内部パラメータを用いて、該カメラのそれぞれのカメラ座標系を変換する第2のステップと、前記局所領域のそれぞれで、前記カメラのそれぞれと被写体との距離の情報を用いて、前記画像上の該局所領域のスケールが揃うように、該画像を拡大または縮小変換する第3のステップと、前記局所領域のそれぞれで、イメージ・ベースド・レンダリングの手法などを用いて、該局所領域内のみの自由視点画像を生成する第4のステップと、前記局所領域のそれぞれで、前記自由視点画像を、画像上の該局所領域が当初のスケールとなるように、該自由視点画像を拡大または縮小変換する第5のステップと、
前記局所領域のそれぞれで、前記自由視点画像を、前記カメラのそれぞれの光軸が当初の方向を向くように、該カメラの内部パラメータを用いて、該カメラのそれぞれのカメラ座標系を変換する第6のステップと、前記局所領域のそれぞれの自由視点画像を統合する第7のステップとを有し、前記カメラの設置された平面上にない仮想視点からみた自由視点画像を生成するために、前記第7のステップにおいて仮想視点の位置に応じて最終的に合成される自由視点画像内における局所領域の仮想視点画像の位置を移動させる処理、または前記第4のステップにおいて仮想視点の位置に応じて読み取る光線の情報の位置を移動させる処理をするようにした点に特徴がある。
本発明の自由視点画像の生成方法によれば、局所領域分割により自由視点画像を生成する方法において、仮想視点を3次元的にあらゆる方向へ移動した場合であっても、その仮想視点からの画像を生成することが可能になり、より臨場感のある自由視点画像の生成が可能になる。
以下に、本発明を、図面を参照して詳細に説明する。図1は、本発明における一実施形態の被写体とビデオカメラ(以下、単にカメラと呼ぶ)との位置関係を示す概念図である。
図示されているように、撮影対象2である被写体を取り囲む実空間1の外周(例えば、円周、楕円、四角形などの多角形の外周上)に、光軸が水平な複数のカメラ3a、3b、3c、・・・、3nが疎の間隔で配置されている。この被写体2には、無視できない奥行き視差があるものとする。本発明は、該カメラ3a、3b、3c、・・・、3nで撮影した画像を合成して、カメラの置かれていない仮想視点(例えば、3X)からの自由視点画像を得ることに加えて、仮想視点位置がカメラを配置した平面上にない場合、例えば該カメラ3a、3b、3c、・・・、3nや仮想視点3Xを垂直に移動させたと仮定した場合の仮想視点位置における自由視点画像を得ようとするものである。
次に、図2のブロック図を参照して、本発明の第1実施形態の自由視点画像生成装置10の概略の構成を説明する。
まず、該自由視点画像生成装置10は、前記被写体を取り囲む実空間1(図1参照)を複数の局所領域に分割する局所領域分割部11、前記複数のカメラ3a、3b、3c、・・・、3nの位置情報や仮想視点位置情報や該カメラの内部パラメータ等を取得するカメラ位置情報・カメラパラメータ取得部12、該複数のカメラ3a、3b、3c、・・・、3nからの画像情報を取得する画像取得部13を有する。なお、前記局所領域分割部11の機能の詳細は、図4、図5を参照して後述する。
局所領域選択部14は、前記局所領域分割部11で分割された局所領域を選択する。視線回転変換部15は、該選択された局所領域の各カメラ画像を画像取得部13から得て、該局所領域の画像が画像の中央に位置するように、各カメラの画像座標系の回転座標変換を行う。拡大縮小部16は、該画像の回転変換をしただけでは、カメラから被写体までの距離が異なるという理由により、各視点で被写体の大きさが異なるものとなるため、被写体の大きさを揃えるため、各カメラの画像を拡大または縮小の処理を行う。
自由視点画像生成部17は、該局所領域の画像に、イメージ・ベースド・レンダリングの手法などを用いて、該局所領域内のみの自由視点画像を生成する。また、仮想視点位置の画像を抽出し記憶する。なお、該自由視点画像生成部17の動作の概要は、図14(d)〜(g)に示されている。
逆拡大縮小部18は、画像上の該局所領域が当初のスケールとなるように、該自由視点画像を拡大または縮小変換する。逆視線回転変換部19は、前記局所領域に対し、前記カメラのそれぞれの光軸が当初の方向を向くように、該カメラの内部パラメータを用いて、該カメラのそれぞれの座標系を変換する。該逆視線回転変換部19の機能が実行されると、再度、前記局所領域選択部14により他の局所領域が選択され、前記と同じ機能が繰り返される。
以上の動作により、全ての局所領域の仮想視点画像が得られると、局所領域合成部20は、上記の構成により得られた複数の局所領域の仮想視点の自由視点画像を合成する。この際、本実施形態では、局所領域合成部20は、自由視点画像の表示位置の移動量の算出処理20aと合成表示による画像生成処理20bを行う。該処理20a、20bの詳細な処理は後述するが、算出処理20aでは、カメラ3a、3b、3c、・・・、3nや仮想視点3Xを垂直に移動させることによる自由視点画像の表示位置の移動量を算出する。また、画像生成処理20bでは、算出処理20aで得られた大きさだけ表示位置を上または下に移動させた自由視点画像を生成し、合成する。自由視点画像出力部21は、該局所領域合成部20で合成された自由視点画像(仮想視点画像)を出力する。
次に、前記自由視点画像生成装置10の機能の概要を、図3のフローチャートを参照して説明する。
ステップS1では、全部のカメラの位置情報とカメラの内部パラメータ、例えばその焦点距離の画素変換量f、および仮想視点位置の情報を入力する。なお、各カメラは、同じ内部パラメータを有するものとする。ステップS2では、全部のカメラの画像を取得する。ステップS3では、実空間1を局所領域に分割する。ステップS4では、前記カメラの中に光軸が水平でないものがある場合には、このカメラの光軸が水平になるように画像の回転変換を行う。ステップS5では、局所領域を選択する。なお、前記ステップS4の処理は、ステップS5の後であってもよい。
ステップS6では、全カメラの光軸が、選択した局所領域を向くように、各カメラの画像座標系を回転座標変換する。換言すれば、該局所領域が画像の中央に位置するように、画像の回転変換を行う。ステップS7では、該画像上の局所領域のスケールが揃うように、各カメラの画像を拡大または縮小変換する。
ステップS8では、該局所領域の画像に、イメージ・ベースド・レンダリングの手法などを用い、補間処理を行うなどをして、該局所領域内のみの自由視点画像を生成する。この処理の詳細は、図10および図11を参照して後述する。
ステップS9では、該自由視点画像から仮想視点位置画像を抽出し、画像上の該局所領域が当初のスケールとなるように、抽出した前記仮想視点位置画像を拡大または縮小変換する。ステップS10では、全カメラの光軸が当初の方向を向くように、各カメラの画像座標系を回転座標変換する。この結果、前記選択された局所領域の仮想視点位置画像が得られる。
次に、ステップS11では、全ての局所領域の処理が終了したか否かの判断がなされ、処理されていない局所領域がある場合には、ステップS5に戻って、該処理されていない他の局所領域が選択される。以上のようにして、全ての局所領域に対する処理が終了する(ステップS11の判断が肯定)と、各局所領域の仮想視点位置画像が得られることになる。次のステップS12では、カメラを垂直方向に移動させたと仮定した場合の自由視点画像を得るために、仮想視点位置画像の表示位置をカメラの移動量に応じた大きさだけ移動させて、全ての局所領域の画像を合成する。ステップS13では、合成された画像が仮想視点位置画像として出力される。
次に、前記した自由視点画像または仮想視点位置画像の生成処理について、以下に、詳細に説明する。
まず、前記実空間1を、図4、図5に示されているように、局所領域4a、4b、4c、4d、・・・、4nに分割する。分割された各局所領域4a、4b、4c、4d、・・・、4nは、図4に示されているように、円筒の形状5が好適である。また、図示されているように、重複する領域は最小限にしつつ、撮影した舞台の全体を余す所なく覆っている必要がある。一例として、カメラが円周上に配置されている場合を考えると、各局所領域の中心の座標は、下記で表される局所領域に分割することが望ましい。
ここで、aは局所領域の半径、k、lは任意の整数、Rは中心からカメラまでの距離である。
他の例として、カメラが矩形の実空間1上に配置されている場合を考えると、各局所領域の中心の座標は、下記で表される局所領域に分割することが望ましい。
ここで、aは局所領域の半径、k、lは任意の整数、Hは被写体領域の矩形の横幅、Vは被写体領域の矩形の縦幅である。ただし、kが奇数の場合はlも奇数であり、kが偶数の場合はlも偶数となる。
また、カメラの光軸が水平でない場合は、光軸が水平になるように、画像の回転変換を次のように行う。
と置くと、以下の関係が成立する。
ここで、sはスカラーである。なお、上式は、例えば、共立出版発行の単行本「3次元ビジョン」(徐 剛、辻 三郎共著)の187頁の「2.3射影行列と外部変数」に記されているものを用いることができる。
次に、対象となる局所領域(例えば、図5の4m)を選択し、該局所領域が画像の中央(例えば図5のX,Z座標の原点)に位置するように、画像の回転変換を行う。
ここで、カメラが前記実空間の周りに、円周上または矩形上に配置されているとし、Nをカメラの台数、nをカメラのID、Rを中心から第nカメラまでの距離、Θを第nカメラの光軸の方位角とする。もし、カメラが円周上に配置されているなら、Rは一定値になる(図6)。一方、もし、カメラが矩形上に配置されているなら、R=H/(2cosΘ)またはR=V/(2cosΘ)のように表される。H、Vは、それぞれ矩形の横幅、縦幅である。
一般に、カメラの光軸の方向は、物体(および、それを含む局所領域)の方向(図6の点線矢印)と一致しない。そこで、カメラの光軸の方向を補正する。
いま、図7に示されているように、Z軸を方位角の基準線とし、θを第nカメラの光軸の補正した方位角、θを被写体4mの位置の方位角、Θを第nカメラの光軸の方位角、rを中心から被写体までの距離とし、r=r/R(Rに対する中心から被写体までの距離比の値を示す)と置くと、次式が成立する。
以上より、画像を上式から求められる角度(θ−Θ)だけ回転変換すれば、図8に示すように、局所領域4mが画像1’の中央に来ることになる。
次に、角度(θ−Θ)の回転変換を行った画像の求め方を、以下に説明する。
と置くと、以下の関係が成立する。
ここで、sはスカラーである。上記の関係式を解くと(スカラーsを消去する)、ディジタル画像座標の変換式は下式の通りになる。
上式に基づいて画像を回転変換し、被写体を画像の中央に移動させた画像を生成する。
次に、画像を回転変換しただけでは、カメラから被写体までの距離が異なるという理由により、各視点で被写体の大きさが異なってしまうことになる。そこで、画像の原点(画像の中心)を固定して拡大もしくは縮小することにより、被写体の大きさを揃える。各視点の画像内の被写体の大きさは、カメラから被写体までの距離に反比例するので、
と置くと、その拡大/縮小率は、下記の式で計算できる。
以上より、次の式が成り立つ。
上記の画像の回転変換と拡大・縮小を合成すると、下記の式になる。
次に、変換した画像を用いて、円筒記録光線空間を構築する。まず、光線空間について説明する。
図9のように、実空間が境界面Sによって「記述される空間」と「観察者の居る空間」に分割されている場合を考える。光線は、実空間内を干渉や減衰等の影響を受けずに直進するものと仮定する。図8の局所領域4mの位置に視点を置いた時の画像は、図9の境界面Sを通過して該局所領域4mまで到達する光線の情報を集めることによって仮想的に合成できる。
さらに、以下のようにして、境界面Sの形状に依存しない射影法を定式化できる。まず、光線の進行方向に軸を取ると、光線の伝搬に伴う変化はこの軸に沿って記録されることになる。この軸をR軸と表記しXYZ座標系の代わりにR軸を含む位置座標系としてPQR座標系なるものを考える。R軸に沿った光線の通過位置情報を記述できる。
具体的には、図10に示すように、X、Y、Z各軸を、Y軸を中心としてθ回転した後でZ軸だけX軸回りにφ回転したものをそれぞれ、P、Q、R軸と定義している。位置(X,Y,Z)を(θ,φ)方向に伝搬する光線の情報は、以下の変換式で求められる位置(P,Q)に記録すればよい。
P=Xcosθ−Zsinθ
Q=−Xsinθtanφ+Y−Zcosθtanφ
この変換によって、PQ平面には、空間を正投影した情報が記録されることになる。前記変換式のPおよびQを用いると、5次元光線空間f(X,Y,Z,θ,φ)は、4次元光線空間f(P,Q,θ,φ)に変換される。
画像情報は、「実空間内の1点を通過する光線情報の集合」とみなすことができる。したがって、カメラ位置(Xc,Yc,Zc)において撮影された画像情報を光線空間中に格納する場合は、式f(θ,φ)|X=Xc,Y=Yc,Z=Zcで現される領域に記録されている光線情報を切り出せばよい。このように、画像の撮影は「光線情報のサンプリング」、画像の合成は「光線空間からの光線情報の切り出し」ととらえることができる。
4次元に射影された光線空間f(P,Q,θ,φ)の場合は、カメラの撮影位置(Xc,Yc,Zc)および光線の方向(θc,φc)を上記の2つの変換式に代入して(Pc,Qc)を求め、(Pc,Qc,θc,φc)に撮影された光線情報を格納すればよい。図11に、光線空間の例を示す。便宜上、Pθ平面を示す。横軸がP軸、縦軸がθ軸である。
ある固定された1点で撮影した画像の光線情報は、上記の2つの変換式のうちの第1式で、XとZを一定とすれば明らかなように、Pθ平面上では、正弦曲線の形に格納される。図11の光線空間の合成に使用した撮影画像は、円周上に配置したカメラから中心へ向けて撮影した円周多視点画像であり、並んだ正弦曲線の領域の光線情報が得られている。
任意の仮想視点からの画像を合成する場合は、構築した光線空間からの適切な領域の光線情報を切り出せばよい。この場合の切り出し領域は、視点位置(X,Y,Z)および光線の方向(θ,φ)を前記変換式に代入して求めた(P,Q)を用いてf(P,Q,θ,φ)で表現される。
以上の手法を用いることによって、理論的には、任意視点位置からの画像を合成できる。現実には、全ての光線の情報を撮影することは困難であり、実際の撮影では、図11の左図のような疎な光線空間が構築されることになる。この図は疎に配置された30個のカメラを用いた場合の例であり、左図の横方向の30本の光線が該30個のカメラから撮影された光線に対応する。このため、撮影の行われていない光線の情報を仮想的に予測して合成する必要がある。予め、光線空間f(P,Q,θ,φ)を充填しておくことにより、この問題は解決される。
図11の左図の光線空間のPθ断面を補間した結果を、図11の右図に示す。この右図には、図11の左図に示すような疎な光線空間から、その構造性を反映した密な光線空間が得られており、この光線空間から任意の仮想視点位置に対応する光線を取り出せば、該仮想視点の光線(画像)が得られることになる。なお、光線空間のPθ断面では、似た色と輝度値の領域は正弦曲線上に並んでいる。
上記のようにして、光線空間方式を用いて補間を行った後に、仮想視点からの局所領域を見た場合の画像に対し、逆変換を施す。具体的には、下式に従う変換を行う。
ここで、Θは仮想視点の方位角、θは着目する局所領域の円筒の中心軸の方位角、Rを被写体空間の原点から仮想視点までの距離として、r=r/Rである。また、
である。
以上の変換を行った後、カメラを垂直に動かした場合の自由視点画像は、着目する被写体の中心(着目する局所領域の円筒の中心軸)から仮想視点までの視線方向に対する、カメラが配置された平面から仮想視点までの距離(カメラが配置された水平面を規準とした場合の仮想視点の高さ)の比に、カメラの焦点距離の画素変換量を乗算することで、着目する局所領域の仮想視点画像の中心の座標の移動量(ただし、移動する向きは逆になる)を得、該座標の縦方向の位置を前記移動量だけ動かして表示する。
すなわち、各々の局所領域の仮想視点画像について、着目する被写体の中心(着目する局所領域の円筒の中心軸)から仮想視点までの視線方向の距離と、カメラが配置された平面(水平面)から仮想視点までの距離(カメラが配置された水平面を規準とした場合の仮想視点の高さ)に基づいて、移動量を求める。この移動量は、次式で求められる。
(数15)
Δv=−f・y/{1−rCOS(Θ−θ)}
ここで、Δvは着目する局所領域の仮想視点画像の移動量、fはカメラの焦点距離の画素変換量、Rは被写体空間の原点から仮想視点までの距離、Yはカメラが配置された平面から仮想視点までの距離、y=Y/R、rは被写体空間の原点から着目する局所領域の円筒の中心軸までの距離、r=r/R、Θは仮想視点の方位角、θは着目する局所領域の円筒の中心軸の方位角である。
上記のことから、、各々の局所領域の仮想視点画像について、この移動量Δvは、着目する被写体の中心から仮想視点までの視線方向の距離に反比例し、カメラが配置された平面から仮想視点までの距離(カメラの垂直方向の移動距離)に比例(ただし、移動する向きは逆になる)することがわかる。
次に、最終的に合成される自由視点画面内で、着目する局所領域の仮想視点画像の中心の座標を(u,v)とした時、そのv座標をΔvだけ動かして、(u,v+Δv)としながら、仮想視点から見て奥の局所領域から手前の局所領域へと上書きしていくことにより、自由視点画像の合成を行う。なお、後から上書きされると予め判っている局所領域は、最初から描画しないことによって、処理を高速化することができる。数15の式を数13の式に含めると、下式が得られる。
次に、本発明の第2実施形態を説明する。図12は、第2実施形態の自由視点画像生成装置の構成を示すブロック図である。このブロック図において、17aは読み込み位置の移動量の算出処理、17bは読み込みによる画像生成処理を示し、他の符号は、図2と同一または同等物を示す。この第2実施形態が前記第1実施形態と異なる所は、カメラを垂直に移動させる移動量に応じて局所領域毎の表示位置を移動させる処理を、第1実施形態のように局所領域合成部20で行わずに、自由視点画像生成部17で行わせるようにした点である。
そこで、本実施形態の自由視点画像生成部17の処理について、以下に説明する。前記仮想視点の位置が前記カメラの設置された平面から離れた位置にある場合、着目する被写体の中心(着目する局所領域の円筒の中心軸)から仮想視点までの視線方向の距離に対する、カメラが配置された平面から仮想視点までの距離(カメラが配置された水平面を規準とした場合の仮想点の高さ)の比に、実空間から光線空間への変換比を乗算することで、着目する局所領域の光線空間の読み込み位置の移動量を得、局所領域の光線空間から光線情報を読み取る位置を前記移動量だけ動かして読み込む。
すまわち、各々の局所領域の仮想視点画像について、着目する被写体の中心(着目する局所領域の円筒の中心軸)から仮想視点までの視線方向の距離と、カメラが配置された平面(水平面)から仮想視点までの距離(カメラが配置された水平面を規準とした場合の仮想視点の高さ)に基づき、読み込み位置を求める。この読み込み位置は、次式で求められる。
(数17)
Q’=Q+Y/{1−rCOS(Θ−θ)}
ここで、Q’は仮想視点がカメラの配置された平面上にない場合の着目する局所領域の光線空間の読み込み位置、Qは仮想視点がカメラの配置された平面上にある場合の着目する局所領域の光線空間の読み込み位置、Yはカメラが配置された平面から仮想視点までの距離、Θは仮想視点の方位角、θは着目する局所領域の円筒の中心軸の方位角、rは被写体空間の原点から着目する局所領域の円筒の中心軸までの距離、Rを被写体空間の原点から仮想視点までの距離としてr=r/Rである。
上記のことから、各々の局所領域の仮想視点画像について、この読み込み位置は、着目する被写体の中心から仮想視点までの視線方向の距離に反比例し、カメラが配置された平面から仮想視点までの距離(カメラの垂直方向の移動距離)に比例する量だけ移動すれば良いことがわかる。
上記のようにして、光線空間方式を用いて補間を行った後に、仮想視点からの局所領域を見た場合の画像に対し、逆変換を行う(図2のステップS18,19)。具体的には、下式に従う変換を行う。
ここで、Θは仮想視点の方位角、θは着目する局所領域の円筒の中心軸の方位角、Rを被写体空間の原点から仮想視点までの距離として、r=r/Rである。
第2実施形態の上記以外の処理は、前記特許出願発明(特願2006−185648号)と同じであるので、説明を省略する。
図13は、本発明により具体的シミュレーションした結果の一例を示す図である。同図(a)はカメラが配置された当初の水平面上の画像、同図(b)はカメラを上へ120cm移動させた時の画像、同図(c)はカメラを下へ120cm移動させた時の画像を示す。同図(b)から、カメラを上へ移動した場合には、手前の画像が大きく下がり、奥へ行くほど該画像の下がり方が小さくなることが判る。また、同図(c)から、カメラを下へ移動した場合には、手前の画像は大きく上がり、奥へ行くほど該画像の上がり方が小さくなることが判る。このことは、前記数15、数17の式で表される移動量Δv、読み込み位置Q’が、着目する被写体の中心から仮想視点までの視線方向の距離に反比例することと符合する。
以上のように、本発明によれば、カメラが配置された平面上にない仮想視点からみた仮想視点画像を得ることができるので、3次元的にあらゆる方向へ移動した仮想視点からの画像を生成することが可能になる。
カメラが疎の間隔に配置された多視点映像の撮影現場の概念図である。 本発明の自由視点画像生成装置の第1実施形態の構成を示すブロック図である。 本発明の自由視点画像生成方法の第1実施形態の処理手順を示すフローチャートである。 実区間を局所領域に分割する一例の説明図である。 分割された局所領域を上から見た場合の図である。 被写体が位置する局所領域がその中心にない場合の、実際の位置関係(実線矢印)と視線の回転変換(点線矢印)の説明図である。 仮想円周と各方位角などの説明図である。 局所領域仮想円周の中央にくるように回転変換した場合の説明図である。 射影に基づく光線情報の記述の説明図である。 円筒型光線空間座標系の定義の説明図である。 光線空間の補間処理の具体例を示す図である。 本発明の自由視点画像生成装置の第2実施形態の構成を示すブロック図である。 自由視点画像の生成結果と実視点画像の具体例を示す図である。 特許出願発明の自由視点画像生成方法の概略の説明図である。
符号の説明
1・・・実空間(舞台)、2・・・被写体、3a、3b、・・・、3n・・・ビデオカメラ(カメラ)、3X・・・仮想視点、4m・・・局所領域、10・・・自由視点画像生成装置、11・・・局所領域分割部、12・・・カメラ位置情報・カメラパラメータ取得部、13・・・画像取得部、14・・・局所領域選択部、15・・・視線回転変換部、16・・・拡大縮小部、17・・・自由視点画像生成部、17a・・・読み込み位置の移動量の算出処理、17b・・・読み込みによる画像生成処理、18・・・逆拡大縮小部、19・・・逆視線回転変換部、20・・・局所領域合成部、20a・・・表示位置の移動量の算出処理、20b・・・合成表示による画像生成処理、21・・・自由視点画像出力部、31・・・カメラ画像入力装置、32・・・入力装置、33・・・ROM(自由視点画像生成プログラム)、34・・・CPU、35・・・画像データ記憶装置、36・・・画像出力装置。

Claims (3)

  1. 光軸が水平な複数のカメラが、被写体を取り囲むように配置されており、該被写体を撮影した該カメラの画像を用いて、任意の視点の画像を生成する自由視点画像生成方法であって、
    実空間を局所領域に分割する第1のステップと、
    前記局所領域のそれぞれで、前記カメラのそれぞれの光軸が該局所領域を向くように、該カメラの内部パラメータを用いて、該カメラのそれぞれのカメラ座標系を変換する第2のステップと、
    前記局所領域のそれぞれで、前記カメラのそれぞれと被写体との距離の情報を用いて、前記画像上の該局所領域のスケールが揃うように、該画像を拡大または縮小変換する第3のステップと、
    前記局所領域のそれぞれで、イメージ・ベースド・レンダリングの手法などを用いて、該局所領域内のみの自由視点画像を生成する第4のステップと、
    前記局所領域のそれぞれで、前記自由視点画像を、画像上の該局所領域が当初のスケールとなるように、該自由視点画像を拡大または縮小変換する第5のステップと、
    前記局所領域のそれぞれで、前記自由視点画像を、前記カメラのそれぞれの光軸が当初の方向を向くように、該カメラの内部パラメータを用いて、該カメラのそれぞれのカメラ座標系を変換する第6のステップと、
    前記局所領域のそれぞれの自由視点画像を統合する第7のステップとを有し、
    前記カメラの設置された平面上にない仮想視点からみた自由視点画像を生成するために、前記第7のステップにおいて仮想視点の位置に応じて最終的に合成される自由視点画像内における局所領域の仮想視点画像の位置を移動させる処理、または前記第4のステップにおいて仮想視点の位置に応じて読み取る光線の情報の位置Qを移動させる処理をすることを特徴とする自由視点画像の生成方法。
  2. 請求項1に記載の自由視点画像生成方法において、
    前記第7のステップにおいて、前記仮想視点の位置が前記カメラの設置された平面から離れた位置にある場合、着目する被写体の中心である着目する局所領域の円筒の中心軸から仮想視点までの視線方向に対する、カメラが配置された平面から仮想視点までの距離であるカメラが配置された水平面を規準とした場合の仮想視点の高さの比に、カメラの焦点距離の画素変換量を乗算することで、着目する局所領域の仮想視点画像の中心の座標の移動量(ただし、移動する向きは逆になる)を得、該座標の縦方向の位置を前記移動量だけ動かして表示することを特徴とする自由視点画像の生成方法。
  3. 請求項1に記載の自由視点画像生成方法において、
    前記第4のステップにおいて、前記仮想視点の位置が前記カメラの設置された平面から離れた位置にある場合、着目する被写体の中心である着目する局所領域の円筒の中心軸から仮想視点までの視線方向の距離に対する、カメラが配置された平面から仮想視点までの距離であるカメラが配置された水平面を規準とした場合の仮想点の高さの比に、実空間から光線空間への変換比を乗算することで、着目する局所領域の光線空間の読み込み位置の移動量を得、局所領域の光線空間から光線情報を読み取る位置を前記移動量だけ動かして読み込むことを特徴とする自由視点画像の生成方法。
JP2007199053A 2007-07-31 2007-07-31 局所領域分割による自由視点画像の生成装置およびプログラム Expired - Fee Related JP4947593B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007199053A JP4947593B2 (ja) 2007-07-31 2007-07-31 局所領域分割による自由視点画像の生成装置およびプログラム
US12/182,630 US8243122B2 (en) 2007-07-31 2008-07-30 Video method for generating free viewpoint video image using divided local regions

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007199053A JP4947593B2 (ja) 2007-07-31 2007-07-31 局所領域分割による自由視点画像の生成装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2009037301A true JP2009037301A (ja) 2009-02-19
JP4947593B2 JP4947593B2 (ja) 2012-06-06

Family

ID=40337684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007199053A Expired - Fee Related JP4947593B2 (ja) 2007-07-31 2007-07-31 局所領域分割による自由視点画像の生成装置およびプログラム

Country Status (2)

Country Link
US (1) US8243122B2 (ja)
JP (1) JP4947593B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048544A (ja) * 2009-08-26 2011-03-10 Kddi Corp 3次元モデルを高速に高精度化する方法及び装置
US8634675B2 (en) 2010-08-03 2014-01-21 Samsung Electronics Co., Ltd. Apparatus and method for generating extrapolated view based on image resizing
US10462497B2 (en) 2015-05-01 2019-10-29 Dentsu Inc. Free viewpoint picture data distribution system

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4990852B2 (ja) * 2008-07-31 2012-08-01 Kddi株式会社 3次元移動の自由視点映像生成システムおよび記録媒体
JP5249114B2 (ja) * 2009-04-03 2013-07-31 Kddi株式会社 画像生成装置、方法及びプログラム
JP2011151773A (ja) * 2009-12-21 2011-08-04 Canon Inc 映像処理装置及び制御方法
EP2375746A1 (en) 2010-03-31 2011-10-12 Deutsche Telekom AG Method for encoding texture data of free viewpoint television signals, corresponding method for decoding and texture encoder and decoder
US8384770B2 (en) 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
EP2395769B1 (en) 2010-06-11 2015-03-04 Nintendo Co., Ltd. Image display program, image display system, and image display method
TW201205180A (en) * 2010-07-27 2012-02-01 Hon Hai Prec Ind Co Ltd Camera
US9020275B2 (en) * 2010-07-30 2015-04-28 Shibaura Institute Of Technology Other viewpoint closed surface image pixel value correction device, method of correcting other viewpoint closed surface image pixel value, user position information output device, method of outputting user position information
JP5739674B2 (ja) 2010-09-27 2015-06-24 任天堂株式会社 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
US8854356B2 (en) 2010-09-28 2014-10-07 Nintendo Co., Ltd. Storage medium having stored therein image processing program, image processing apparatus, image processing system, and image processing method
US20130321564A1 (en) 2012-05-31 2013-12-05 Microsoft Corporation Perspective-correct communication window with motion parallax
US9767598B2 (en) 2012-05-31 2017-09-19 Microsoft Technology Licensing, Llc Smoothing and robust normal estimation for 3D point clouds
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US8976224B2 (en) 2012-10-10 2015-03-10 Microsoft Technology Licensing, Llc Controlled three-dimensional communication endpoint
JP2014082541A (ja) * 2012-10-12 2014-05-08 National Institute Of Information & Communication Technology 互いに類似した情報を含む複数画像のデータサイズを低減する方法、プログラムおよび装置
US20140132747A1 (en) * 2012-11-15 2014-05-15 Jessica Stephanie Andrews Digital intra-oral panaramic arch camera
JP6163899B2 (ja) * 2013-06-11 2017-07-19 ソニー株式会社 情報処理装置、撮像装置、情報処理方法、及びプログラム
JP6585371B2 (ja) * 2015-04-24 2019-10-02 株式会社デンソーテン 画像処理装置、画像処理方法および車載装置
US10204444B2 (en) * 2016-04-28 2019-02-12 Verizon Patent And Licensing Inc. Methods and systems for creating and manipulating an individually-manipulable volumetric model of an object
GB2556910A (en) * 2016-11-25 2018-06-13 Nokia Technologies Oy Virtual reality display
JP6849430B2 (ja) * 2016-12-27 2021-03-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6482580B2 (ja) * 2017-02-10 2019-03-13 キヤノン株式会社 情報処理装置、情報処理方法、およびプログラム
US10818077B2 (en) * 2018-12-14 2020-10-27 Canon Kabushiki Kaisha Method, system and apparatus for controlling a virtual camera
CN113112613B (zh) * 2021-04-22 2022-03-15 贝壳找房(北京)科技有限公司 模型显示方法、装置、电子设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4803594B2 (ja) * 2006-07-05 2011-10-26 Kddi株式会社 局所領域分割による自由視点画像の生成装置およびプログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0702494B1 (en) * 1994-09-19 2001-12-05 Matsushita Electric Industrial Co., Ltd. Three-dimensional image display apparatus
US5703961A (en) * 1994-12-29 1997-12-30 Worldscape L.L.C. Image transformation and synthesis methods
US6327381B1 (en) * 1994-12-29 2001-12-04 Worldscape, Llc Image transformation and synthesis methods
JPH10111951A (ja) 1996-10-04 1998-04-28 Canon Inc 画像処理方法および装置および記憶媒体
US5990935A (en) * 1997-04-04 1999-11-23 Evans & Sutherland Computer Corporation Method for measuring camera and lens properties for camera tracking
US6118414A (en) * 1997-12-02 2000-09-12 Kintz; Gregory J. Virtual reality system and method
US6757422B1 (en) * 1998-11-12 2004-06-29 Canon Kabushiki Kaisha Viewpoint position detection apparatus and method, and stereoscopic image display system
EP1081650B1 (en) * 1999-09-02 2007-02-07 Canon Kabushiki Kaisha Progressive Display of Target Objects
WO2002045003A1 (en) * 2000-12-01 2002-06-06 Imax Corporation Techniques and systems for developing high-resolution imagery
JP3960092B2 (ja) * 2001-07-12 2007-08-15 日産自動車株式会社 車両用画像処理装置
US7940299B2 (en) * 2001-08-09 2011-05-10 Technest Holdings, Inc. Method and apparatus for an omni-directional video surveillance system
US7277121B2 (en) * 2001-08-29 2007-10-02 Sanyo Electric Co., Ltd. Stereoscopic image processing and display system
US8369607B2 (en) * 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP2004258775A (ja) 2003-02-24 2004-09-16 Canon Inc 光線空間データ処理方法、空間データ処理装置
US7636088B2 (en) * 2003-04-17 2009-12-22 Sharp Kabushiki Kaisha 3-Dimensional image creation device, 3-dimensional image reproduction device, 3-dimensional image processing device, 3-dimensional image processing program, and recording medium containing the program
US6809887B1 (en) * 2003-06-13 2004-10-26 Vision Technologies, Inc Apparatus and method for acquiring uniform-resolution panoramic images
US7675540B2 (en) * 2003-08-19 2010-03-09 Kddi Corporation Concealed regions complementing system of free viewpoint video images
US7420750B2 (en) * 2004-05-21 2008-09-02 The Trustees Of Columbia University In The City Of New York Catadioptric single camera systems having radial epipolar geometry and methods and means thereof
EP1708010A1 (en) * 2005-03-28 2006-10-04 Kabushiki Kaisha Toshiba Image display apparatus
US20070024701A1 (en) * 2005-04-07 2007-02-01 Prechtl Eric F Stereoscopic wide field of view imaging system
US7471292B2 (en) * 2005-11-15 2008-12-30 Sharp Laboratories Of America, Inc. Virtual view specification and synthesis in free viewpoint
EP1862969A1 (en) * 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
JP4435867B2 (ja) * 2008-06-02 2010-03-24 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4803594B2 (ja) * 2006-07-05 2011-10-26 Kddi株式会社 局所領域分割による自由視点画像の生成装置およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048544A (ja) * 2009-08-26 2011-03-10 Kddi Corp 3次元モデルを高速に高精度化する方法及び装置
US8634675B2 (en) 2010-08-03 2014-01-21 Samsung Electronics Co., Ltd. Apparatus and method for generating extrapolated view based on image resizing
US10462497B2 (en) 2015-05-01 2019-10-29 Dentsu Inc. Free viewpoint picture data distribution system

Also Published As

Publication number Publication date
JP4947593B2 (ja) 2012-06-06
US20090033740A1 (en) 2009-02-05
US8243122B2 (en) 2012-08-14

Similar Documents

Publication Publication Date Title
JP4947593B2 (ja) 局所領域分割による自由視点画像の生成装置およびプログラム
JP4803594B2 (ja) 局所領域分割による自由視点画像の生成装置およびプログラム
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
JP5054971B2 (ja) ディジタル3d/360度カメラシステム
US6445807B1 (en) Image processing method and apparatus
KR20100067656A (ko) 3차원 디스플레이에 대한 렌더링 개선
JP2009518877A (ja) 3次元ライトフィールドを取得し、表示するための方法およびシステム
JP5258049B2 (ja) 多視点画像生成装置、多視点画像生成方法および多視点画像生成プログラム
JP5852093B2 (ja) 映像処理装置、映像処理方法、プログラム
EP3905673A1 (en) Generation method for 3d asteroid dynamic map and portable terminal
JP5809607B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP5522794B2 (ja) 立体像生成装置およびそのプログラム
Smith et al. Cultural heritage omni-stereo panoramas for immersive cultural analytics—from the Nile to the Hijaz
EP0831423B1 (en) Image generation using a light space
Zheng et al. Scanning scene tunnel for city traversing
CN108510537B (zh) 3d建模方法和装置
EP4075789A1 (en) Imaging device, imaging method, and program
EP2962290B1 (en) Relaying 3d information by depth simulation using 2d pixel displacement
JP4925112B2 (ja) 自由視点画像の生成方法
JPH11265440A (ja) 任意光源位置の画像合成方法および表示装置
JPH09237346A (ja) 部分立体モデルの合成方法及び完全立体モデルの作成方法
JP6768431B2 (ja) 画像生成装置及びプログラム
EP1492054B1 (en) Method and apparatus for capturing and displaying a three-dimensional scene
JP3648099B2 (ja) 画像合成表示方法および装置ならびに画像合成表示プログラムを記録した記録媒体
JPH09261537A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120208

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120229

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150316

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees