JP2009151747A - 自由視点映像生成方法および記録媒体 - Google Patents

自由視点映像生成方法および記録媒体 Download PDF

Info

Publication number
JP2009151747A
JP2009151747A JP2008197857A JP2008197857A JP2009151747A JP 2009151747 A JP2009151747 A JP 2009151747A JP 2008197857 A JP2008197857 A JP 2008197857A JP 2008197857 A JP2008197857 A JP 2008197857A JP 2009151747 A JP2009151747 A JP 2009151747A
Authority
JP
Japan
Prior art keywords
information
space
ray
parallax
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008197857A
Other languages
English (en)
Other versions
JP4999010B2 (ja
Inventor
Akio Ishikawa
彰夫 石川
Shigeyuki Sakasawa
茂之 酒澤
Atsushi Koike
淳 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2008197857A priority Critical patent/JP4999010B2/ja
Publication of JP2009151747A publication Critical patent/JP2009151747A/ja
Application granted granted Critical
Publication of JP4999010B2 publication Critical patent/JP4999010B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

【課題】縦方向の視差の情報を記録していなくても、縦方向の視差の情報を推定して再現できる自由視点映像生成方法および記録媒体を提供する。
【解決手段】ステップS1で撮影した多視点映像の光線情報を光線空間中の対応する位置に記録し、ステップS2では、該光線空間中の各点に奥行きの情報を記録した奥行きマップあるいは横方向の視差の情報を記録した光線空間対応表を作成する。ステップS3では、該奥行きマップあるいは光線空間対応表を記憶手段に記憶し、ステップS4では、該奥行きマップあるいは光線空間対応表に記録されている奥行き情報あるいは横方向の視差の情報を基に、該光線空間中の各点の画素値を算出する。ステップS5では、該奥行きの情報あるいは横方向の視差の情報を基に縦方向の視差を再現する。
【選択図】図2

Description

本発明は自由視点映像生成方法および記録媒体に関し、特に、3次元映像データに対するポインタ参照処理により、操作者の動きに応じて実時間で、任意の視点位置における映像を生成して表示する自由視点映像生成方法および記録媒体に関するものである。
従来、複数の視点位置で撮像された実写映像群を用いて、任意の視点位置における映像を生成・表示する場合、該実写映像群のデータをメモリ上に読み込んでおき、各映像データは3次元空間中を飛来する光線の集合であると考える光線空間の概念に基づいて、各画素の輝度値を計算して、任意の視点位置の映像を生成する方法が提案されている。
ここで、光線空間の概念について説明する。3次元空間内には、光源や物体の反射光により光線が発せられている。3次元空間内のある1点を横切る光線は、その位置(X,Y,Z)と方向(θ,φ)と時刻tを表す6個の変数により一意に定められる。この光線の光強度を表す関数をFと定義すると、3次元空間内の光線群データはF(X,Y,Z,θ,φ,t)と表され、3次元空間内の光線群は6次元のパラメータ空間として記述される。このパラメータ空間が光線空間と呼ばれている。
最初に、平面記録光線空間を用いる場合を、図6を参照して説明する。
いま、ある時間t=0においてZ=Zcという平面を通過する光線群に着目する。この面を基準面と呼び、この基準面上に2次元座標系(P,Q)を定義する。ここで、2次元座標系(P,Q)はZ軸との交点を原点として、P軸はX軸に平行に、Q軸はY軸に平行にとる。Y軸に垂直な水平面(XZ平面)を考え、上下方向の視差を考慮しないことにすると(Y=0,φ=0)、実空間は図6に示すようになる。基準面から発せられる光線群は、位置Pと角度θの2変数でF(P,θ)と記述される。従って、実空間中のある1点(Xc,Zc)を通過する光線群には、次の関係が成り立つ。
P=Xc―(Zc)tanθ (1)
ここで、u=tanθという変数を定義すると、式(1)は、次のようになる。
P=Xc―uZc (2)
従って、平面記録光線空間上では、実空間内の1本の光線が1点として写像され、そこに光強度すなわち色情報が記録される。また、式(2)から、実空間内のある1点を通過する光線群は、P−u空間上で直線に写像されることがわかる。
図7には、実空間内の(Xc,Zc)の視点位置で観察された光線がP−u空間に写像された様子を示す。なお、P−u空間は、前に述べた5次元の光線空間の部分空間をなすものである。以上のことは、下記の特許文献1,2にも示されている。
次に、円筒記録光線空間を用いる場合を、図8を参照して説明する。なお、円筒記録光線空間については、本出願人による特許出願(特願2006−185648号)に開示されている。
いま、ある時間t=0においてθ=θcの方位角に伝播する光線群に着目する。Y軸を通りこの光線群の伝播する方向に垂直な面を基準面と呼び、この基準面上に2次元座標系(P,Q)を定義する。ここで、2次元座標系(P,Q)は世界座標系の原点を原点として、Q軸はY軸に平行に、P軸は光線群の伝播する方向とQ軸の両方に対して垂直にとる。Y軸に垂直な水平面(XZ平面)を考え、上下方向の視差を考慮しないことにすると(Y=0,φ=0)、実空間は図8に示すようになる。基準面に対して垂直な方向に伝播する光線群は、位置Pと角度θの2変数でF(P,θ)と記述される。従って、実空間中のある1点(Xc,Zc)を通過する光線群には、次の関係が成り立つ。
P=(Xc)cosθ―(Zc)sinθ (3)
従って、円筒記録光線空間上では、実空間内の1本の光線が1点として写像され、そこに光強度すなわち色情報が記録される。また、式(3)から、実空間内のある1点を通過する光線群は、P−θ空間上で正弦曲線に写像されることがわかる。
図9には、実空間内の(Xc,Zc)の視点位置で観察された光線がP−θ空間に写像された様子を示す。なお、P−θ空間は、前に述べた5次元の光線空間の部分空間をなすものである。
この光線空間から任意の視点位置の画像を精度よく再構成するためには、本来はQ軸方向すなわち、上下方向の次元も必要である。しかし、その場合、光線空間データは少なくともP−Q−θ−φという4次元空間を形成しなければならず、非常に大きなデータ量を持つことになる。そこで、今までは、光線空間の部分空間であるP−θ空間(P−u空間)のみを考えていた。またさらに、光線空間の座標全体に色情報を持たせることは、非常に冗長であると考えられる。なぜなら、たとえP−θ空間(P−u空間)だけを考えるとしても、画像を再構成するためにはQ軸方向の画素情報が必要となるため、光線空間は3次元となり、そこに各光線の光強度を記録しなければならないからである。そこで、再構成する画像の全ての画素について光線空間演算を行い、メモリ上に読み込んだ多視点画像(複数の異なる視点位置から撮像した画像)から輝度値を得る方法があった。なお、光線空間演算とは、多視点画像を元に任意の視点位置の画像を再構成するために、P−θ空間(P−u空間)で式(2)および式(3)に基づいて行う計算のことである。
上記従来例では、操作者の動きに応じてリアルタイムに、任意の視点位置における画像を生成・表示するためには、高速な光線空間演算を行わなければならない。その演算を行うためには、多視点画像にランダムにアクセスし、画素データを読み込む操作を行わなければならない。すなわち、多視点画像への高速なランダムアクセスが要求される。そこで上記の例では、P−θ空間(P−u空間)と多視点画像を演算前にメモリ上に読み込んでおく、という手法をとっていた。
このように、今までは、任意の視点位置の画像を生成・表示する際に、同じ光線空間演算を何度も繰り返す必要があり、さらに、非常に大きなワークメモリ容量を使用する必要があった。画素データを得るための計算回数が多いということは、リアルタイムな動きを損なう原因となってしまう。
任意の視点位置の画像を生成・表示する処理速度を落とさずに、使用するワークメモリ容量を削減するために、複数の視点位置で撮像した画像を入力し、この入力された多視点画像に基づいて、光線空間とこの多視点画像の座標とを対応付けた光線空間対応表を作成し、多視点画像に基づいて、光線空間データを生成し、観察者の視点位置と視線方向を検出し、この検出された観察者の視点位置と視線方向及び画像出力のためのパラメータから光線空間上の曲線を導出し、この導出された曲線と作成された光線空間対応表とに従って、多視点画像へのポインタを辿ることによって画素を抽出して画像を生成し、生成された画像を出力することが、下記の特許文献1に示されている。
ここで、作成する対応表は、光線空間の部分空間であるP−θ空間(P−u空間)において、抽出したい画素(参照元の点)毎に、この画素のP座標とこれが辿る先の画素(参照先の点)の多視点画像がP−θ空間(P−u空間)に格納された際のP座標との差(視差値)を記録した対応表を作成している。
特開平10−111951号公報 特開2004−258775号公報
しかしながら、上記従来例では、P−θ空間(P−u空間)はP軸方向(横方向)の視差だけを考えたものであるから、Q軸方向(縦方向)については正確な視差が再現できず、視点を縦移動する際も近似的な映像しか生成できなかった。その結果、画像上の、異なる局所領域の境界に相当する位置に縦方向の段差が現れる課題が生じていた。
本発明の目的は、前記した課題を解決し、任意の視点位置の画像を生成して表示する際に、縦方向の視差の情報を記録していなくても、縦方向の視差の情報を推定して再現できる自由視点映像生成方法および記録媒体を提供することにある。
前記した目的を達成するために、本発明は、実際に撮影した多視点映像を元にして光線空間を用いて自由視点映像を生成する自由視点映像生成方法において、実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する工程と、該光線空間中の各点に奥行きの情報を記録した奥行きマップあるいは横方向の視差の情報を記録した光線空間対応表を作成する工程と、該光線空間対応表を記憶手段に記憶する工程と、該光線空間対応表に記録されている前記奥行きの情報あるいは横方向の視差の情報を基に、該光線空間中の各点の画素値を算出する工程と、該光線空間対応表に記録されている前記横方向の視差の情報あるいは該奥行きマップに記録されている前記奥行きの情報を基に縦方向の視差を再現する工程とを具備し、前記光線空間対応表あるいは前記奥行きマップに縦方向の視差の情報を記録しなくても縦方向の視差を再現できるようにした点に第1の特徴がある。
また、前記光線空間中の各点に奥行きの情報を記録した奥行きマップあるいは横方向の視差の情報を記録した光線空間対応表を作成する工程に代えて、光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、奥行きの情報も併せて記録した奥行きマップあるいは横方向の視差の情報も併せて記録した光線空間対応表を作成する工程を設けた点に第2の特徴がある。
また、コンピュータに、実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手順と、該光線空間中の各点に奥行きの情報を記録した奥行きマップあるいは横方向の視差の情報を記録した光線空間対応表を作成する手順と、該奥行きマップあるいは該光線空間対応表を記憶手段に記憶させる手順と、該光線空間対応表に記録されている前記横方向の視差の情報あるいは該奥行きマップに記録されている前記奥行きの情報を基に、該光線空間中の各点の画素値を算出する手順と、該光線空間対応表に記録されている前記横方向の視差の情報あるいは該奥行きマップに記録されている前記奥行きの情報を基に縦方向の視差を再現する手順とを実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体を提供する点に第3の特徴がある。
さらに、前記記録媒体において、前記光線空間中の各点に奥行きの情報を記録した奥行きマップあるいは横方向の視差の情報を記録した光線空間対応表を作成する手順に代えて、光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、奥行きの情報も併せて記録した奥行きマップあるいは横方向の視差の情報も併せて記録した光線空間対応表を作成する手順を設けた点に第4の特徴がある。
本発明によれば、任意の視点位置の画像を生成して表示する際に、縦方向の視差の情報を記録していなくても、縦方向の視差の情報を推定して再現することができる。図12に、従来手法により得られた自由視点映像と、本発明手法により得られた自由視点映像とを示す。図12の右側2枚の上下の映像から、従来手法では、映像中に縦方向の段差が生じていたのに対して、本発明手法では、縦方向の段差がない品質の良い映像が再現されていることが判る。
このことにより、縦方向の視差の情報が無くても高精度な自由視点映像を生成することができるようになり、局所領域分割型光線空間法においても従来手法では存在した局所領域間の段差がなくなる。したがって、同程度の精度の自由視点映像を生成する際にも、本発明手法を用いた場合の方が必要となるワークメモリおよびディスクの容量が小さくなり、高速な伝送が可能になる。
また、任意の視点位置の画像を生成して表示する際に、縦方向の視差の情報を記録していなくても、縦方向の視差の情報を推定して再現することができるプログラムを記録したコンピュータ読み取り可能な記録媒体を提供することができる。
以下に、図面を参照して、本発明の一実施形態を説明する。図1に、複数の視点位置で撮像された実写画像群から任意の視点位置における画像を生成・表示する装置の一実施形態の概略ブロック図を示す。
図1において、多視点画像入力装置101は、該実写画像群を撮像するためのものであり、1台のカメラをずらすことによって多数枚の画像を撮像してもよいし、また複数台のカメラをセットすることで多数枚の画像を撮像してもよい。あるいは、多視点画像データベースに保持されている画像データを入力データとして読み込んでもよい。
MPU102は記憶装置103に記憶されている処理手順に従って処理を行う。該記憶装置103には多視点で撮像した画像データや多視点画像から生成された光線空間、MPU102の処理手順を示したプログラムを記憶しておく。光線空間データ送信装置108は、MPU102で生成され記憶装置103に記憶されている光線空間のデータを出力し、伝送路109を通して光線空間データ受信装置110に伝送する。
伝送路109は光線空間データを伝送する。該伝送路109は、LAN・インターネット・ケーブルテレビに用いられる汎用的な通信路でもよいし、携帯電話網・放送電波に用いられる汎用的な無線でもよい。
光線空間データ受信装置110は、伝送路109を通して光線空間データ送信装置108から伝送された光線空間のデータを入力し、記憶装置111に記憶させる。視点・視線検出装置104は観察者の視点の位置・視線の向きを検出するためのものであり、該視点・視線検出装置104には、キーボードやマウスなどの汎用的なコンピュータの入力デバイスを用いてもよいし、ジョイスティック・ゲームパッド・3次元マウス・加速度センサなどの専用の入力デバイスを用いてもよいし、また、空間センサの付いている装着型の入力デバイスを用いてもよい。
MPU112は記憶装置111に記憶されている処理手順に従って処理を行う。記憶装置111には、受信した光線空間、MPU112の処理手順を示したプログラムを記憶しておく。画像出力装置105は、観察者の視点の位置・視線の向きにしたがってMPU112で生成された画像を表示する。画像出力装置105には、CRTや液晶などの一般的な2次元ディスプレイを用いても、また、パララックスバリアやレンティキュラやHMDなどの3次元ディスプレイを用いてもよい。なお、プログラムは、FD(フロッピー(登録商標)ディスク)・CD−ROM・磁気テープなどの記憶媒体に記録しておき、記憶媒体読取装置106から読み出して記憶装置103に記憶させてもよい。バス107および113は前記した各部を接続する。
図2のフローチャートにより、図1に示した装置を用いて、多視点画像を撮像して光線空間を生成する処理方法、および光線空間から任意の視点位置における画像を生成・表示する処理方法を説明する。
MPU102は記憶装置103に記憶されているプログラムに従って処理を実行し、MPU112は記憶装置111に記憶されているプログラムに従って処理を実行する。なお、図2のステップS1〜S3は、多視点画像を撮像して光線空間を生成するまでの部分で、MPU102上で処理される。また、ステップS4〜S6は、光線空間から任意の視点位置における画像を生成・表示するまでの部分で、MPU112上で(主として実時間で)処理される。
最初に、多視点画像を撮像し、該撮像画像を用いて光線空間を作成する処理について説明する。ステップS1では、実写画像群を、多視点画像入力装置101を用いて撮像し、複数の視点位置から多視点画像を得る。ステップS2では、ステップS1で得た多視点画像を光線空間上の曲線に対応させる。また、奥行きの情報あるいは横方向の視差の情報を記録することで、光線空間とこの多視点画像の座標とを対応付けた奥行きマップあるいは光線空間対応表を作成する。この奥行きマップあるいは光線空間対応表は、光線空間中の各点に情報を記録する場合と、実際に撮影した多視点映像の光線情報が記録されている位置のみに記録し他の点の値は計算して求める場合とがある。次に、ステップS3では、ステップS2で作成された光線空間データである奥行きマップあるいは光線空間対応表と多視点画像を記憶装置103に保存する。ステップS1〜S3は、MPU102で行われる光線空間の作成処理である。
次に、光線空間から任意の視点位置における画像を生成・表示する処理、つまり観察者の視点移動に伴って起きる処理について説明する。ステップS4では、視点・視線検出装置104を用いて、観察者の視点の位置・視線の向きが検出される。ステップS5では、ステップS4で検出された視点の位置・視線の向きで観察されるべき画像を、記憶装置111に記憶されている光線空間データ(奥行きマップあるいは光線空間対応表と多視点画像)を用いて、奥行きマップあるいは光線空間対応表に記録された奥行きの情報あるいは横方向の視差の情報に基づき逆算することによって多視点画像の対応する点を求め、多視点画像から対応する画素値を読み込み、本発明手法を用いて縦方向の視差を再現する処理を行い、画像を生成する。ステップS6では、ステップS5で生成された画像を画像出力装置105で表示する。ステップS4〜S6が、MPU112で行われる自由視点画像の生成処理である。
前記ステップS1〜S6が、本発明の第1実施形態の全体的な処理の流れであるが、次に、本実施形態の主要部のステップの詳細な処理について説明する。
最初に、ステップS2の奥行きマップあるいは光線空間対応表の作成処理について図3のフローチャートを用いて説明する。ステップS21では、カメラの位置(視点の位置)・姿勢(視線の向き)およびカメラの画角・焦点距離などのカメラパラメータに従って、各画像内の各画素値を3次元空間内の光線群データに変換する。ステップS22では、ステップS21で変換された光線群データを、前記式(2)または式(3)に基づいて光線空間の部分空間であるP−Q−θ空間(P−Q−u空間)上に射影する。このとき、上下方向の視差を無視するので、光線の位置(P,Q)と方位角θ(u)が同じであれば、同一点上に射影されることになる。
しかし、ここで、ステップS21の撮像におけるカメラ位置は離散的であるから、光線空間は部分的に射影されないところが生じる。ステップS23では、ステップS22で射影されない全ての部分について、内挿補間合成を行う。これにより、光線空間の全ての部分に、光線群データを射影することができる。ステップS24では、ステップS23の結果に従って、P−θ平面(P−u平面)上に射影された光線すなわち画素に対する多視点画像のIDとP座標の差(奥行きの情報あるいは横方向の視差の情報)を記録した光線空間対応表を作成する。すなわち、光線空間の部分空間であるP−θ空間(P−u空間)において、抽出したい画素(参照元の点)毎に、この画素のP座標とこれが辿る先の画素(参照先の点)の多視点画像がP−θ空間(P−u空間)に格納された際のP座標との差の値(この値は、横方向の視差値に比例し、奥行値に反比例するので、奥行きの情報を記録した奥行きマップを作成することによって代替できる)を記録した対応表を作成する。奥行きマップあるいは光線空間対応表は、光線空間中の各点に奥行きの情報あるいは横方向の視差の情報を記録する場合と、実際に撮影した多視点映像の光線情報が記録されている位置のみに、奥行きの情報あるいは横方向の視差の情報も併せて記録し他の点の値は計算して求める場合とがある。このようにして作成された奥行きマップあるいは光線空間対応表は、記憶装置103に記憶される。
図4に、このときの奥行きマップあるいは光線空間対応表と元の多視点画像との関係の概念を示す。なお、ステップS23における光線空間データの内挿補間合成手法としては、近傍データからの距離に基づいて線形に内挿する線形補間法などが適用できる。
次に、図2のステップS5における、光線空間データを用いて任意の視点の画像(自由視点画像)を生成する処理について説明する。この処理のアルゴリズムを図5に示す。
まずステップS51では、奥行きマップあるいは光線空間対応表とともに多視点画像をメモリ上に読み込む。ステップS52に移り、図2のステップS4で検出された観察者の視点の位置と視線の向きで観察されるべき画像を再構成するために、前記式(2)または式(3)に基づいてP−θ空間(P−u空間)上の曲線を求める。ステップS53に移り、P−θ空間(P−u空間)上の曲線に従って奥行きマップあるいは光線空間対応表から参照すべき多視点画像のIDと奥行き値ΔDあるいは横方向の視差値ΔPを検出する。ステップS54に移り、下記の式(4)または式(5)に基づいて縦方向の視差値ΔQを算出し、この値に基づいて各画素の縦方向の座標を補正し縦方向の視差を再現する。該ステップS54の処理の詳細を以下に説明する。
着目している点の光線空間座標(P,Q)と奥行きマップあるいは光線空間対応表に記録された多視点画像との対応の情報(奥行きの情報あるいは横方向の視差の情報)とから、その視点位置での縦方向の視差が推定できる。それにより、縦方向の段差を解消し、縦方向の視差を正確に再現できる。
平面記録光線空間の場合には、図10から明らかなように、参照元の点の光線空間座標(P,Q)、光線空間対応表に記録された値(横方向の視差の情報)ΔP、参照元の点と参照先の点の方位角の差Δθ(方位角θの正接の差Δu=tan(θ+Δθ)−tanθ)、光線空間の原点と視点との水平距離Dの時、奥行きΔDと縦方向視差ΔQの値は下記となる。
ΔD==ΔP/{tan(θ+Δθ)−tanθ}ΔP/Δu
ΔQ=−QΔP/(DΔu) (4)
平面記録光線空間の場合には、参照元の点の光線空間座標(P,Q)、参照元の点における奥行きΔD、光線空間の原点と視点との水平距離Dの時、参照元の点における縦方向の視差の値ΔQの値は下記となる。
ΔQ=−QΔD/D
円筒記録光線空間の場合には、参照元の点に対応する実空間中の点の座標(X,Y,Z)、参照元の点の方位角θの時、参照元の点における奥行きΔDの値は下記となる。
ΔD=Xsinθ+Zcosθ
円筒記録光線空間の場合には、図11から明らかなように、参照元の点の光線空間座標(P,Q)、光線空間対応表に記録された値(横方向の視差の情報)ΔP、参照元の点と参照先の点の方位角の差Δθ、光線空間の原点と視点との水平距離Dの時、厚みΔDと縦方向視差の値ΔQは下記となる。
ΔD=(P+ΔP−ΔPcosΔθ)/sinΔθ
ΔQ=−(P+ΔP−ΔPcosΔθ)Q/(DsinΔθ) (5)
円筒記録光線空間の場合には、参照元の点の光線空間座標(P,Q)、参照元の点における奥行きΔD、光線の仰角φの時、参照元の点における縦方向の視差の値ΔQは下記となる。
ΔQ=−ΔDtanφ
次いで、ステップS55に移り、画素(P,Q)の画素値を内挿補間して再構成画像の画素値とする。
次に、本発明の画像処理装置をより一般的な多視点画像列に適用した第2実施形態について説明する。
第1の実施形態では、多視点画像を一様な平行移動あるいは回転移動で視点移動させて物体を撮像した画像列とした。これに対して、本実施形態は、一様に視点位置を変化させるのではなく、あるところは密にあるところは疎に撮像した多視点画像列を用いるものである。
この場合においても、第1の実施形態に示したものと同様な画像処理装置を用いることができ、図7に示した処理の中で光線空間作成処理の部分だけ変更すればよい。なお、図1の多視点画像入力装置101においては、1台のカメラを用いる場合には、任意にずらした視点画像を撮像すればよいし、また複数台のカメラを用いる場合には、それらを等間隔ではなく任意の配置で撮像すればよい。
次に、第1の実施形態および第2の実施形態において、奥行きマップの奥行き値あるいは光線空間対応表の視差値を疎に記録し(多視点画像の画素値が記録された位置に記録するか、あるいは多視点画像の画素値が記録された位置とは無関係に記録する)、奥行き値あるいは視差値が記録されていない画素における奥行き値あるいは視差値は、周囲の記録された奥行き値あるいは視差値に基づいて推定する例について示す。第1の実施形態および第2の実施形態では、光線空間対応表の奥行き値あるいは視差値は密に記録されているが、本実施例では、密に記録するのではなく、疎に記録する。この場合においても、第1の実施形態および第2の実施形態に示したものと同様な画像処理装置を用いることができ、図7に示した処理の中で光線空間作成処理の直前に奥行きマップの奥行き値あるいは光線空間対応表の視差値を推定する処理を追加すればよい。
また、本発明はシステムあるいは装置にプログラムを供給することによって実施される場合にも適用される。この場合、本発明にかかるプログラムを格納した記録媒体、すなわち請求項10,11に記されているような記録媒体が、本発明を構成することになる。そして、該記録媒体からそのプログラムをシステムあるいは装置に読み出すことによって、そのシステムあるいは装置が、あらかじめ定められた方法で動作する。
本発明のシステムの一例の概略の構成を示すブロック図である。 本発明の一実施形態の自由視点映像生成方法の概略を示すフローチャートである。 図2のステップS2の詳細を示すフローチャートである。 光線空間対応表と元の多視点画像との関係の概念を示す図である。 図2のステップS5の詳細を示すフローチャートである。 平面記録光線空間の説明図である。 実空間内の(Xc,Zc)の視点位置で観察された光線をP−u空間に写像された様子を示す図である。 円筒記録光線空間の説明図である。 実空間内の(Xc,Zc)の視点位置で観察された光線をP−θ空間に写像された様子を示す図である。 (4)式に係る説明図である。 (5)式に係る説明図である。 従来手法と本発明手法とで得られる自由視点映像の一例を示す図である。
符号の説明
101・・・多視点画像入力装置、102、112・・・MPU、103、111・・・記憶装置、104・・・視点・視線検出装置、105・・・画像出力装置、106・・・記憶媒体読取装置、108・・・光線空間データ送信装置、110・・・光線空間データ受信装置。

Claims (24)

  1. 実際に撮影した多視点映像を元にして光線空間を用いて自由視点映像を生成する自由視点映像生成方法において、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する工程と、
    該光線空間中の各点に横方向の視差の情報を記録した光線空間対応表を作成する工程と、
    該光線空間対応表を記憶手段に記憶する工程と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に、該光線空間中の各点の画素値を算出する工程と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に縦方向の視差を再現する工程とを具備し、
    縦方向の視差の情報を記録しなくても縦方向の視差を再現できるようにしたことを特徴とする自由視点映像生成方法。
  2. 実際に撮影した多視点映像を元にして光線空間を用いて自由視点映像を生成する自由視点映像生成方法において、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する工程と、
    該光線空間中の各点に奥行きの情報を記録した奥行きマップを作成する工程と、
    該奥行きマップを記憶手段に記憶する工程と、
    該奥行きマップに記録されている前記奥行きの情報を基に、該光線空間中の各点の画素値を算出する工程と、
    該奥行きマップに記録されている前記奥行きの情報を基に縦方向の視差を再現する工程とを具備し、
    縦方向の視差の情報を記録しなくても縦方向の視差を再現できるようにしたことを特徴とする自由視点映像生成方法。
  3. 実際に撮影した多視点映像を元にして光線空間を用いて自由視点映像を生成する自由視点映像生成方法において、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する工程と、
    光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、横方向の視差の情報も併せて記録した光線空間対応表を作成する工程と、
    該光線空間対応表を記憶手段に記憶する工程と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に、該光線空間中の各点の画素値を算出する工程と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に縦方向の視差を再現する工程とを具備し、
    縦方向の視差の情報を記録しなくても縦方向の視差を再現できるようにしたことを特徴とする自由視点映像生成方法。
  4. 実際に撮影した多視点映像を元にして光線空間を用いて自由視点映像を生成する自由視点映像生成方法において、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する工程と、
    光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、奥行きの情報も併せて記録した奥行きマップを作成する工程と、
    該奥行きマップを記憶手段に記憶する工程と、
    該奥行きマップに記録されている前記奥行きの情報を基に、該光線空間中の各点の画素値を算出する工程と、
    該奥行きマップに記録されている前記奥行きの情報を基に縦方向の視差を再現する工程とを具備し、
    縦方向の視差の情報を記録しなくても縦方向の視差を再現できるようにしたことを特徴とする自由視点映像生成方法。
  5. 請求項1ないし4のいずれかに記載の自由視点映像生成方法において、
    前記光線空間として、平面記録光線空間を用いることを特徴とする自由視点映像生成方法。
  6. 請求項1ないし4のいずれかに記載の自由視点映像生成方法において、
    前記光線空間として、円筒記録光線空間、あるいは球面記録光線空間を用いることを特徴とする自由視点映像生成方法。
  7. 請求項6に記載の自由視点映像生成方法において、
    前記光線空間として、局所領域分割型光線空間を用いることを特徴とする自由視点映像生成方法。
  8. 請求項1ないし7のいずれかに記載の自由視点映像生成方法において、
    前記光線空間対応表に記憶されている情報から、該光線空間対応表に記憶されていない他の位置における横方向の視差の情報あるいは奥行きの情報を推定することを特徴とする自由視点映像生成方法。
  9. 請求項1ないし7のいずれかに記載の自由視点映像生成方法において、
    前記奥行きマップに記憶されている情報から、該奥行きマップに記憶されていない他の位置における奥行きの情報あるいは横方向の視差の情報を推定することを特徴とする自由視点映像生成方法。
  10. 請求項1ないし7のいずれかに記載の自由視点映像生成方法において、
    前記横方向の視差の情報を推定できる情報として、適応的に横方向の視差の情報を疎に記録しておき、該記録された情報から他の位置における横方向の視差の情報あるいは奥行きの情報を推定することを特徴とする自由視点映像生成方法。
  11. 請求項1ないし7のいずれかに記載の自由視点映像生成方法において、
    前記奥行きの情報を推定できる情報として、適応的に奥行きの情報を疎に記録しておき、該記録された情報から他の位置における奥行きの情報あるいは横方向の視差の情報を推定することを特徴とする自由視点映像生成方法。
  12. 請求項1ないし7のいずれかに記載の自由視点映像生成方法において、
    あらかじめ被写体表面の点の位置を求めておき、この位置の情報から、横方向の視差の情報あるいは奥行きの情報を推定することを特徴とする自由視点映像生成方法。
  13. 請求項8または10に記載の自由視点映像生成方法において、
    参照元の点の光線空間座標、参照元の点と参照先の点の横方向の視差の値、参照元の点と参照先の点の方位角の差(方位角の正接の差)、光線空間の原点と視点との水平距離に基づいて、縦方向の視差の値あるいは縦方向の座標の値を求めることを特徴とする自由視点映像生成方法。
  14. 請求項9または11に記載の自由視点映像生成方法において、
    参照元の点の光線空間座標、奥行きの値、参照元と参照先の正接あるいは方位角の角度差、光線空間の原点と視点との水平距離に基づいて、縦方向の視差の値あるいは縦方向の座標の値を求めることを特徴とする自由視点映像生成方法。
  15. 請求項12に記載の自由視点映像生成方法において、
    円筒記録光線空間の場合、参照元の点に対応する実空間中の点の座標、参照元の点の方位角に基づいて、参照元の点における奥行きを求めることを特徴とする自由視点映像生成方法。
  16. 請求項13に記載の自由視点映像生成方法において、
    平面記録光線空間の場合、参照元の点の光線空間座標(P,Q)、参照元の点と参照先の点の横方向の視差の値をΔP、参照元の点と参照先の点の方位角の差Δθ(方位角θの正接の差Δu=tan(θ+Δθ)−tanθ)、光線空間の原点と視点との水平距離Dの時、奥行きΔDと縦方向の視差の値ΔQを下記の式で求めることを特徴とする自由視点映像生成方法。
    ΔD=ΔP/{tan(θ+Δθ)−tanθ}=ΔP/Δu
    ΔQ=−QΔP/(DΔu)
  17. 請求項14に記載の自由視点映像生成方法において、
    平面記録光線空間の場合、参照元の点の光線空間座標(P,Q)、参照元の点における奥行きΔD、光線空間の原点と視点との水平距離Dの時、参照元の点における縦方向の視差の値ΔQを下記の式で求めることを特徴とする自由視点映像生成方法。
    ΔQ=−QΔD/D
  18. 請求項12に記載の自由視点映像生成方法において、
    円筒記録光線空間の場合、参照元の点に対応する実空間中の点の座標(X,Y,Z)、参照元の点の方位角θの時、参照元の点における奥行きΔDを下記の式で求めることを特徴とする自由視点映像生成方法。
    ΔD=Xsinθ+Zcosθ
  19. 請求項13に記載の自由視点映像生成方法において、
    円筒記録光線空間の場合、参照元の点の光線空間座標(P,Q)、参照元の点と参照先の点の横方向の視差の値をΔP、参照元の点と参照先の点の方位角の差Δθ、光線空間の原点と視点との水平距離Dの時、奥行きΔDと縦方向の視差の値ΔQを下記の式で求めることを特徴とする自由視点映像生成方法。
    ΔD=(P+ΔP−ΔPcosΔθ)/sinΔθ
    ΔQ=−(P+ΔP−ΔPcosΔθ)Q/(DsinΔθ)
  20. 請求項14に記載の自由視点映像生成方法において、
    円筒記録光線空間の場合、参照元の点の光線空間座標(P,Q)、参照元の点における奥行きΔD、光線の仰角φの時、参照元の点における縦方向の視差の値ΔQを下記の式で求めることを特徴とする自由視点映像生成方法。
    ΔQ=−ΔDtanφ
  21. コンピュータに、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手順と、
    該光線空間中の各点に横方向の視差の情報を記録した光線空間対応表を作成する手順と、
    該光線空間対応表を記憶手段に記憶させる手順と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に、該光線空間中の各点の画素値を算出する手順と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に縦方向の視差を再現する手順と、
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  22. コンピュータに、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手順と、
    該光線空間中の各点に奥行きの情報を記録した奥行きマップを作成する手順と、
    該奥行きマップを記憶手段に記憶させる手順と、
    該奥行きマップに記録されている前記奥行きの情報を基に、該光線空間中の各点の画素値を算出する手順と、
    該奥行きマップに記録されている前記奥行きの情報を基に縦方向の視差を再現する手順と、
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  23. コンピュータに、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手順と、
    光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、横方向の視差の情報も併せて記録した光線空間対応表を作成する手順と、
    該光線空間対応表を記憶手段に記憶させる手順と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に、該光線空間中の各点の画素値を算出する手順と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に縦方向の視差を再現する手順と、
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  24. コンピュータに、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手順と、
    光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、奥行きの情報も併せて記録した奥行きマップを作成する手順と、
    該奥行きマップを記憶手段に記憶させる手順と、
    該奥行きマップに記録されている前記奥行きの情報を基に、該光線空間中の各点の画素値を算出する手順と、
    該奥行きマップに記録されている前記奥行きの情報を基に縦方向の視差を再現する手順と、
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2008197857A 2007-11-26 2008-07-31 自由視点映像生成方式及び記録媒体 Expired - Fee Related JP4999010B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008197857A JP4999010B2 (ja) 2007-11-26 2008-07-31 自由視点映像生成方式及び記録媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007304419 2007-11-26
JP2007304419 2007-11-26
JP2008197857A JP4999010B2 (ja) 2007-11-26 2008-07-31 自由視点映像生成方式及び記録媒体

Publications (2)

Publication Number Publication Date
JP2009151747A true JP2009151747A (ja) 2009-07-09
JP4999010B2 JP4999010B2 (ja) 2012-08-15

Family

ID=40920783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008197857A Expired - Fee Related JP4999010B2 (ja) 2007-11-26 2008-07-31 自由視点映像生成方式及び記録媒体

Country Status (1)

Country Link
JP (1) JP4999010B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048544A (ja) * 2009-08-26 2011-03-10 Kddi Corp 3次元モデルを高速に高精度化する方法及び装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10111951A (ja) * 1996-10-04 1998-04-28 Canon Inc 画像処理方法および装置および記憶媒体
JP2001008231A (ja) * 1999-06-22 2001-01-12 Gen Tec:Kk 3次元空間における物体の多視点画像伝送方法及びシステム
JP2001052208A (ja) * 1999-08-06 2001-02-23 Mixed Reality Systems Laboratory Inc 画像処理方法、画像処理装置および記憶媒体
JP2004258775A (ja) * 2003-02-24 2004-09-16 Canon Inc 光線空間データ処理方法、空間データ処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10111951A (ja) * 1996-10-04 1998-04-28 Canon Inc 画像処理方法および装置および記憶媒体
JP2001008231A (ja) * 1999-06-22 2001-01-12 Gen Tec:Kk 3次元空間における物体の多視点画像伝送方法及びシステム
JP2001052208A (ja) * 1999-08-06 2001-02-23 Mixed Reality Systems Laboratory Inc 画像処理方法、画像処理装置および記憶媒体
JP2004258775A (ja) * 2003-02-24 2004-09-16 Canon Inc 光線空間データ処理方法、空間データ処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011048544A (ja) * 2009-08-26 2011-03-10 Kddi Corp 3次元モデルを高速に高精度化する方法及び装置

Also Published As

Publication number Publication date
JP4999010B2 (ja) 2012-08-15

Similar Documents

Publication Publication Date Title
JP4990852B2 (ja) 3次元移動の自由視点映像生成システムおよび記録媒体
KR101615111B1 (ko) 다시점 영상 표시 장치 및 방법
JP4942221B2 (ja) 高解像度仮想焦点面画像生成方法
US20130095920A1 (en) Generating free viewpoint video using stereo imaging
US8577202B2 (en) Method for processing a video data set
CN101729920B (zh) 一种自由视角立体视频显示方法
KR101066550B1 (ko) 가상시점 영상 생성방법 및 그 장치
CN102905145B (zh) 立体影像系统、影像产生方法、影像调整装置及其方法
US20130129193A1 (en) Forming a steroscopic image using range map
CN109644280B (zh) 生成场景的分层深度数据的方法
Meerits et al. Real-time diminished reality for dynamic scenes
JP5852093B2 (ja) 映像処理装置、映像処理方法、プログラム
KR20070061094A (ko) 에지 적응형 스테레오/다시점 영상 정합 장치 및 그 방법
Zhang et al. Stereoscopic video synthesis from a monocular video
da Silveira et al. Dense 3d scene reconstruction from multiple spherical images for 3-dof+ vr applications
Yamaguchi et al. Computer generated hologram from full-parallax 3D image data captured by scanning vertical camera array
Knorr et al. An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion
KR101289283B1 (ko) 하이브리드 영상획득 장치 기반 홀로그래픽 영상 복원 방법
JPH1097642A (ja) 画像処理方法及び装置及び記憶媒体
JP4999010B2 (ja) 自由視点映像生成方式及び記録媒体
JPH08201941A (ja) 3次元画像形成方法
JP5906033B2 (ja) 画像処理装置および画像処理方法、プログラム
De Sorbier et al. Augmented reality for 3D TV using depth camera input
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム
Gurrieri et al. Efficient panoramic sampling of real-world environments for image-based stereoscopic telepresence

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120418

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120510

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees