JP4999010B2 - 自由視点映像生成方式及び記録媒体 - Google Patents

自由視点映像生成方式及び記録媒体 Download PDF

Info

Publication number
JP4999010B2
JP4999010B2 JP2008197857A JP2008197857A JP4999010B2 JP 4999010 B2 JP4999010 B2 JP 4999010B2 JP 2008197857 A JP2008197857 A JP 2008197857A JP 2008197857 A JP2008197857 A JP 2008197857A JP 4999010 B2 JP4999010 B2 JP 4999010B2
Authority
JP
Japan
Prior art keywords
space
ray
information
parallax
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008197857A
Other languages
English (en)
Other versions
JP2009151747A (ja
Inventor
彰夫 石川
茂之 酒澤
淳 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2008197857A priority Critical patent/JP4999010B2/ja
Publication of JP2009151747A publication Critical patent/JP2009151747A/ja
Application granted granted Critical
Publication of JP4999010B2 publication Critical patent/JP4999010B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は自由視点映像生成方式および記録媒体に関し、特に、3次元映像データに対するポインタ参照処理により、操作者の動きに応じて実時間で、任意の視点位置における映像を生成して表示する自由視点映像生成方式および記録媒体に関するものである。
従来、複数の視点位置で撮像された実写映像群を用いて、任意の視点位置における映像を生成・表示する場合、該実写映像群のデータをメモリ上に読み込んでおき、各映像データは3次元空間中を飛来する光線の集合であると考える光線空間の概念に基づいて、各画素の輝度値を計算して、任意の視点位置の映像を生成する方法が提案されている。
ここで、光線空間の概念について説明する。3次元空間内には、光源や物体の反射光により光線が発せられている。3次元空間内のある1点を横切る光線は、その位置(X,Y,Z)と方向(θ,φ)と時刻tを表す6個の変数により一意に定められる。この光線の光強度を表す関数をFと定義すると、3次元空間内の光線群データはF(X,Y,Z,θ,φ,t)と表され、3次元空間内の光線群は6次元のパラメータ空間として記述される。このパラメータ空間が光線空間と呼ばれている。
最初に、平面記録光線空間を用いる場合を、図6を参照して説明する。
いま、ある時間t=0においてZ=Zcという平面を通過する光線群に着目する。この面を基準面と呼び、この基準面上に2次元座標系(P,Q)を定義する。ここで、2次元座標系(P,Q)はZ軸との交点を原点として、P軸はX軸に平行に、Q軸はY軸に平行にとる。Y軸に垂直な水平面(XZ平面)を考え、上下方向の視差を考慮しないことにすると(Y=0,φ=0)、実空間は図6に示すようになる。基準面から発せられる光線群は、位置Pと角度θの2変数でF(P,θ)と記述される。従って、実空間中のある1点(Xc,Zc)を通過する光線群には、次の関係が成り立つ。
P=Xc―(Zc)tanθ (1)
ここで、u=tanθという変数を定義すると、式(1)は、次のようになる。
P=Xc―uZc (2)
従って、平面記録光線空間上では、実空間内の1本の光線が1点として写像され、そこに光強度すなわち色情報が記録される。また、式(2)から、実空間内のある1点を通過する光線群は、P−u空間上で直線に写像されることがわかる。
図7には、実空間内の(Xc,Zc)の視点位置で観察された光線がP−u空間に写像された様子を示す。なお、P−u空間は、前に述べた5次元の光線空間の部分空間をなすものである。以上のことは、下記の特許文献1,2にも示されている。
次に、円筒記録光線空間を用いる場合を、図8を参照して説明する。なお、円筒記録光線空間については、本出願人による特許出願(特願2006−185648号)に開示されている。
いま、ある時間t=0においてθ=θcの方位角に伝播する光線群に着目する。Y軸を通りこの光線群の伝播する方向に垂直な面を基準面と呼び、この基準面上に2次元座標系(P,Q)を定義する。ここで、2次元座標系(P,Q)は世界座標系の原点を原点として、Q軸はY軸に平行に、P軸は光線群の伝播する方向とQ軸の両方に対して垂直にとる。Y軸に垂直な水平面(XZ平面)を考え、上下方向の視差を考慮しないことにすると(Y=0,φ=0)、実空間は図8に示すようになる。基準面に対して垂直な方向に伝播する光線群は、位置Pと角度θの2変数でF(P,θ)と記述される。従って、実空間中のある1点(Xc,Zc)を通過する光線群には、次の関係が成り立つ。
P=(Xc)cosθ―(Zc)sinθ (3)
従って、円筒記録光線空間上では、実空間内の1本の光線が1点として写像され、そこに光強度すなわち色情報が記録される。また、式(3)から、実空間内のある1点を通過する光線群は、P−θ空間上で正弦曲線に写像されることがわかる。
図9には、実空間内の(Xc,Zc)の視点位置で観察された光線がP−θ空間に写像された様子を示す。なお、P−θ空間は、前に述べた5次元の光線空間の部分空間をなすものである。
この光線空間から任意の視点位置の画像を精度よく再構成するためには、本来はQ軸方向すなわち、上下方向の次元も必要である。しかし、その場合、光線空間データは少なくともP−Q−θ−φという4次元空間を形成しなければならず、非常に大きなデータ量を持つことになる。そこで、今までは、光線空間の部分空間であるP−θ空間(P−u空間)のみを考えていた。またさらに、光線空間の座標全体に色情報を持たせることは、非常に冗長であると考えられる。なぜなら、たとえP−θ空間(P−u空間)だけを考えるとしても、画像を再構成するためにはQ軸方向の画素情報が必要となるため、光線空間は3次元となり、そこに各光線の光強度を記録しなければならないからである。そこで、再構成する画像の全ての画素について光線空間演算を行い、メモリ上に読み込んだ多視点画像(複数の異なる視点位置から撮像した画像)から輝度値を得る方法があった。なお、光線空間演算とは、多視点画像を元に任意の視点位置の画像を再構成するために、P−θ空間(P−u空間)で式(2)および式(3)に基づいて行う計算のことである。
上記従来例では、操作者の動きに応じてリアルタイムに、任意の視点位置における画像を生成・表示するためには、高速な光線空間演算を行わなければならない。その演算を行うためには、多視点画像にランダムにアクセスし、画素データを読み込む操作を行わなければならない。すなわち、多視点画像への高速なランダムアクセスが要求される。そこで上記の例では、P−θ空間(P−u空間)と多視点画像を演算前にメモリ上に読み込んでおく、という手法をとっていた。
このように、今までは、任意の視点位置の画像を生成・表示する際に、同じ光線空間演算を何度も繰り返す必要があり、さらに、非常に大きなワークメモリ容量を使用する必要があった。画素データを得るための計算回数が多いということは、リアルタイムな動きを損なう原因となってしまう。
任意の視点位置の画像を生成・表示する処理速度を落とさずに、使用するワークメモリ容量を削減するために、複数の視点位置で撮像した画像を入力し、この入力された多視点画像に基づいて、光線空間とこの多視点画像の座標とを対応付けた光線空間対応表を作成し、多視点画像に基づいて、光線空間データを生成し、観察者の視点位置と視線方向を検出し、この検出された観察者の視点位置と視線方向及び画像出力のためのパラメータから光線空間上の曲線を導出し、この導出された曲線と作成された光線空間対応表とに従って、多視点画像へのポインタを辿ることによって画素を抽出して画像を生成し、生成された画像を出力することが、下記の特許文献1に示されている。
ここで、作成する対応表は、光線空間の部分空間であるP−θ空間(P−u空間)において、抽出したい画素(参照元の点)毎に、この画素のP座標とこれが辿る先の画素(参照先の点)の多視点画像がP−θ空間(P−u空間)に格納された際のP座標との差(視差値)を記録した対応表を作成している。
特開平10−111951号公報 特開2004−258775号公報
しかしながら、上記従来例では、P−θ空間(P−u空間)はP軸方向(横方向)の視差だけを考えたものであるから、Q軸方向(縦方向)については正確な視差が再現できず、視点を縦移動する際も近似的な映像しか生成できなかった。その結果、画像上の、異なる局所領域の境界に相当する位置に縦方向の段差が現れる課題が生じていた。
本発明の目的は、前記した課題を解決し、任意の視点位置の画像を生成して表示する際に、縦方向の視差の情報を記録していなくても、縦方向の視差の情報を推定して再現できる自由視点映像生成方式および記録媒体を提供することにある。
前記した目的を達成するために、本発明は、 実際に撮影した多視点映像を元にして光線空間を用いて自由視点映像を生成する自由視点映像生成方式において、実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手段と、該光線空間中の各点に、または光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、横方向の視差の情報を記録した光線空間対応表を作成する手段と、該光線空間対応表を記憶手段に記憶する手段と、該光線空間対応表に記録されている前記横方向の視差の情報を基に、該光線空間中の各点の画素値を算出する手段と、該光線空間対応表に記録されている前記横方向の視差の情報を基に縦方向の視差を再現する手段とを具備し、前記光線空間が平面記録光線空間の場合、前記縦方向の視差を再現する手段は、参照元の点の光線空間座標(P,Q)、参照元の点と参照先の点の横方向の視差の値をΔP、参照元の点と参照先の点の方位角の差Δθ(方位角θの正接の差Δu=tan(θ+Δθ)−tanθ)、光線空間の原点と視点との水平距離Dの時、奥行きΔDと縦方向の視差の値ΔQを下記の式で求めるようにした点に第1の特徴がある。
ΔD=ΔP/{tan(θ+Δθ)−tanθ}=ΔP/Δu
ΔQ=−QΔP/(DΔu)
また、前記光線空間が円筒記録光線空間の場合、前記縦方向の視差を再現する手段は、参照元の点の光線空間座標(P,Q)、参照元の点と参照先の点の横方向の視差の値をΔP、参照元の点と参照先の点の方位角の差Δθ、光線空間の原点と視点との水平距離Dの時、奥行きΔDと縦方向の視差の値ΔQを下記の式で求めるようにした点に第2の特徴がある。
ΔD=(P+ΔP−ΔPcosΔθ)/sinΔθ
ΔQ=−(P+ΔP−ΔPcosΔθ)Q/(DsinΔθ)
また、本発明は、実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手段と、該光線空間中の各点に、または光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、奥行きの情報を記録した奥行きマップを作成する手段と、該奥行きマップを記憶手段に記憶する手段と、該奥行きマップに記録されている前記奥行きの情報を基に、該光線空間中の各点の画素値を算出する手段と、該奥行きマップに記録されている前記奥行きの情報を基に縦方向の視差を再現する手段とを具備し、前記光線空間が平面記録光線空間の場合、前記縦方向の視差を再現する手段は、参照元の点の光線空間座標(P,Q)、参照元の点における奥行きΔD、光線空間の原点と視点との水平距離Dの時、参照元の点における縦方向の視差の値ΔQを下記の式で求めるようにした点に第の特徴がある。
ΔQ=−QΔD/D
また、前記光線空間が円筒記録光線空間の場合、前記縦方向の視差を再現する手段は、参照元の点の光線空間座標(P,Q)、参照元の点における奥行きΔD、光線の仰角φの時、参照元の点における縦方向の視差の値ΔQを下記の式で求めるようにした点に第4の特徴がある。
ΔQ=−ΔDtanφ
また、コンピュータに、前記第1、第2の特徴を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体を提供する点に、それぞれ、第5,第6の特徴がある。
さらに、コンピュータに、前記第3、第4の特徴を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体を提供する点に、それぞれ、第7,第8の特徴がある。
本発明によれば、任意の視点位置の画像を生成して表示する際に、縦方向の視差の情報を記録していなくても、縦方向の視差の情報を推定して再現することができる。図12に、従来手法により得られた自由視点映像と、本発明手法により得られた自由視点映像とを示す。図12の右側2枚の上下の映像から、従来手法では、映像中に縦方向の段差が生じていたのに対して、本発明手法では、縦方向の段差がない品質の良い映像が再現されていることが判る。
このことにより、縦方向の視差の情報が無くても高精度な自由視点映像を生成することができるようになり、局所領域分割型光線空間法においても従来手法では存在した局所領域間の段差がなくなる。したがって、同程度の精度の自由視点映像を生成する際にも、本発明手法を用いた場合の方が必要となるワークメモリおよびディスクの容量が小さくなり、高速な伝送が可能になる。
また、任意の視点位置の画像を生成して表示する際に、縦方向の視差の情報を記録していなくても、縦方向の視差の情報を推定して再現することができるプログラムを記録したコンピュータ読み取り可能な記録媒体を提供することができる。
以下に、図面を参照して、本発明の一実施形態を説明する。図1に、複数の視点位置で撮像された実写画像群から任意の視点位置における画像を生成・表示する装置の一実施形態の概略ブロック図を示す。
図1において、多視点画像入力装置101は、該実写画像群を撮像するためのものであり、1台のカメラをずらすことによって多数枚の画像を撮像してもよいし、また複数台のカメラをセットすることで多数枚の画像を撮像してもよい。あるいは、多視点画像データベースに保持されている画像データを入力データとして読み込んでもよい。
MPU102は記憶装置103に記憶されている処理手順に従って処理を行う。該記憶装置103には多視点で撮像した画像データや多視点画像から生成された光線空間、MPU102の処理手順を示したプログラムを記憶しておく。光線空間データ送信装置108は、MPU102で生成され記憶装置103に記憶されている光線空間のデータを出力し、伝送路109を通して光線空間データ受信装置110に伝送する。
伝送路109は光線空間データを伝送する。該伝送路109は、LAN・インターネット・ケーブルテレビに用いられる汎用的な通信路でもよいし、携帯電話網・放送電波に用いられる汎用的な無線でもよい。
光線空間データ受信装置110は、伝送路109を通して光線空間データ送信装置108から伝送された光線空間のデータを入力し、記憶装置111に記憶させる。視点・視線検出装置104は観察者の視点の位置・視線の向きを検出するためのものであり、該視点・視線検出装置104には、キーボードやマウスなどの汎用的なコンピュータの入力デバイスを用いてもよいし、ジョイスティック・ゲームパッド・3次元マウス・加速度センサなどの専用の入力デバイスを用いてもよいし、また、空間センサの付いている装着型の入力デバイスを用いてもよい。
MPU112は記憶装置111に記憶されている処理手順に従って処理を行う。記憶装置111には、受信した光線空間、MPU112の処理手順を示したプログラムを記憶しておく。画像出力装置105は、観察者の視点の位置・視線の向きにしたがってMPU112で生成された画像を表示する。画像出力装置105には、CRTや液晶などの一般的な2次元ディスプレイを用いても、また、パララックスバリアやレンティキュラやHMDなどの3次元ディスプレイを用いてもよい。なお、プログラムは、FD(フロッピー(登録商標)ディスク)・CD−ROM・磁気テープなどの記憶媒体に記録しておき、記憶媒体読取装置106から読み出して記憶装置103に記憶させてもよい。バス107および113は前記した各部を接続する。
図2のフローチャートにより、図1に示した装置を用いて、多視点画像を撮像して光線空間を生成する処理方法、および光線空間から任意の視点位置における画像を生成・表示する処理方法を説明する。
MPU102は記憶装置103に記憶されているプログラムに従って処理を実行し、MPU112は記憶装置111に記憶されているプログラムに従って処理を実行する。なお、図2のステップS1〜S3は、多視点画像を撮像して光線空間を生成するまでの部分で、MPU102上で処理される。また、ステップS4〜S6は、光線空間から任意の視点位置における画像を生成・表示するまでの部分で、MPU112上で(主として実時間で)処理される。
最初に、多視点画像を撮像し、該撮像画像を用いて光線空間を作成する処理について説明する。ステップS1では、実写画像群を、多視点画像入力装置101を用いて撮像し、複数の視点位置から多視点画像を得る。ステップS2では、ステップS1で得た多視点画像を光線空間上の曲線に対応させる。また、奥行きの情報あるいは横方向の視差の情報を記録することで、光線空間とこの多視点画像の座標とを対応付けた奥行きマップあるいは光線空間対応表を作成する。この奥行きマップあるいは光線空間対応表は、光線空間中の各点に情報を記録する場合と、実際に撮影した多視点映像の光線情報が記録されている位置のみに記録し他の点の値は計算して求める場合とがある。次に、ステップS3では、ステップS2で作成された光線空間データである奥行きマップあるいは光線空間対応表と多視点画像を記憶装置103に保存する。ステップS1〜S3は、MPU102で行われる光線空間の作成処理である。
次に、光線空間から任意の視点位置における画像を生成・表示する処理、つまり観察者の視点移動に伴って起きる処理について説明する。ステップS4では、視点・視線検出装置104を用いて、観察者の視点の位置・視線の向きが検出される。ステップS5では、ステップS4で検出された視点の位置・視線の向きで観察されるべき画像を、記憶装置111に記憶されている光線空間データ(奥行きマップあるいは光線空間対応表と多視点画像)を用いて、奥行きマップあるいは光線空間対応表に記録された奥行きの情報あるいは横方向の視差の情報に基づき逆算することによって多視点画像の対応する点を求め、多視点画像から対応する画素値を読み込み、本発明手法を用いて縦方向の視差を再現する処理を行い、画像を生成する。ステップS6では、ステップS5で生成された画像を画像出力装置105で表示する。ステップS4〜S6が、MPU112で行われる自由視点画像の生成処理である。
前記ステップS1〜S6が、本発明の第1実施形態の全体的な処理の流れであるが、次に、本実施形態の主要部のステップの詳細な処理について説明する。
最初に、ステップS2の奥行きマップあるいは光線空間対応表の作成処理について図3のフローチャートを用いて説明する。ステップS21では、カメラの位置(視点の位置)・姿勢(視線の向き)およびカメラの画角・焦点距離などのカメラパラメータに従って、各画像内の各画素値を3次元空間内の光線群データに変換する。ステップS22では、ステップS21で変換された光線群データを、前記式(2)または式(3)に基づいて光線空間の部分空間であるP−Q−θ空間(P−Q−u空間)上に射影する。このとき、上下方向の視差を無視するので、光線の位置(P,Q)と方位角θ(u)が同じであれば、同一点上に射影されることになる。
しかし、ここで、ステップS21の撮像におけるカメラ位置は離散的であるから、光線空間は部分的に射影されないところが生じる。ステップS23では、ステップS22で射影されない全ての部分について、内挿補間合成を行う。これにより、光線空間の全ての部分に、光線群データを射影することができる。ステップS24では、ステップS23の結果に従って、P−θ平面(P−u平面)上に射影された光線すなわち画素に対する多視点画像のIDとP座標の差(奥行きの情報あるいは横方向の視差の情報)を記録した光線空間対応表を作成する。すなわち、光線空間の部分空間であるP−θ空間(P−u空間)において、抽出したい画素(参照元の点)毎に、この画素のP座標とこれが辿る先の画素(参照先の点)の多視点画像がP−θ空間(P−u空間)に格納された際のP座標との差の値(この値は、横方向の視差値に比例し、奥行値に反比例するので、奥行きの情報を記録した奥行きマップを作成することによって代替できる)を記録した対応表を作成する。奥行きマップあるいは光線空間対応表は、光線空間中の各点に奥行きの情報あるいは横方向の視差の情報を記録する場合と、実際に撮影した多視点映像の光線情報が記録されている位置のみに、奥行きの情報あるいは横方向の視差の情報も併せて記録し他の点の値は計算して求める場合とがある。このようにして作成された奥行きマップあるいは光線空間対応表は、記憶装置103に記憶される。
図4に、このときの奥行きマップあるいは光線空間対応表と元の多視点画像との関係の概念を示す。なお、ステップS23における光線空間データの内挿補間合成手法としては、近傍データからの距離に基づいて線形に内挿する線形補間法などが適用できる。
次に、図2のステップS5における、光線空間データを用いて任意の視点の画像(自由視点画像)を生成する処理について説明する。この処理のアルゴリズムを図5に示す。
まずステップS51では、奥行きマップあるいは光線空間対応表とともに多視点画像をメモリ上に読み込む。ステップS52に移り、図2のステップS4で検出された観察者の視点の位置と視線の向きで観察されるべき画像を再構成するために、前記式(2)または式(3)に基づいてP−θ空間(P−u空間)上の曲線を求める。ステップS53に移り、P−θ空間(P−u空間)上の曲線に従って奥行きマップあるいは光線空間対応表から参照すべき多視点画像のIDと奥行き値ΔDあるいは横方向の視差値ΔPを検出する。ステップS54に移り、下記の式(4)または式(5)に基づいて縦方向の視差値ΔQを算出し、この値に基づいて各画素の縦方向の座標を補正し縦方向の視差を再現する。該ステップS54の処理の詳細を以下に説明する。
着目している点の光線空間座標(P,Q)と奥行きマップあるいは光線空間対応表に記録された多視点画像との対応の情報(奥行きの情報あるいは横方向の視差の情報)とから、その視点位置での縦方向の視差が推定できる。それにより、縦方向の段差を解消し、縦方向の視差を正確に再現できる。
平面記録光線空間の場合には、図10から明らかなように、参照元の点の光線空間座標(P,Q)、光線空間対応表に記録された値(横方向の視差の情報)ΔP、参照元の点と参照先の点の方位角の差Δθ(方位角θの正接の差Δu=tan(θ+Δθ)−tanθ)、光線空間の原点と視点との水平距離Dの時、奥行きΔDと縦方向視差ΔQの値は下記となる。
ΔD==ΔP/{tan(θ+Δθ)−tanθ}ΔP/Δu
ΔQ=−QΔP/(DΔu) (4)
平面記録光線空間の場合には、参照元の点の光線空間座標(P,Q)、参照元の点における奥行きΔD、光線空間の原点と視点との水平距離Dの時、参照元の点における縦方向の視差の値ΔQの値は下記となる。
ΔQ=−QΔD/D
円筒記録光線空間の場合には、参照元の点に対応する実空間中の点の座標(X,Y,Z)、参照元の点の方位角θの時、参照元の点における奥行きΔDの値は下記となる。
ΔD=Xsinθ+Zcosθ
円筒記録光線空間の場合には、図11から明らかなように、参照元の点の光線空間座標(P,Q)、光線空間対応表に記録された値(横方向の視差の情報)ΔP、参照元の点と参照先の点の方位角の差Δθ、光線空間の原点と視点との水平距離Dの時、厚みΔDと縦方向視差の値ΔQは下記となる。
ΔD=(P+ΔP−ΔPcosΔθ)/sinΔθ
ΔQ=−(P+ΔP−ΔPcosΔθ)Q/(DsinΔθ) (5)
円筒記録光線空間の場合には、参照元の点の光線空間座標(P,Q)、参照元の点における奥行きΔD、光線の仰角φの時、参照元の点における縦方向の視差の値ΔQは下記となる。
ΔQ=−ΔDtanφ
次いで、ステップS55に移り、画素(P,Q)の画素値を内挿補間して再構成画像の画素値とする。
次に、本発明の画像処理装置をより一般的な多視点画像列に適用した第2実施形態について説明する。
第1の実施形態では、多視点画像を一様な平行移動あるいは回転移動で視点移動させて物体を撮像した画像列とした。これに対して、本実施形態は、一様に視点位置を変化させるのではなく、あるところは密にあるところは疎に撮像した多視点画像列を用いるものである。
この場合においても、第1の実施形態に示したものと同様な画像処理装置を用いることができ、図7に示した処理の中で光線空間作成処理の部分だけ変更すればよい。なお、図1の多視点画像入力装置101においては、1台のカメラを用いる場合には、任意にずらした視点画像を撮像すればよいし、また複数台のカメラを用いる場合には、それらを等間隔ではなく任意の配置で撮像すればよい。
次に、第1の実施形態および第2の実施形態において、奥行きマップの奥行き値あるいは光線空間対応表の視差値を疎に記録し(多視点画像の画素値が記録された位置に記録するか、あるいは多視点画像の画素値が記録された位置とは無関係に記録する)、奥行き値あるいは視差値が記録されていない画素における奥行き値あるいは視差値は、周囲の記録された奥行き値あるいは視差値に基づいて推定する例について示す。第1の実施形態および第2の実施形態では、光線空間対応表の奥行き値あるいは視差値は密に記録されているが、本実施例では、密に記録するのではなく、疎に記録する。この場合においても、第1の実施形態および第2の実施形態に示したものと同様な画像処理装置を用いることができ、図7に示した処理の中で光線空間作成処理の直前に奥行きマップの奥行き値あるいは光線空間対応表の視差値を推定する処理を追加すればよい。
また、本発明はシステムあるいは装置にプログラムを供給することによって実施される場合にも適用される。この場合、本発明にかかるプログラムを格納した記録媒体、すなわち請求項10,11に記されているような記録媒体が、本発明を構成することになる。そして、該記録媒体からそのプログラムをシステムあるいは装置に読み出すことによって、そのシステムあるいは装置が、あらかじめ定められた方法で動作する。
本発明のシステムの一例の概略の構成を示すブロック図である。 本発明の一実施形態の自由視点映像生成方法の概略を示すフローチャートである。 図2のステップS2の詳細を示すフローチャートである。 光線空間対応表と元の多視点画像との関係の概念を示す図である。 図2のステップS5の詳細を示すフローチャートである。 平面記録光線空間の説明図である。 実空間内の(Xc,Zc)の視点位置で観察された光線をP−u空間に写像された様子を示す図である。 円筒記録光線空間の説明図である。 実空間内の(Xc,Zc)の視点位置で観察された光線をP−θ空間に写像された様子を示す図である。 (4)式に係る説明図である。 (5)式に係る説明図である。 従来手法と本発明手法とで得られる自由視点映像の一例を示す図である。
符号の説明
101・・・多視点画像入力装置、102、112・・・MPU、103、111・・・記憶装置、104・・・視点・視線検出装置、105・・・画像出力装置、106・・・記憶媒体読取装置、108・・・光線空間データ送信装置、110・・・光線空間データ受信装置。

Claims (10)

  1. 実際に撮影した多視点映像を元にして光線空間を用いて自由視点映像を生成する自由視点映像生成方式において、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手段と、
    該光線空間中の各点に、または光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、横方向の視差の情報を記録した光線空間対応表を作成する手段と、
    該光線空間対応表を記憶手段に記憶する手段と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に、該光線空間中の各点の画素値を算出する手段と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に縦方向の視差を再現する手段とを具備し、
    前記光線空間が平面記録光線空間の場合、
    前記縦方向の視差を再現する手段は、参照元の点の光線空間座標(P,Q)、参照元の点と参照先の点の横方向の視差の値をΔP、参照元の点と参照先の点の方位角の差Δθ(方位角θの正接の差Δu=tan(θ+Δθ)−tanθ)、光線空間の原点と視点との水平距離Dの時、奥行きΔDと縦方向の視差の値ΔQを下記の式で求めることを特徴とする自由視点映像生成方式。
    ΔD=ΔP/{tan(θ+Δθ)−tanθ}=ΔP/Δu
    ΔQ=−QΔP/(DΔu)
  2. 実際に撮影した多視点映像を元にして光線空間を用いて自由視点映像を生成する自由視点映像生成方式において、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手段と、
    該光線空間中の各点に、または光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、横方向の視差の情報を記録した光線空間対応表を作成する手段と、
    該光線空間対応表を記憶手段に記憶する手段と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に、該光線空間中の各点の画素値を算出する手段と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に縦方向の視差を再現する手段とを具備し、
    前記光線空間が円筒記録光線空間の場合、
    前記縦方向の視差を再現する手段は、参照元の点の光線空間座標(P,Q)、参照元の点と参照先の点の横方向の視差の値をΔP、参照元の点と参照先の点の方位角の差Δθ、光線空間の原点と視点との水平距離Dの時、奥行きΔDと縦方向の視差の値ΔQを下記の式で求めることを特徴とする自由視点映像生成方式。
    ΔD=(P+ΔP−ΔPcosΔθ)/sinΔθ
    ΔQ=−(P+ΔP−ΔPcosΔθ)Q/(DsinΔθ)
  3. 実際に撮影した多視点映像を元にして光線空間を用いて自由視点映像を生成する自由視点映像生成方式において、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手段と、
    該光線空間中の各点に、または光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、奥行きの情報を記録した奥行きマップを作成する手段と、
    該奥行きマップを記憶手段に記憶する手段と、
    該奥行きマップに記録されている前記奥行きの情報を基に、該光線空間中の各点の画素値を算出する手段と、
    該奥行きマップに記録されている前記奥行きの情報を基に縦方向の視差を再現する手段とを具備し、
    前記光線空間が平面記録光線空間の場合、
    前記縦方向の視差を再現する手段は、参照元の点の光線空間座標(P,Q)、参照元の点における奥行きΔD、光線空間の原点と視点との水平距離Dの時、参照元の点における縦方向の視差の値ΔQを下記の式で求めることを特徴とする自由視点映像生成方式。
    ΔQ=−QΔD/D
  4. 実際に撮影した多視点映像を元にして光線空間を用いて自由視点映像を生成する自由視点映像生成方式において、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手段と、
    該光線空間中の各点に、または光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、奥行きの情報を記録した奥行きマップを作成する手段と、
    該奥行きマップを記憶手段に記憶する手段と、
    該奥行きマップに記録されている前記奥行きの情報を基に、該光線空間中の各点の画素値を算出する手段と、
    該奥行きマップに記録されている前記奥行きの情報を基に縦方向の視差を再現する手段とを具備し、
    前記光線空間が円筒記録光線空間の場合、
    前記縦方向の視差を再現する手段は、参照元の点の光線空間座標(P,Q)、参照元の点における奥行きΔD、光線の仰角φの時、参照元の点における縦方向の視差の値ΔQを下記の式で求めることを特徴とする自由視点映像生成方式。
    ΔQ=−ΔDtanφ
  5. 請求項1または2に記載の自由視点映像生成方式において、
    前記光線空間対応表には前記横方向の視差の情報が疎に記録されており、該記録された情報から他の位置における横方向の視差の情報が推定されることを特徴とする自由視点映像生成方式。
  6. 請求項3または4に記載の自由視点映像生成方式において、
    前記光線空間対応表には前記奥行きの情報が疎に記録されており、該記録された情報から他の位置における奥行きの情報が推定されることを特徴とする自由視点映像生成方式。
  7. コンピュータに、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手順と、
    該光線空間中の各点に、または光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、横方向の視差の情報を記録した光線空間対応表を作成する手順と、
    該光線空間対応表を記憶手段に記憶する手順と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に、該光線空間中の各点の画素値を算出する手順と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に縦方向の視差を再現する手順と、
    前記光線空間が平面記録光線空間の場合、
    前記縦方向の視差を再現する手順は、参照元の点の光線空間座標(P,Q)、参照元の点と参照先の点の横方向の視差の値をΔP、参照元の点と参照先の点の方位角の差Δθ(方位角θの正接の差Δu=tan(θ+Δθ)−tanθ)、光線空間の原点と視点との水平距離Dの時、奥行きΔDと縦方向の視差の値ΔQを下記の式で求めることとを、
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
    ΔD=ΔP/{tan(θ+Δθ)−tanθ}=ΔP/Δu
    ΔQ=−QΔP/(DΔu)
  8. コンピュータに、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手順と、
    該光線空間中の各点に、または光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、横方向の視差の情報を記録した光線空間対応表を作成する手順と、
    該光線空間対応表を記憶手段に記憶する手順と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に、該光線空間中の各点の画素値を算出する手順と、
    該光線空間対応表に記録されている前記横方向の視差の情報を基に縦方向の視差を再現する手順と、
    前記光線空間が円筒記録光線空間の場合、
    前記縦方向の視差を再現する手順は、参照元の点の光線空間座標(P,Q)、参照元の点と参照先の点の横方向の視差の値をΔP、参照元の点と参照先の点の方位角の差Δθ、光線空間の原点と視点との水平距離Dの時、奥行きΔDと縦方向の視差の値ΔQを下記の式で求めることとを、
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
    ΔD=(P+ΔP−ΔPcosΔθ)/sinΔθ
    ΔQ=−(P+ΔP−ΔPcosΔθ)Q/(DsinΔθ)
  9. コンピュータに、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手順と、
    該光線空間中の各点に、または光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、奥行きの情報を記録した奥行きマップを作成する手順と、
    該奥行きマップを記憶手段に記憶する手順と、
    該奥行きマップに記録されている前記奥行きの情報を基に、該光線空間中の各点の画素値を算出する手順と、
    該奥行きマップに記録されている前記奥行きの情報を基に縦方向の視差を再現する手順と、
    前記光線空間が平面記録光線空間の場合、
    前記縦方向の視差を再現する手順は、参照元の点の光線空間座標(P,Q)、参照元の点における奥行きΔD、光線空間の原点と視点との水平距離Dの時、参照元の点における縦方向の視差の値ΔQを下記の式で求めることとを、
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
    ΔQ=−QΔD/D
  10. コンピュータに、
    実際に撮影した多視点映像の光線情報を光線空間中の対応する位置に記録する手順と、
    該光線空間中の各点に、または光線空間中の実際に撮影した多視点映像の光線情報が記録されている位置のみに、奥行きの情報を記録した奥行きマップを作成する手順と、
    該奥行きマップを記憶手段に記憶する手順と、
    該奥行きマップに記録されている前記奥行きの情報を基に、該光線空間中の各点の画素値を算出する手順と、
    該奥行きマップに記録されている前記奥行きの情報を基に縦方向の視差を再現する手順と、
    前記光線空間が円筒記録光線空間の場合、
    前記縦方向の視差を再現する手順は、参照元の点の光線空間座標(P,Q)、参照元の点における奥行きΔD、光線の仰角φの時、参照元の点における縦方向の視差の値ΔQを下記の式で求めることとを、
    を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
    ΔQ=−ΔDtanφ
JP2008197857A 2007-11-26 2008-07-31 自由視点映像生成方式及び記録媒体 Expired - Fee Related JP4999010B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008197857A JP4999010B2 (ja) 2007-11-26 2008-07-31 自由視点映像生成方式及び記録媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007304419 2007-11-26
JP2007304419 2007-11-26
JP2008197857A JP4999010B2 (ja) 2007-11-26 2008-07-31 自由視点映像生成方式及び記録媒体

Publications (2)

Publication Number Publication Date
JP2009151747A JP2009151747A (ja) 2009-07-09
JP4999010B2 true JP4999010B2 (ja) 2012-08-15

Family

ID=40920783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008197857A Expired - Fee Related JP4999010B2 (ja) 2007-11-26 2008-07-31 自由視点映像生成方式及び記録媒体

Country Status (1)

Country Link
JP (1) JP4999010B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5249157B2 (ja) * 2009-08-26 2013-07-31 Kddi株式会社 3次元モデルを高速に高精度化する方法及び装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10111951A (ja) * 1996-10-04 1998-04-28 Canon Inc 画像処理方法および装置および記憶媒体
JP2001008231A (ja) * 1999-06-22 2001-01-12 Gen Tec:Kk 3次元空間における物体の多視点画像伝送方法及びシステム
JP3392078B2 (ja) * 1999-08-06 2003-03-31 キヤノン株式会社 画像処理方法、画像処理装置および記憶媒体
JP2004258775A (ja) * 2003-02-24 2004-09-16 Canon Inc 光線空間データ処理方法、空間データ処理装置

Also Published As

Publication number Publication date
JP2009151747A (ja) 2009-07-09

Similar Documents

Publication Publication Date Title
JP4990852B2 (ja) 3次元移動の自由視点映像生成システムおよび記録媒体
US10547822B2 (en) Image processing apparatus and method to generate high-definition viewpoint interpolation image
JP3593466B2 (ja) 仮想視点画像生成方法およびその装置
KR101615111B1 (ko) 다시점 영상 표시 장치 및 방법
US20130095920A1 (en) Generating free viewpoint video using stereo imaging
KR100745691B1 (ko) 차폐영역 검출을 이용한 양안 또는 다시점 스테레오 정합장치 및 그 방법
JP2013225740A (ja) 画像生成装置、画像表示装置及び画像生成方法並びに画像生成プログラム
KR101066550B1 (ko) 가상시점 영상 생성방법 및 그 장치
US8577202B2 (en) Method for processing a video data set
Meerits et al. Real-time diminished reality for dynamic scenes
KR20070061094A (ko) 에지 적응형 스테레오/다시점 영상 정합 장치 및 그 방법
JP5852093B2 (ja) 映像処理装置、映像処理方法、プログラム
JP7184748B2 (ja) 場面の積層深度データを生成するための方法
da Silveira et al. Dense 3d scene reconstruction from multiple spherical images for 3-dof+ vr applications
Zhang et al. Stereoscopic video synthesis from a monocular video
JPH09245195A (ja) 画像処理方法およびその装置
Knorr et al. An image-based rendering (ibr) approach for realistic stereo view synthesis of tv broadcast based on structure from motion
JP4775903B2 (ja) 多視点画像を用いた自由視点画像生成方法、装置及びプログラム
JP7416573B2 (ja) 立体画像生成装置及びそのプログラム
JPH1097642A (ja) 画像処理方法及び装置及び記憶媒体
JP4999010B2 (ja) 自由視点映像生成方式及び記録媒体
JPH08201941A (ja) 3次元画像形成方法
CN115719320A (zh) 基于遥感影像的倾斜校正稠密匹配方法
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム
De Sorbier et al. Augmented reality for 3D TV using depth camera input

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120208

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120418

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120510

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees