JP2011028428A - 光線情報を高速に内挿補間する方法及び装置 - Google Patents

光線情報を高速に内挿補間する方法及び装置 Download PDF

Info

Publication number
JP2011028428A
JP2011028428A JP2009172021A JP2009172021A JP2011028428A JP 2011028428 A JP2011028428 A JP 2011028428A JP 2009172021 A JP2009172021 A JP 2009172021A JP 2009172021 A JP2009172021 A JP 2009172021A JP 2011028428 A JP2011028428 A JP 2011028428A
Authority
JP
Japan
Prior art keywords
image
value
pixel
pixel value
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009172021A
Other languages
English (en)
Inventor
Akio Ishikawa
彰夫 石川
Shigeyuki Sakasawa
茂之 酒澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2009172021A priority Critical patent/JP2011028428A/ja
Publication of JP2011028428A publication Critical patent/JP2011028428A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

【課題】自由視点映像を高速に生成するため、内挿補間を高速に行う方法を提供する。
【解決手段】第1の画像の画素及び第2の画像の画素に対して、それぞれ光線空間中の第1の座標及び第2の座標を求め、第1の座標から第1の奥行き値、及び第2の座標から第2の奥行き値を算出し、第1の画像の画素値及び第1の奥行き値を、第1の画像の位置及び第3の画像の位置に基づく角度だけ回転変換し、第3の画像の第1の画素値及び第1の奥行き値を算出し、第2の画像の画素値及び第2の奥行き値を、第2の画像の位置及び第3の画像の位置に基づく角度だけ回転変換し、第3の画像の第2の画素値及び第2の奥行き値を算出し、第3の画像の第1の画素値及び第3の画像の第2の画素値から、第3の画像の画素値を求める。
【選択図】図3

Description

本発明は、光線空間における光線情報を高速に内挿補間する方法及び装置に関する。より詳細には、Image-based Rendering(以下、IBR)を用いて自由視点映像を生成する手法における内挿補間を高速に行う方法及び装置に関する。
光線空間法やLight Field Rendering等のIBRによる自由視点映像生成においては、仮想的な視点からの画像を生成するために、カメラ等で撮影して取得した光線情報を内挿補間する必要がある。
光線空間法は3次元空間の記録方法の1つである。カメラの画像はカメラの位置(X、Y、Z)の1点を通過する様々な方向(θ、φ)の光線を記録した情報と考えられる。光線情報(輝度や色)Fは、
F(X、Y、Z、θ、φ)
と5つのパラメータを有する関数として定義される。
光線情報Fは、5次元のパラメータ空間を必要としているため、内挿補間等の処理を行うには適切ではない。そのため、より効率的な記述方法が考えられた。非特許文献1及び2では3次元円筒記録光線空間が開示されている。これは、日常的な範囲(数メートル)内では、光は減衰しない。つまり、明るさ及び色は変化しない。このことを利用して、光が進んでいく方向は記録する必要がないことを利用して、光線情報Fを4つのパラメータで記述したものである。
苗村 健他、「光線情報の正投影表現に基づく3次元空間の記述」、テレビジョン学会誌Vol. 51, No. 12, pp. 2082〜2090 (1997) Takeshi Naemura and Hiroshi Harashima、"Ray-based approach to Integrated 3D Visual Communication"
従来のIBRを用いた自由視点映像生成では、内挿補間する処理に多大な時間を必要とし、高速な自由視点映像の生成が困難であるという課題があったため、内挿補間処理の高速化が強く求められていた。近年、GPGPUやPCクラスタ等の並列性に優れた計算機が以前に比べて安価かつ容易に利用できるようになってきているが、効果的かつ同程度の精度で並列化を考慮した内挿補間処理方式が存在しなかった。
従って、本発明は自由視点映像を高速に生成するため、内挿補間を高速に行う方法及び装置を提供することを目的とする。
上記目的を実現するため本発明による内挿補間方法は、第1の画像及び第2の画像から、第3の画像を求める内挿補間方法であって、前記第1の画像の画素及び前記第2の画像の画素に対して、それぞれ光線空間中の第1の座標及び第2の座標を求めるステップと、前記第1の座標から第1の奥行き値、及び前記第2の座標から第2の奥行き値を算出するステップと、前記第1の画像の画素値及び前記第1の奥行き値を、前記第1の画像の位置及び前記第3の画像の位置に基づく角度だけ回転変換し、前記第3の画像の第1の画素値及び前記第3の画像の第1の奥行き値を算出するステップと、前記第2の画像の画素値及び前記第2の奥行き値を、前記第2の画像の位置及び前記第3の画像の位置に基づく角度だけ回転変換し、前記第3の画像の第2の画素値及び前記第3の画像の第2の奥行き値を算出するステップと、前記第3の画像の第1の画素値及び前記第3の画像の第2の画素値から、前記第3の画像の画素値を求めるステップとを含んでいる。
また、前記第3の画像の画素値を求めるステップの前に、前記第3の画像の第1の画素値及び前記第3の画像の第2の画素値が、光線空間中の同一座標に格納された場合、該座標には奥行き値が最も大きい画素値を格納するステップを、さらに含むことも好ましい。
また、前記第3の画像の画素値を求めるステップは、前記第3の画像の第1の画素値及び前記第3の画像の第2の画素値の重み付け平均を取ることにより前記第3の画像の画素値を求めるステップであることも好ましい。
上記目的を実現するため本発明による内挿補間装置は、第1の画像及び第2の画像から、第3の画像を求める内挿補間装置であって、前記第1の画像の画素及び前記第2の画像の画素に対して、それぞれ光線空間中の第1の座標及び第2の座標を求める手段と、前記第1の座標から第1の奥行き値、及び前記第2の座標から第2の奥行き値を算出する手段と、前記第1の画像の画素値及び前記第1の奥行き値を、前記第1の画像の位置及び前記第3の画像の位置に基づく角度だけ回転変換し、前記第3の画像の第1の画素値及び前記第3の画像の第1の奥行き値を算出する手段と、前記第2の画像の画素値及び前記第2の奥行き値を、前記第2の画像の位置及び前記第3の画像の位置に基づく角度だけ回転変換し、前記第3の画像の第2の画素値及び前記第3の画像の第2の奥行き値を算出する手段と、前記第3の画像の第1の画素値及び前記第3の画像の第2の画素値から、前記第3の画像の画素値を求める手段とを備えている。
本発明の並列計算に適した計算方法をGPUやPCクラスタ等の並列性に優れた計算機に実装した装置により、光線情報の内挿補間に要する時間が大幅に短縮され、自由視点映像生成の高速化が実現される。
本発明による光線情報を高速に内挿補間する装置を備えた自由視点映像生成装置の概略を示す。 3次元円筒記録光線空間の定義を示す。 自由視点映像生成装置での回転変換による内挿補間処理手順を示すフローチャートである。
本発明を実施するための最良の実施形態について、以下では図面を用いて詳細に説明する。図1は本発明による光線情報を高速に内挿補間する装置を備えた自由視点映像生成装置の概略を示す。
自由視点映像生成装置1は、光線情報取得部11と、奥行き推定部12と、光線情報格納部13と、光線情報内挿補間部14と、自由視点画像生成部15とを備えている。ここで、奥行き推定部12と光線情報内挿補間部14が本発明による光線空間を高速に内挿補間する装置に該当する。
光線情報取得部11は、複数のカメラによる撮影などにより、光線情報を取得する。奥行き推定部12では、光線情報取得部11で取得した光線情報の各々に対して、仮想視点から被写体までの奥行き値を算出する。光線情報格納部13では、光線空間に対し、光線情報を格納する。それとともに、奥行き推定部12で求めた奥行き値も記録する。光線情報内挿補間部14では、記録された奥行き値に基づき前記パラメータ空間における実空間中の同一点の軌跡を求め、その軌跡上の光線情報を、既に光線情報取得部11で取得した光線情報の内挿補間により求める。ただし、この内挿補間処理では回転変換を行うことにより補間すべき点を求める。また、奥行き値に基づく深度バッファリング(Zバッファリング)も行う。自由視点画像生成部15では、光線情報内挿補間部14で補間されたパラメータ空間から必要な光線情報を読み込み、自由視点画像を生成する。
また、光線情報内挿補間部14の主な処理は回転変換、Zバッファリングであるため、GPUやPCクラスタ等の並列性に優れた計算システムに実装することにより高速に処理することができる。
以下、自由視点映像生成装置1の実施形態の一例を詳細に説明する。ここでは、カメラnの画像とカメラn+1の画像から、内挿補間を行うことにより視点iの位置から見た画像を生成する。
まず、最初に3次元円筒記録光線空間について説明する。3次元円筒記録光線空間とは、図2のようにX、Y、Z軸をY軸周りにθ回転させた後、Z軸をX軸の周りにφ回転させ、回転されたX軸をP軸、Y軸をQ軸、回転されたZ軸をR軸と定義する。3次元円筒記録光線空間ではPQ平面上の位置とPQ平面の傾き(θ、φ)の4つのパラメータによって記述される。カメラの画像はカメラの中心を通る光線の情報を集めたものであり、カメラで撮影することは(P、Q、θ、φ)空間での1つの曲面上の光線情報を得ることに相当する。ただし、一般のカメラによる撮影の場合、カメラは水平面上にあるため仰角φはほぼ一定である。そのため、PQ平面上の位置とPQ平面の傾き(方位角)θの3つのパラメータによって記述され、カメラの画像は(P、Q、θ)空間での1つの曲面上の光線情報になる。この曲面上以外の点は、撮影していない場所であり、光線情報がないため内挿補間して求める。
実空間中の点(X、Y、Z)を通過して方位角θの向きに伝搬する光線は、3次元円筒記録光線空間では、
P=Xcosθ−Zsinθ
Q=Y
で求められる点(P、Q、θ)に対応する。また、このときPQ平面に直交するR軸の値は奥行き値に相当し、
R=Xsinθ+Zcosθ
で求められる。
図3は、自由視点映像生成装置1での回転変換による内挿補間処理手順を示すフローチャートである。以下、このフローチャートに基づき説明する。
S1.3次元円筒記録光線空間での座標及び奥行き値を求める。本実施形態では、本処理は光線情報取得部11及び奥行き推定部12において行われる。まず、カメラnの画像に着目する。画像は実空間中の1点を通過する光線の集合と見なせるので、画像の各画素は実空間中の点(X,Y、Z)から放射されカメラnに入射する1本の光線に対応する。3次元円筒記録光線空間中で、この光線の情報が格納される座標を(P,Q、θ)、奥行き値をRとおく。この時、実空間の座標と3次元円筒記録光線空間の座標、奥行きとの関係は、式
Figure 2011028428
が成り立つ。同様にカメラn+1の画像に対しても、3次元円筒記録光線空間中の座標(Pn+1,Qn+1、θn+1)、奥行き値Rn+1に対して、式
Figure 2011028428
が成り立つ。光線情報取得部11は上記で求めた座標での光線情報F(P、Q、θ)を光線情報格納部13に格納し、奥行き推定部12は上記で求めた奥行き値を光線情報格納部13に格納する。
S2.カメラn及びカメラn+1の画像中の各画素(光線)を回転変換し、視点iの位置の画像の画素値(光線情報)と奥行き値を求める。本実施形態では、本処理以降は光線情報内挿補間部14において行われる。
回転変換は以下のように定式化される。3次元円筒記録光線空間中で、実空間中の点(X,Y、Z)から放射される光線の軌跡は、
Figure 2011028428
で表わされる。
式(1)及び式(3)より、
Figure 2011028428
が成立する。即ち、式(4)中の行列により、画素(P,Q、R)を回転変換することができ、補完する光線の軌跡を求めることができる。
カメラnの実空間中の位置を(X,Y、Z)、カメラn+1の実空間中の位置を(Xn+1,Yn+1、Zn+1)とおくと、視点iの画像とカメラnの画像とカメラの画像n+1はそれぞれ3次元円筒記録光線空間中の
Figure 2011028428
で表される曲面に格納される。
故に、式(5)の曲面(視点iの画像の画素値と奥行き値が格納される曲面)上の点(P,Q、θ)に格納すべき画素値と奥行き値を求めるには、
Figure 2011028428
で表される角度だけ、式(6)の曲面(カメラnの画像の画素値と奥行き値が格納される曲面)を式(4)に基づいて回転変換すればよい。
同様にして、
Figure 2011028428
で表される角度だけ、式(7)の曲面(カメラn+1の画像の画素値と奥行き値が格納される曲面)を式(4)に基づいて回転変換すればよい。
S3.回転変換後の画素を内挿補間する。元の画像(カメラnの画像)中では隣接していた画素のペアであっても、回転変換後は光線空間中の対応する点のペアでは間隔が開いて間に画素値と奥行き値が得られない点が生じることがある。そこで、それらの点の画素値と奥行き値は、元の画像(カメラnの画像)中の対応する画素のペア(前述の隣接していた画素のペア)の画素値と奥行き値から内挿補間して(線形補間または3次補間)求める。
ただし、あらかじめ閾値ΔRを設定しておき、元の画像(カメラnの画像)中の隣接する画素であっても、その奥行き値の差がΔRより大きければ、この2画素は不連続であるとみなす。従って、この画素のペアの間は内挿補間を行わない。カメラn+1の画像についても同様な内挿補間を行う。
S4.深度バッファリングを行う。前述の回転変換と内挿補間に伴い、光線空間中の同一座標に複数組の画素値と奥行き値が格納される場合がある。その場合は、深度バッファリング(Zバッファリング)を行う。即ち、奥行き値が最も大きい(視点に最も近い)点の画素値と奥行き値を格納する。
S5.2画像の合成を行う。一般に、光線空間中の各点において、カメラnの画像から求めた奥行き値とカメラn+1の画像から求めた奥行き値は一致するが、自己オクルージョンにより一致しない場合がある。そのような場合は、奥行き値が小さい(視点から遠い)方の画素値と奥行き値を使用する。
次に光線空間中の各点(P、Q、θ)において、カメラnの画像から求めた画素値とカメラn+1の画像から求めた画素値とを、|θ−θ|および|θ−θn+1|に基づき、
Figure 2011028428
で重み付け平均することにより、(P、Q、θ)に格納される光線情報F(P、Q、θ)を求めることができる。ここでF(P、Q、θ)は式(6)の曲面を式(4)に基づいて、式(8)の角度だけ回転変換した結果の曲面上に格納される光線情報であり、F(Pn+1、Qn+1、θn+1)は式(7)の曲面を式(4)に基づいて、式(9)の角度だけ回転変換した結果の曲面上に格納される光線情報である。なお、重み付け平均に用いる画素は以下のように決定される。被写体の1点から出た光は、方向に関係なく同じ色、同じ明るさをしている。そのため、カメラ画像に対応している(P、Q、θ)空間での2枚の曲面上の同じ色、同じ明るさの部分は被写体の同じ1点を指している。従って、2枚の曲面上のそれぞれ同じ色、同じ明るさの画素を内挿補間に用いる。
ここで、カメラnの位置を(X,Y、Z)、カメラn+1の位置を(Xn+1,Yn+1、Zn+1)とおくと、式
Figure 2011028428
が成り立つ。従って、例えばθ<θ<θn+1の場合は、式(10)および式(11)から、
Figure 2011028428
が導かれる。
以上のようにして、カメラnの画像とカメラn+1の画像から、内挿補間を行うことにより視点iの位置から見た画像が生成される。自由視点画像生成部15では、光線情報内挿補間部14で生成された光線情報を読み込み、自由視点画像を生成する。
また、以上述べた実施形態は全て本発明を例示的に示すものであって限定的に示すものではなく、本発明は他の種々の変形態様および変更態様で実施することができる。従って本発明の範囲は特許請求の範囲およびその均等範囲によってのみ規定されるものである。
1 自由視点映像生成装置
11 光線情報取得部
12 奥行き推定部
13 光線情報格納部
14 光線情報内挿補間部
15 自由視点画像生成部

Claims (4)

  1. 第1の画像及び第2の画像から、第3の画像を求める内挿補間方法であって、
    前記第1の画像の画素及び前記第2の画像の画素に対して、それぞれ光線空間中の第1の座標及び第2の座標を求めるステップと、
    前記第1の座標から第1の奥行き値、及び前記第2の座標から第2の奥行き値を算出するステップと、
    前記第1の画像の画素値及び前記第1の奥行き値を、前記第1の画像の位置及び前記第3の画像の位置に基づく角度だけ回転変換し、前記第3の画像の第1の画素値及び前記第3の画像の第1の奥行き値を算出するステップと、
    前記第2の画像の画素値及び前記第2の奥行き値を、前記第2の画像の位置及び前記第3の画像の位置に基づく角度だけ回転変換し、前記第3の画像の第2の画素値及び前記第3の画像の第2の奥行き値を算出するステップと、
    前記第3の画像の第1の画素値及び前記第3の画像の第2の画素値から、前記第3の画像の画素値を求めるステップと、
    を含んでいることを特徴とする内挿補間方法。
  2. 前記第3の画像の画素値を求めるステップの前に、
    前記第3の画像の第1の画素値及び前記第3の画像の第2の画素値が、光線空間中の同一座標に格納された場合、該座標には奥行き値が最も大きい画素値を格納するステップを、さらに含むことを特徴とする請求項1に記載の内挿補間方法。
  3. 前記第3の画像の画素値を求めるステップは、前記第3の画像の第1の画素値及び前記第3の画像の第2の画素値の重み付け平均を取ることにより前記第3の画像の画素値を求めるステップであることを特徴とする請求項1または2に記載の内挿補間方法。
  4. 第1の画像及び第2の画像から、第3の画像を求める内挿補間装置であって、
    前記第1の画像の画素及び前記第2の画像の画素に対して、それぞれ光線空間中の第1の座標及び第2の座標を求める手段と、
    前記第1の座標から第1の奥行き値、及び前記第2の座標から第2の奥行き値を算出する手段と、
    前記第1の画像の画素値及び前記第1の奥行き値を、前記第1の画像の位置及び前記第3の画像の位置に基づく角度だけ回転変換し、前記第3の画像の第1の画素値及び前記第3の画像の第1の奥行き値を算出する手段と、
    前記第2の画像の画素値及び前記第2の奥行き値を、前記第2の画像の位置及び前記第3の画像の位置に基づく角度だけ回転変換し、前記第3の画像の第2の画素値及び前記第3の画像の第2の奥行き値を算出する手段と、
    前記第3の画像の第1の画素値及び前記第3の画像の第2の画素値から、前記第3の画像の画素値を求める手段と、
    を備えていることを特徴とする内挿補間装置。
JP2009172021A 2009-07-23 2009-07-23 光線情報を高速に内挿補間する方法及び装置 Withdrawn JP2011028428A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009172021A JP2011028428A (ja) 2009-07-23 2009-07-23 光線情報を高速に内挿補間する方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009172021A JP2011028428A (ja) 2009-07-23 2009-07-23 光線情報を高速に内挿補間する方法及び装置

Publications (1)

Publication Number Publication Date
JP2011028428A true JP2011028428A (ja) 2011-02-10

Family

ID=43637126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009172021A Withdrawn JP2011028428A (ja) 2009-07-23 2009-07-23 光線情報を高速に内挿補間する方法及び装置

Country Status (1)

Country Link
JP (1) JP2011028428A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022520525A (ja) * 2019-02-15 2022-03-31 コーニンクレッカ フィリップス エヌ ヴェ 光強度画像を生成するための装置及び方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022520525A (ja) * 2019-02-15 2022-03-31 コーニンクレッカ フィリップス エヌ ヴェ 光強度画像を生成するための装置及び方法
JP7460641B2 (ja) 2019-02-15 2024-04-02 コーニンクレッカ フィリップス エヌ ヴェ 光強度画像を生成するための装置及び方法

Similar Documents

Publication Publication Date Title
JP4052331B2 (ja) 仮想視点画像生成方法及び3次元画像表示方法並びに装置
JP4990852B2 (ja) 3次元移動の自由視点映像生成システムおよび記録媒体
JP5762142B2 (ja) 撮像装置、画像処理装置およびその方法
JP6273163B2 (ja) 立体パノラマ
JP4803594B2 (ja) 局所領域分割による自由視点画像の生成装置およびプログラム
CN106331527B (zh) 一种图像拼接方法及装置
US6643413B1 (en) Manifold mosaic hopping for image-based rendering
JP2009211335A (ja) 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
KR102221937B1 (ko) 임의의 뷰 생성
JP2009037301A (ja) 局所領域分割による自由視点画像の生成方法
Schroers et al. An omnistereoscopic video pipeline for capture and display of real-world VR
CN110517211B (zh) 一种基于梯度域映射的图像融合方法
CN109769110B (zh) 一种3d小行星动态图的生成方法、装置及便携式终端
CN109791704A (zh) 用于自由运行fvv应用的基于多层uv映射的纹理渲染
GB2567245A (en) Methods and apparatuses for depth rectification processing
TWI820246B (zh) 具有像差估計之設備、估計來自廣角影像的像差之方法及電腦程式產品
Sandnes et al. Translating the viewing position in single equirectangular panoramic images
CN108028904A (zh) 移动设备上光场增强现实/虚拟现实的方法和系统
WO2018052100A1 (ja) 画像処理装置、画像処理方法、画像処理プログラム
US20210236929A1 (en) Apparatus and method for acquiring in-game 360 vr image by using plurality of virtual cameras
JP5373931B2 (ja) 仮想視点画像生成方法,仮想視点画像生成装置および仮想視点画像生成プログラム
WO2018014324A1 (zh) 一种实时虚拟视点合成的方法及装置
JP5249157B2 (ja) 3次元モデルを高速に高精度化する方法及び装置
JP2011028428A (ja) 光線情報を高速に内挿補間する方法及び装置
Jäger et al. A comparative Neural Radiance Field (NeRF) 3D analysis of camera poses from HoloLens trajectories and Structure from Motion

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20121002