JP2008257686A - 3次元シーンのライトフィールドを処理するための方法およびシステム - Google Patents
3次元シーンのライトフィールドを処理するための方法およびシステム Download PDFInfo
- Publication number
- JP2008257686A JP2008257686A JP2007329997A JP2007329997A JP2008257686A JP 2008257686 A JP2008257686 A JP 2008257686A JP 2007329997 A JP2007329997 A JP 2007329997A JP 2007329997 A JP2007329997 A JP 2007329997A JP 2008257686 A JP2008257686 A JP 2008257686A
- Authority
- JP
- Japan
- Prior art keywords
- light field
- display
- view
- target
- views
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/597—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/122—Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
Abstract
【課題】この発明方法およびシステムはライトフィールドを取得して表示する。
【解決手段】連続したライトフィールドが、カメラによって取得された3次元シーンの入力ライトフィールドの入力サンプルから、取得パラメータ化により、再構成される。連続したライトフィールドは、表示パラメータ化により再パラメータ化され、その後、表示パラメータ化を有する出力サンプルを生成するために、プレフィルタリングされ、そしてサンプリングされる。出力サンプルは、3次元表示装置を使用して、出力ライトフィールドとして表示される。異なるビューを持っている入力サンプルを補間することによって、再構成を行うことができる。
【選択図】図1A
【解決手段】連続したライトフィールドが、カメラによって取得された3次元シーンの入力ライトフィールドの入力サンプルから、取得パラメータ化により、再構成される。連続したライトフィールドは、表示パラメータ化により再パラメータ化され、その後、表示パラメータ化を有する出力サンプルを生成するために、プレフィルタリングされ、そしてサンプリングされる。出力サンプルは、3次元表示装置を使用して、出力ライトフィールドとして表示される。異なるビューを持っている入力サンプルを補間することによって、再構成を行うことができる。
【選択図】図1A
Description
[関連出願]
この出願は、Matusik他により2006年4月4日に出願された、「3次元ライトフィールドを取得、表示するための方法およびシステム」という名称の米国特許出願第11/397,227号の一部継続出願である。
この出願は、Matusik他により2006年4月4日に出願された、「3次元ライトフィールドを取得、表示するための方法およびシステム」という名称の米国特許出願第11/397,227号の一部継続出願である。
この発明は、一般に、ライトフィールドを取得、符号化、復号化、表示することに関し、特に、3次元ライトフィールドのスケーラブルな復号化、およびオートマルティスコーピック(自動多視点)表示装置に表示するための再構成されたライトフィールドの再サンプリングに関するものである。
現実世界の3次元シーンのイメージ(画像)を取得して、現実的な3次元画像としてそれらを表示することが望まれている。自動多視点ディスプレイは、束縛されない視聴、すなわちビューイングゾーン(見る領域)の任意の位置からの高解像度立体画像の眼鏡無しでの視聴を提供する。自動多視点ディスプレイは視野角に基づく、異なる強度および色のビュー(視点)依存ピクセルを含む。従来の高解像度ディスプレイとパララックスバリアとを使用することにより、視点依存ピクセルを実施することができる。
典型的な自動多視点ディスプレイでは、画像はパララックスバリアを通して、レンズ状シート或いは一体形レンズシートに映し出される。マルチビユーオートステレオスコーピィ(多視点自動立体鏡)の光学原理は1世紀以上に亘って知られている(Okoshi、3元イメージング(撮像)技術、アカデミックプレス社、1976)。近年、高解像度の実用的なディスプレイが利用可能になってきている。その結果、3次元テレビが再び注目されている。
ところで、自動多視点ディスプレイには、幾つかの問題がある。第一に、動いている視聴者は不穏な視覚的アーティファクトを見る。第二に、アーティファクトの無い3次元画像の取得は難しい。
放送および映画産業における写真家、ビデオ撮影家、および専門家は3次元画像を記録するのに必要とされる複雑なセットアップ(構成装備)になじみがない。現在、従来の2次元テレビに対して有るような、マルチカメラパラメータ、配置、および制作後の処理に対するガイドライン(指針)もスタンダード(標準)も無い。
放送および映画産業における写真家、ビデオ撮影家、および専門家は3次元画像を記録するのに必要とされる複雑なセットアップ(構成装備)になじみがない。現在、従来の2次元テレビに対して有るような、マルチカメラパラメータ、配置、および制作後の処理に対するガイドライン(指針)もスタンダード(標準)も無い。
特に、ほとんどの実用的な場合には、カメラのイメージセンサ(撮像素子)におけるピクセル(画素)は、1対1の方法で、表示装置におけるピクセルに直接マップ(写像)されない。これは映像データの再サンプリングを必要とする。再サンプリングは、視覚的アーティファクトが最小にされるような方法で、行われる必要がある。自動多視点ディスプレイに対してライトフィールドを有効に再サンプリングするための従来技術は全く無い。
3次元ディスプレイ用のほとんどの従来のアンチエイリアシングは、波動光学を使用する。その上、それらの方法は、適切なフィルタリングのためにピクセル毎のシーン深度(奥行き)を必要とする。深度情報がないとき、それらの方法は、保守的な最悪条件手法およびシーンにおける最大深度に基づくフィルタに頼る。実際には、これは、それらの方法の実施を非常に浅い深度を有するシーンに制限する。
一般に、自動多視点ディスプレイは、静的な或いは経時的に変動するライトフィールドを発する。ライトフィールドはオクルーダ(遮蔽物)の無い空間の領域における位置および方向の関数としてのラジアンス(放射輝度)を表している。ライトフィールドの周波数分析はプレノプティックサンプリング理論を使用して行われる。そこでは、シーンのスペクトルが物体深度の関数として分析される。これは、ほとんどのライトフィールドがエイリアス化される(輪郭がギザギザになる)ことを明らかにする。エイリアシングを取り除いて、元のスペクトルを可能な限り保存するために、再構成フィルタを適用できる。
自動多視点ディスプレイの上にライトフィールドを表示するのに再パラメータ化を使用できる。ところが、再パラメータ化はディスプレイのエイリアシングに対処しない。
再構成フィルタを広い開口フィルタにより改善することができる。これにより、焦点面上でシャープネス(鮮明度)を犠牲にすることなく、より大きな被写界深度で3次元画像を生成することができる。
再構成フィルタを広い開口フィルタにより改善することができる。これにより、焦点面上でシャープネス(鮮明度)を犠牲にすることなく、より大きな被写界深度で3次元画像を生成することができる。
また、ディスプレイ品質は3次元レンダリングシステムにおける1つの重大な問題ではあるが、処理されて、レンダリングされて、そのようなディスプレイに伝送されるために必要なデータの量を考慮に入れなければならない。ライトフィールドデータはステレオ画像のペア(対)に基づくシステムに対するよりも少なくとも1桁以上大きいので、データ圧縮プロセスが必要となる。伝送帯域幅が減少されて、受信器での復号化リソースを最小限に保持することが、特に重要である。
従来の方法のいずれも、自動多視点ディスプレイに対するサンプリングおよびアンチエイリアシングに対処していない。従来の方法は、ディスプレイのサンプリングレートを考慮に入れておらず、再構成の間、サンプリングされたライトフィールドからエイリアシングを取り除くという問題を考慮しているだけである。その上、従来の方法のいずれも、圧縮システムまたは方法との関連においてサンプリングおよびアンチエイリアシングを採用していない。
[発明の概要]
この発明は、テレビおよびデジタルエンターテインメントに対して使用できる3次元ディスプレイ(表示)システムおよび方法を提供する。そのような表示システムは、高品質のライトフィールドデータを必要とする。カメラアレイを使用して入力ライトフィールドを取得し、離散的自動多視点ディスプレイ上に出力ライトフィールドをレンダリングする。しかし、ほとんどいつも、取得装置とディスプレイ装置とは、異なるサンプリングパターンを有する。
この発明は、テレビおよびデジタルエンターテインメントに対して使用できる3次元ディスプレイ(表示)システムおよび方法を提供する。そのような表示システムは、高品質のライトフィールドデータを必要とする。カメラアレイを使用して入力ライトフィールドを取得し、離散的自動多視点ディスプレイ上に出力ライトフィールドをレンダリングする。しかし、ほとんどいつも、取得装置とディスプレイ装置とは、異なるサンプリングパターンを有する。
したがって、この発明はライトフィールドデータを再サンプリングする。ところで、再サンプリングは、エイリアシングアーティファクトの傾向がある。ライトフィールドデータの表示で最も不穏なアーティファクトは、インターパースペクティブ(相互透視)なエイリアシングによって引き起こされる。
この発明は、そのようなインターパースペクティブエイリアシングを最小にする、ライトフィールドの再サンプリング方法を提供する。本方法は、ライトフィールドの高品質なレンダリングを自動多視点表示装置上に提供する。本方法は、ライトフィールド再構成フィルタと、ディスプレイ(表示)装置のサンプリンググリッド(格子)によって決定されるディスプレイ(表示)プレフィルタとを結合する。
従来の方法と比べて、この発明の再サンプリング方法は、深度情報を必要としない。この発明方法は、高品質のレンダリングを生成するために、効率的に複数のフィルタリングステージを結合する。この発明方法は、レンズのディスプレイ画面またはパララックス‐バリアディスプレイ画面上にライトフィールドを表示するために使用できる。
[システム概要]
図1は、この発明の実施の形態1によるライトフィールド取得システム100を示している。複数のカメラ115は、シーン110の一連のイメージ101、例えば、ビデオ(映像)、を取得する。それらのカメラは、水平な線形アレイとして配置され得る。好ましくは、カメラは互いに同期を取られている。入力画像系列は、この発明の方法105により処理される。その処理は、一連の出力画像102を生成するために、再構成、再サンプリング、プリ(前置)フィルタリング、およびサンプリングの各工程を含む。そして、出力画像が、複数のプロジェクタ125により自動多視点表示装置120に表示される。また、それらのプロジェクタは、互いに同期され、且つ水平な線形アレイとして配置されうる。表示装置120は、プロジェクタとビューイングゾーン(視聴域)130とに対面する側で、上下方向に指向されたレンズ状スクリーン122の上に設けられたパララックスバリア121を含む。
図1は、この発明の実施の形態1によるライトフィールド取得システム100を示している。複数のカメラ115は、シーン110の一連のイメージ101、例えば、ビデオ(映像)、を取得する。それらのカメラは、水平な線形アレイとして配置され得る。好ましくは、カメラは互いに同期を取られている。入力画像系列は、この発明の方法105により処理される。その処理は、一連の出力画像102を生成するために、再構成、再サンプリング、プリ(前置)フィルタリング、およびサンプリングの各工程を含む。そして、出力画像が、複数のプロジェクタ125により自動多視点表示装置120に表示される。また、それらのプロジェクタは、互いに同期され、且つ水平な線形アレイとして配置されうる。表示装置120は、プロジェクタとビューイングゾーン(視聴域)130とに対面する側で、上下方向に指向されたレンズ状スクリーン122の上に設けられたパララックスバリア121を含む。
取得された入力画像101における離散的な入力サンプルには低い空間分解能と高い角度分解能があり、また、表示された出力画像102における離散的な出力サンプルには、高い空間分解能と低い角度分解能があるので、アーティファクトの無い表示を生成するために、再サンプリングが必要である。
[方法の概要]
図1Bに示されているように、本方法105は3つの工程で進む。一般に、我々は信号およびフィルタを周波数ドメイン(領域)で表す。まず最初に、連続信号152が入力画像101から再構成150される。我々は公知の再構成フィルタを適用する。次に、我々は、信号を表示座標へ再パラメータ化160して、再パラメータ化されたライトフィールド161を生成する。その後、最後の工程170では、信号は、ディスプレイ(表示)ピクセル格子のナイキスト限界に適合させるために、プレ(前置)フィルタにかけられて、出力画像として表示ピクセル格子に抽出される。
図1Bに示されているように、本方法105は3つの工程で進む。一般に、我々は信号およびフィルタを周波数ドメイン(領域)で表す。まず最初に、連続信号152が入力画像101から再構成150される。我々は公知の再構成フィルタを適用する。次に、我々は、信号を表示座標へ再パラメータ化160して、再パラメータ化されたライトフィールド161を生成する。その後、最後の工程170では、信号は、ディスプレイ(表示)ピクセル格子のナイキスト限界に適合させるために、プレ(前置)フィルタにかけられて、出力画像として表示ピクセル格子に抽出される。
[表示パラメータ化]
図2は、マルチビューオートマルティスコーピック(多視点自動立体)表示装置120に対するパラメータ化を示している。このパラメータ化は、あらゆる配置場所と方向に対してビューイングゾーン130でライトアレイ(光配列)を再生させることを試みる。
我々は2つの平面の交差部で光線をパラメータ化する。表示装置120に対して、我々は、パララックスバリア面121をt座標として、および高解像スクリーン122をv座標として使用する。なお、光線のv座標はt平面との交差部に対すものである。スクリーン122のピクセル間隔はΔv、バリア121の空隙の間隔はΔt、スクリーンとバリアの間の間隔はfであり、また、深度は、一般的に、zで示される。
図2は、マルチビューオートマルティスコーピック(多視点自動立体)表示装置120に対するパラメータ化を示している。このパラメータ化は、あらゆる配置場所と方向に対してビューイングゾーン130でライトアレイ(光配列)を再生させることを試みる。
我々は2つの平面の交差部で光線をパラメータ化する。表示装置120に対して、我々は、パララックスバリア面121をt座標として、および高解像スクリーン122をv座標として使用する。なお、光線のv座標はt平面との交差部に対すものである。スクリーン122のピクセル間隔はΔv、バリア121の空隙の間隔はΔt、スクリーンとバリアの間の間隔はfであり、また、深度は、一般的に、zで示される。
1箇所でt−平面と交差する全ての光線は1つのマルチビューピクセルに対応し、また、v−平面との各交差部は視点依存サブピクセルである。我々は、マルチビューピクセルの個数を空間分解能と呼び、1マルチビューピクセル当たりの視点依存サブピクセルの個数を角度分解能と呼ぶ。
図3に示されているように、表示光線は光線空間で、より高次元の格子を形成する。ほとんどの先行する物理的な表示は、図3に示されているように、4辺形のサンプリング格子に対応しない。図2の各光線は、図3の1つのサンプル点301に対応している。ほとんどの自動多視点表示は、ホリゾンタルパララックス(地平視差)のみを与える、すなわちディスプレイはv−平面上の水平方向にのみサンプルを行う。したがって、我々はt−平面上の各走査線を独立して処理でき、それは2次元光線空間に通じる。
我々は、v=constで1片の光線空間を表すのに、「ディスプレイビュー」という用語を使用する。なお、ディスプレイビューはシーンの平行射影である。一般性を損なわなければ、私たちは、平面vおよびtの間の距離fが1に正規化されると仮定する。3次元ディスプレイのこのような光線空間の解釈は、我々がそれらのバンド幅、被写界深度、およびプリフィルタリングを理解することを可能にする。
[バンド幅]
図4に示されているように、図3のサンプリング格子はディスプレイで表すことができるバンド幅に厳しい限界値を課す。これはナイキスト限界として知られている。私たちは、角度的および空間的な周波数をφおよびθで表し、サンプル間隔をΔvおよびΔtで表す。
そして、表示バンド幅Hは次式(1)で与えられる。
図4に示されているように、図3のサンプリング格子はディスプレイで表すことができるバンド幅に厳しい限界値を課す。これはナイキスト限界として知られている。私たちは、角度的および空間的な周波数をφおよびθで表し、サンプル間隔をΔvおよびΔtで表す。
そして、表示バンド幅Hは次式(1)で与えられる。
[被写界深度]
ディスプレイの被写界深度は、φおよびθ軸の任意の相対的なスケーリングを有する、四角形状のバンド幅の対角線により与えられる。我々は、通常、空間的方向(θ軸)において、角度的方向(φ軸)におけるよりも2桁大きな、それら2軸の相対的な分解能を反映するスケーリング(尺度)を選択した。
ディスプレイの被写界深度は、φおよびθ軸の任意の相対的なスケーリングを有する、四角形状のバンド幅の対角線により与えられる。我々は、通常、空間的方向(θ軸)において、角度的方向(φ軸)におけるよりも2桁大きな、それら2軸の相対的な分解能を反映するスケーリング(尺度)を選択した。
一定深度のシーンのライトフィールドのスペクトルすなわちレイスペース(光線空間)信号のスペクトルは線φ/z+θ=0で与えられる。ここで、zは、図2に示されるように、t−平面からの距離である。深度|z|≦Δt/Δvのシーンに対して、スペクトル線は四角形状の表示バンド幅と左右の垂直な境界で交差する。これは、これらのシーンが表示の最も高い空間分解能θ=π/Δtで示され得ることを意味する。しかし、|z|>Δt/Δvのシーンに対しては、スペクトルは表示バンド幅と水平境界で交差する。その結果、それらの空間周波数はθ=π/Δvに減少する。これは表示の空間分解能よりも低いので、これらのシーンはぼやけて見えるであろう。
この振る舞いは、写真被写界深度の影響およびライトフィールド写真術における正確な再焦点合わせ領域と同様である。領域|z|≦Δt/Δvは、3次元ディスプレイにより最大の空間分解能で再生されることができる領域である。我々は、これをディスプレイの被写界深度と呼ぶ。ライトフィールド写真術と同様に、被写界深度は、1/Δvすなわち角度寸法におけるナイキスト限界値に比例する。
利用可能な表示は非常に小さな角度バンド幅を有するので、表示は浅い被写界深度を示す。例えば、Δv=0.0625mmおよびΔt=2mmであれば、被写界深度は±32mmだけである。これは、表示面から32mmより大きな距離に在るように見える如何なるシーン要素もぼやけることを意味する。視点依存サブピクセルに対してピッチが0.25mmであり、高解像スクリーンとパララックスバリアとの間の距離が4mmであれば、これは8つのビュー(視点)と約25度の視野に対応する。これは非常に小さい範囲のように思われるが、ビューイング(視聴)ゾーンにおいて数メータまでの視聴距離に対して奥行(深度)知覚の説得力がある幻想を引き起こすのには十分である。
与えられたディスプレイに対してシーンを特徴付けるために、ディスプレイの被写界深度に対してシーン深度を特定することが有用である。興味深いことには、被写界深度に対するシーン深度の比率(d(z)=zΔv/Δt)はディスプレイ上のビューの間のディスパリティ(視差)に対応する。換言すると、シーン深度とビュー間の視差は交換可能である。この定義によれば、最大視差d<1を有するシーンはディスプレイの被写界深度内に在る。所与の視差d>1は、空間帯域幅が1/dの比率だけ減少されることを意味する。
[プレ(前置)フィルタリング]
連続信号をサンプリングするとき、エイリアシングを避けるために、信号をバンド制限する必要がある。式(1)から、これが、3次元ディスプレイに対して、四角形状の表示バンド幅の外側の入力の全ての部分を捨てる表示プレフィルタHのスペクトルに入力スペクトルを掛けるという簡単な事柄であることが分かる(図4の右を参照)。なお、このプレフィルタは、表示格子によるエイリアシングだけを扱い、ライトフィールド取得の間に起こり得るエイリアシングを考慮しないことに注意すべきである。
連続信号をサンプリングするとき、エイリアシングを避けるために、信号をバンド制限する必要がある。式(1)から、これが、3次元ディスプレイに対して、四角形状の表示バンド幅の外側の入力の全ての部分を捨てる表示プレフィルタHのスペクトルに入力スペクトルを掛けるという簡単な事柄であることが分かる(図4の右を参照)。なお、このプレフィルタは、表示格子によるエイリアシングだけを扱い、ライトフィールド取得の間に起こり得るエイリアシングを考慮しないことに注意すべきである。
3次元ディスプレイの従来のバンド幅分析は、この発明の実施の形態による信号処理とは対照的に、ほとんど波動光学または幾何学的基準に基づいている。波動光学は、回折効果を研究するためには役に立つが、回折限界から遠く離れて作動する離散的な3次元ディスプレイを分析するのには有効でない。
我々の手法と対照的に、従来の技術は、シーン深度に関する明白な知識を必要とする表示バンド幅のモデルを導き出す。それらの従来技術は、2次元入力画像の深度に依存するフィルタリングを提唱する。各2次元ビューを個別に帯域制限することは、フィルタリングが空間的に変動することを要求されるので、難しい。1つの解は、そのシーンにおける最大深度に相当する線形フィルタを各ビューに適用することである。ところで、それは、利用可能な表示バンド幅の大部分を浪費し、酷くぼやけた結果に通じる。対照的に、我々の方法では、プレフィルタリングは、光線空間での直線的な操作である。
我々のプリフィルタリングを行わなければ、エイリアシングはゴーストアーティファクトとして現れる。我々の再サンプリングは、ゼロディスパリティ(ゼロ視差)平面の周りの、すなわちディスプレイの光線空間パラメータ化におけるt−平面の周りの、空間周波数を保存する。
[3次元ディスプレイのための再サンプリング]
以上で、自動多視点ディスプレイのバンド幅を分析し、エイリアシングを避けるために連続入力信号をどのようにプレフィルタリングする必要があるかについて分析した。しかし、実際には、ライトフィールドはサンプル信号として表わされ、通常、それらサンプル信号は、カメラアレイを使用して取得される。サンプリングされたライトフィールドを自動多視点ディスプレイ上に示すために、入力ライトフィールドのサンプル101が、そのディスプレイのサンプル102すなわちピクセルにマップされる必要がある。
以上で、自動多視点ディスプレイのバンド幅を分析し、エイリアシングを避けるために連続入力信号をどのようにプレフィルタリングする必要があるかについて分析した。しかし、実際には、ライトフィールドはサンプル信号として表わされ、通常、それらサンプル信号は、カメラアレイを使用して取得される。サンプリングされたライトフィールドを自動多視点ディスプレイ上に示すために、入力ライトフィールドのサンプル101が、そのディスプレイのサンプル102すなわちピクセルにマップされる必要がある。
残念ながら、カメラアレイや自動多視点ディスプレイなどの典型的なライトフィールド取得装置のサンプリングパターンは、光線と1対1対応にならない。したがって、自動多視点ディスプレイ上にライトフィールドを示すことは、再サンプリング操作を含む。
さて、ライトフィールド取得およびライトフィールド表示中に関わる両サンプリング工程、すなわち、シーン取得中に起こるサンプリング、およびカメラのサンプルを表示ピクセルにマッピングするときに行われるサンプリング、によるエイリアシングアーティファクトを避ける再サンプリングフレームワークついて説明する。
我々の技術は、Heckbertにより記述され、本明細書中に引用により援用される再サンプリング方法論(Fundamentals of Texture Mapping and Image Warping, Ucb/csd 89/516, U.C. Berkeley, 1989)に基づいている。ところで、その再サンプリングは、コンピュータグラフィックにおけるテクスチャマッピングのためのものである。対照的に、我々は、現実世界のライトフィールドを再サンプリングする。
我々は、どのようにして入力ライトフィールドを再パラメータ化して、それをディスプレイと同じ座標系で表わすかについて説明する。これは、以下に述べるように、我々が再構成とプリフィルタリングとを結合する再サンプリングフィルタを導き出すのを可能にする。
[再パラメータ化]
我々の結合された再サンプリングフィルタを導き出す前に、我々は、入力ライトフィールドおよび3次元ディスプレイに対する共通のパラメータ化を確立する必要がある。我々は、以後の説明を、ライトフィールドパラメータ化がディスプレイに平行である最も一般的な場合に制限する。
我々の結合された再サンプリングフィルタを導き出す前に、我々は、入力ライトフィールドおよび3次元ディスプレイに対する共通のパラメータ化を確立する必要がある。我々は、以後の説明を、ライトフィールドパラメータ化がディスプレイに平行である最も一般的な場合に制限する。
カメラおよび焦点面の入力座標は、tinおよびvinによってそれぞれ指定され、tin軸からの距離または深度はzinにより指定され、サンプリング間距離はΔtinおよびΔvinにより指定される。また、tin軸はカメラベースラインとも呼ばれる。同様に、我々は、ディスプレイ座標td、vd、zd、Δtd、およびΔvdを使用する。一般性を損なわなければ、我々は、ディスプレイ入力および入力ライトフィールドの両方に対するt−平面およびv−平面間の距離が1に正規化されるものと仮定する。
入力およびディスプレイ座標の関係は単一のパラメータfinにより与えられ、それはカメラ平面tinとディスプレイのゼロ視差平面tdとの間の距離である。この変換は光線空間におけるシャー(ずれ)に対応している。
Mはこの式の中央部における2×2マトリクスである。
自動多視点ディスプレイは、通常、高い空間分解能、例えば1走査線当たり数百のマルチビュー(多視点)ピクセル、および低い角度分解能、例えば、約10の視点依存サブピクセルを有する。対照的に、取得されたライトフィールドは、低い空間分解能、例えば数十のカメラ、および高い角度分解能、例えば1走査線当たり数百のピクセルを有する。
自動多視点ディスプレイは、通常、高い空間分解能、例えば1走査線当たり数百のマルチビュー(多視点)ピクセル、および低い角度分解能、例えば、約10の視点依存サブピクセルを有する。対照的に、取得されたライトフィールドは、低い空間分解能、例えば数十のカメラ、および高い角度分解能、例えば1走査線当たり数百のピクセルを有する。
図5に示されているように、これは、非常に異方性であり、且つお互いに対してねじれた2つのサンプリング格子に通じる。図5では、サンプル501はディスプレイ走査線サンプルを表し、またサンプル502はカメラ走査線サンプルを表す。
[結合された再サンプリングフィルタ]
図6は、再サンプリング方法をさらに詳細に示す。左側が入力パラメータ化であり、右側が出力パラメータ化であり、下側が取得空間から表示空間までの再パラメータ化である。図6は、象徴的に入力スペクトル611、レプリカ612、およびフィルタ613を示している。
図6は、再サンプリング方法をさらに詳細に示す。左側が入力パラメータ化であり、右側が出力パラメータ化であり、下側が取得空間から表示空間までの再パラメータ化である。図6は、象徴的に入力スペクトル611、レプリカ612、およびフィルタ613を示している。
図6に示されるように、3次元ディスプレイアンチエイリアシングのための再サンプリング方法は、周波数ドメイン(領域)における信号およびフィルタを表す3つの工程で進む。まず最初に、連続信号が、角度および空間周波数φinおよびθinで表される、最初の入力パラメータ化601で与えられた入力データ101から再構成150される。
この工程におけるエイリアシングの問題を避け、入力信号の最適な利用を図るために注意しなければならない。我々はライトフィールドレンダリングのために公知の再構成フィルタを適用する。(Stewart et al、”A new reconstruction filter for undersampled light fields”、 Eurographics Symposium on Rendering,ACM International Conference Proceeding Series,pp.150−156,2003、およびChai et al、”Plenoptic sampling”、Computer Graphics,SIGGRAPH 2000 Proceedings、pp.307−318を参照。両者を本明細書中に引用により援用する。)
これらの技術は、隣接するレプリカと重なり合う部分を捨てつつ、サンプリングされたスペクトルから中央のレプリカの最大領域を抽出する。
次に、我々は、上述のマッピングを使用して、再構成された信号を、φdおよびθdによって表されたディスプレイ座標621へ再パラメータ化160する。
そして、最後の工程170では、信号は、上述のように、表示ピクセル格子のナイキスト限界に適合させるために、プレフィルタされて、表示ピクセル格子にサンプルされる。プリフィルタリングは、ディスプレイ座標におけるサンプル信号のレプリカが重なり合わないことを保証する。これのより、ぼやけ(ブレ)効果が避けられる。
我々は、いま、上述した3つの工程を結合することによって、統合された再サンプリングフィルタを導き出す。我々は、実用化に対してより役に立つ空間領域で作業する。我々は以下の通り作業を進める。すなわち、入力ライトフィールド101のサンプルξi,jを考えると、我々は連続したライトフィールドlin152を再構成150する。
ここで、rはライトフィールド再構成カーネルを表す。
式(2)を使用して、我々は、次式(4)により、再構成されたライトフィールド152をディスプレイ座標161へ再パラメータ化160する。
式(2)を使用して、我々は、次式(4)により、再構成されたライトフィールド152をディスプレイ座標161へ再パラメータ化160する。
ディスプレイ座標で表わされた、再構成されたライトフィールドを、ディスプレイプレフィルタhで畳み込んで、次式(5)のバンド(帯域)限定された信号(以下、バンド限定信号と呼ぶ)を生成する。
この信号をディスプレイグリッド(表示格子)上にサンプリングする場合、如何なるエイリアシングアーティファクトも発生しない。
上記の3つの工程を結合することによって、次式(6)のように、バンド限定信号を入力サンプルの加重和として表す。
重み付けカーネルρは、所謂、再サンプリングフィルタである。それは、ディスプレイ座標で表された再構成カーネルのコンボルーション(畳み込み)として定義され、そのプレフィルタは次式(7)により表される。
我々は、従来のガウス関数を使用して、全てのライトフィールド再サンプリングフィルタを実施した。
再構成フィルタとプレフィルタの両方が高異方性であるので、できるだけ信号帯域幅を保持するために、慎重にフィルタを調整する。なお、式(2)は[φin、θin]=[φs、θd]M−1を含意することに注意すべきである。したがって、入力スペクトルは垂直軸に沿って剪断される。
また、我々は、線θinfin+φin=0(深度zin=finに相当する)がディスプレイのゼロ視差平面にマップされることに注目する。したがって、入力座標で表されるディスプレイの被写界深度は、カメラからの距離fin=Δt/Δvにある。これは、カメラ平面とディスプレイ平面との間の距離finが、対象となる物体に対して、zin−fin=zd<Δt/Δvとなるように選択されることを意味する。
[カメラベースラインおよび被写界深度]
上述したような、入力ライトフィールドと出力ライトフィールドとの関係は、ディスプレイが均等にスケーリングされたシーンに対するバーチャル(仮想)ウィンドウとして働くことを含意する。ディスプレイは、異なった、通常はより小さな、スケール(縮尺)でシーンのライトフィールドを再生させる。しかし、これを実現するのは、しばしば、望ましくないし、実際に可能でもない。
上述したような、入力ライトフィールドと出力ライトフィールドとの関係は、ディスプレイが均等にスケーリングされたシーンに対するバーチャル(仮想)ウィンドウとして働くことを含意する。ディスプレイは、異なった、通常はより小さな、スケール(縮尺)でシーンのライトフィールドを再生させる。しかし、これを実現するのは、しばしば、望ましくないし、実際に可能でもない。
シーンの深度領域が比較的浅いディスプレイの被写界深度を遙かに超えていることは、珍しくない。このことは、シーンの大部分がディスプレイバンド幅の外側であることを意味し、それは酷くぼけたビューにつながる恐れがある。さらに、野外のセット等のように、対象物体がカメラから遠く離れているシーンに対して、上記仮定は、非常に大きなカメラベースラインが必要とされることを意味する。また、それは、ディスプレイの観察者によって見られる一対の立体ビューが、現実のシーンにおける観察者の2つの目より遙かに離れている、物理的に遠く離れているカメラに相当することを意味するであろう。
これらの問題は、カメラベースラインの寸法を変えることによって、解決できる。これは、シーンの表示された深度を減少させる入力ライトフィールドの追加の1次変換として表すことができる。この追加の自由度により、我々が、焦点の合うことを必要とする入力シーンにおける望ましい深度範囲を特定することが可能になる。我々は、この深度範囲をディスプレイ被写界深度にマッピングする、所要のカメラベースラインスケーリングを推論する。
[カメラベースラインのスケーリング]
図7に示されるように、取得の間にカメラベースラインtin701を変更することは、表示された構成を変換することに対応する。図7では、実線は取得ジオメトリを示しており、また点線はディスプレイしジオメトリを示している。
図7に示されるように、取得の間にカメラベースラインtin701を変更することは、表示された構成を変換することに対応する。図7では、実線は取得ジオメトリを示しており、また点線はディスプレイしジオメトリを示している。
観察者710は、与えられた位置で、カメラベースラインの中心により近いカメラによって取得される透視図を見る。すなわち、我々は、ベースライン平面tinとの交差部が倍率s>1によりスケーリング(拡大)され、ディスプレイのゼロ視差平面との交差部(すなわちtd−平面)が保存されるように、各取得されたカメラ光線を再マッピングする。
このマッピングは入力光線空間の線形(1次)変換に対応しており、また、光線空間の如何なる線形(1次)変換もシーンジオメトリの射影変換に対応する。図7に示された変換のために、射影変換は次式(8)のようになる。
すなわち、シーンにおける点(x、z)は点(x’/w’、z’/w’)にマッピングされる。また、図7にシーンジオメトリの射影変換を示す。このシーン変換は、ステレオビュー融合を支援するのに使用される立体ディスプレイで使用される深度削減法と密接に関連する。この変換は無限のポイント、すなわちz=∞、を有限の深さz’/w’=(fins/(s−1+fin)へ移動する。
さらに、sが無限へ近づくとき、z’/w’はfinに近づく。これは、シーン深度がディスプレイのゼロ視差平面に向かって圧縮されることを意味する。我々は、図7に示されるマッピングを含めることにより、ディスプレイ座標から入力座標への変換を一般化する。この変換は次式(9)のようになる。
我々は、このマッピングが自由なパラメータfinおよびsによって決定されることを強調するために、それをM(fin、s)と呼ぶ。
[シーン被写界深度の制御]
実際的な適用では、ユーザは、シーンにおける所与の深度範囲がディスプレイの被写界深度にマッピングされて、シャープ(鮮明)に見えることが保証されることを望んでいる。限定された深度範囲内のシーン要素のバンド幅が2つのスペクトル線で制限されていることを想起すべきである。さらに、ディスプレイの被写界深度は、四角形状のバンド幅の対角線により与えられる。式(9)の2つのフリー(自由)パラメータ、カメラベースラインをスケーリング(拡大、縮小)するためのs、およびシーンに対してディスプレイのゼロ視差平面を位置決めするためのfinを使用して、我々はこれらの2組の線を配列して、期待される効果を発揮するマッピングを決定する。
実際的な適用では、ユーザは、シーンにおける所与の深度範囲がディスプレイの被写界深度にマッピングされて、シャープ(鮮明)に見えることが保証されることを望んでいる。限定された深度範囲内のシーン要素のバンド幅が2つのスペクトル線で制限されていることを想起すべきである。さらに、ディスプレイの被写界深度は、四角形状のバンド幅の対角線により与えられる。式(9)の2つのフリー(自由)パラメータ、カメラベースラインをスケーリング(拡大、縮小)するためのs、およびシーンに対してディスプレイのゼロ視差平面を位置決めするためのfinを使用して、我々はこれらの2組の線を配列して、期待される効果を発揮するマッピングを決定する。
我々は、2つの対応するペア(対)のスペクトル線を等しくすることにより、マッピングを決定する。すなわち、第1のペアはディスプレイ座標にマッピングされた、ユーザにより特定された深度範囲を限定し、また第2のペアはディスプレイの被写界深度を定義する。我々は、ユーザがディスプレイ上に焦点を結ぶように望む、最小および最大のシーン深度zminおよびzmaxをzfrontおよびzbackで表す。パラメータsおよびfinに対する解は、それぞれ次式(10)、(11)で表される。
[取得の最適化]
3次元ディスプレイ上に示されるライトフィールドのスペクトルとエイリアシングは、カメラの数、それらの間隔、それらの開口、シーン深度範囲、およびディスプレイ解像度等の多くの取得パラメータ(取得パラメータ化)およびディスプレイパラメータ(表示パラメータ化)に依存する。3次元映写技師の決定は、芸術的な選択、物理的制約、および取得バンド幅とディスプレイバンド幅との最適利用の願望、の組合せによって行われる。したがって、我々は、これらの要素がどのように相互作用して、3次元ディスプレイに対する最終的なスペクトルおよびエイリアシングにどのように影響を及ぼすかを分析する。
3次元ディスプレイ上に示されるライトフィールドのスペクトルとエイリアシングは、カメラの数、それらの間隔、それらの開口、シーン深度範囲、およびディスプレイ解像度等の多くの取得パラメータ(取得パラメータ化)およびディスプレイパラメータ(表示パラメータ化)に依存する。3次元映写技師の決定は、芸術的な選択、物理的制約、および取得バンド幅とディスプレイバンド幅との最適利用の願望、の組合せによって行われる。したがって、我々は、これらの要素がどのように相互作用して、3次元ディスプレイに対する最終的なスペクトルおよびエイリアシングにどのように影響を及ぼすかを分析する。
まず最初に、我々は、カメラ開口の、取得されたバンド幅に対する影響について説明する。次に、我々は、全ての取得パラメータとディスプレイパラメータの結果について説明し、取得の間、パラメータの選択を最適化するのに、どうようにこの分析を使用できるかを示す。
[有限開口カメラ]
上述したチャイ外は、理想化されたピンホールカメラで取得されたライトフィールドのスペクトルについて述べた。ここで、我々は、現実のカメラの有限開口がピンホールライトフィールドのスペクトルにバンド(帯域)制限効果を持つことを示す。我々の導出は、図2、3、5および7に示したものと若干異なるパラメータ化に基づいている。
上述したチャイ外は、理想化されたピンホールカメラで取得されたライトフィールドのスペクトルについて述べた。ここで、我々は、現実のカメラの有限開口がピンホールライトフィールドのスペクトルにバンド(帯域)制限効果を持つことを示す。我々の導出は、図2、3、5および7に示したものと若干異なるパラメータ化に基づいている。
図8Aに示すように、我々は、カメラの共通の焦点面としてt−平面を選択し、またtinを距離dだけ離れたレンズ801の平面として、v−平面をカメラセンサを含む平面として、それぞれ選択する。平面vinおよびtinは、上述したように、距離1だけ離れている。
我々は、大きさaの開口がカメラセンサから距離fだけ離れてレンズ上に存在すると仮定する。これは正確には現実のレンズに対する場合ではないが、誤差は我々の目的に対しては無視しうるものである。薄肉のレンズモデルによると、センサ平面で取得された如何なる光線l(v、t)も、次式(12)に示すように、レンズを透過する全ての光線lバー(v、t)の重み付け積分に対応する。
ここで、積分範囲は、図8Aに示されるように、開口に対応し、また、αはセンサ平面の法線と光線との間の角度である。我々は、4次元ライトフィールドの代わりに2次元ライトフィールドで、且つ2次元レンズおよびセンサの代わりに1次元レンズおよびセンサで作業しているが、我々の導出はより高い次元の場合にも等しく適用される。
そして、我々がv−平面に平行な平面でレンズを「摺動させる」と仮定すると、これを畳み込み(13)として表すことができる。
ここでb(v、t)は開口フィルタである。我々は、cos4の項を無視して、bを次式(14)のように定義する。
フーリエドメイン(領域)では、式(13)における畳み込みはシーンライトフィールドとカメラ開口フィルタのスペクトルの積である。我々は、図8Bに示されるように、θに沿って変換(移動)されたφにおける正弦基数関数(sinc)であるカメラ開口フィルタのスペクトルを、θに沿って変換(移動)されたφにおける幅2πd/(a(f+d))のボックス802により近似する。
上記の再サンプリングに対して使用されたと同様の変換を使用して、我々はいま座標を入力ライトフィールドのパラメータ化に戻し、その結果、図8Cに示されたバンド幅803をもたらす。距離dにフォーカスされた有限開口aを有するレンズを通して観察された連続したライトフィールドは、幅2π/aおよび傾き−dの剪断されたスラブ(平板)にバンド限定される。
[バンド幅利用および最小サンプリング]
実際的応用では、利用可能なカメラの数は制限される。また、カメラの配置も制約されうる。したがって、制限され且つ制約された資源に対する最適な装置構成を決定することが望まれる。我々の再サンプリング技術で、セットアップを推測することができる。我々は、取得パラメータを考慮して、再サンプリングフィルタの最適な「形状」を決定し、ディスプレイバンド幅に対するその再サンプリングフィルタのバンド幅を分析することができる。
実際的応用では、利用可能なカメラの数は制限される。また、カメラの配置も制約されうる。したがって、制限され且つ制約された資源に対する最適な装置構成を決定することが望まれる。我々の再サンプリング技術で、セットアップを推測することができる。我々は、取得パラメータを考慮して、再サンプリングフィルタの最適な「形状」を決定し、ディスプレイバンド幅に対するその再サンプリングフィルタのバンド幅を分析することができる。
我々は、サンプリングされた入力信号101におけるエイリアシングが、利用可能なバンド幅を減少させる主な要因であることに気付いた。カメラの定数を考えて、このバンド幅を増大させるための2つの主なオプションがある。まず最初に、我々はカメラベースラインを減少させることができ、これにより、ディスプレイにマッピングされるとき、シーンの深度を小さくする。この場合、入力スペクトルは深度減少で角度方向φdにより狭くなる。明らかに、カメラベースラインをあまりにも減少させすぎると、シーン深度が感じ取れなくなる恐れがある。2番目に、我々はカメラ開口を増大させることができる。しかし、カメラ開口が大き過ぎると、取得された被写界深度がディスプレイ被写界深度より浅くなる恐れがある。我々は、カメラの焦点深度がfinに等しくなるように選択する。それは、取得された入力スペクトルのスラブが四角形状のディスプレイバンド幅に平行であることを意味する。
代わりのセットアップでは、与えられたシーンを取得し、物体を或る程度のフォーカス深度に保つことが、望ましい。したがって、ディスプレイに高品質の結果を実現するために必要とされる最小のサンプリングレートが決定される。直観的には、再構成エイリアシングがディスプレイのバンド幅内に現れないとき、サンプリングレートは与えられたディスプレイに対して充分である。取得サンプリングレートをこの評価基準を超えて増大させても、出力品質は向上しない。
我々は、入力座標からディスプレイ座標へのマッピングを決定する、焦点距離finとベースラインスケーリングsを決定するために、式(11)を使用する。次に、我々は、入力スペクトルのレプリカの最もタイトなパッキングを見出すことによって、非中心レプリカのいずれもがディスプレイプレフィルタと重なり合わないように、最小のサンプリングレートを導き出す、すなわち、カメラの最小数および最小分解能を導き出す。これにより、所要のカメラの個数をディスプレイの角度分解能に減少させることが可能である。しかし、これを実現するのは、より大きなカメラ開口が必要とされるので、しばしば非実用的である。
[ビュー挿入]
再構成工程150および再パラメータ化工程160に代わるものとして、サンプリングされた入力ライトフィールド101から再パラメータ化されたライトフィールド161を決定するために、ビュー補間を使用することもできる。深度マップが利用可能であれば、再投影を使用して、例えば、ブーラ(Buehler)外の非構造化ルミグラフレンダリングプロセス、「Unstructured Lumigraph Rendering」、 Proceedings of ACM SIGGRAPH, pp. 425‐432, Aug. 2001、(本明細書中に引用により援用される)を使用して、ビュー補間を実現することができる。
再構成工程150および再パラメータ化工程160に代わるものとして、サンプリングされた入力ライトフィールド101から再パラメータ化されたライトフィールド161を決定するために、ビュー補間を使用することもできる。深度マップが利用可能であれば、再投影を使用して、例えば、ブーラ(Buehler)外の非構造化ルミグラフレンダリングプロセス、「Unstructured Lumigraph Rendering」、 Proceedings of ACM SIGGRAPH, pp. 425‐432, Aug. 2001、(本明細書中に引用により援用される)を使用して、ビュー補間を実現することができる。
エイリアシングアーティファクトを避けるために、信号はv−平面に沿ってオーバ(過剰)サンプリングされる。オーバサンプリングされた信号は、ディスプレイバンド幅内でエイリアシングアーティファクトが減少される。ビュー補間技術は、ディスプレイが実際に提供するより多くのビューを生成するために使用される、すなわちv−平面においてより小さな間隔でビューを生成するために使用される。フィルタリングの後に、信号は、ディスプレイの元の分解能へサブ(副)サンプリングされる、すなわち表示パラメータ化される。
スペクトルの非中心レプリカのいずれもディスプレイプレフィルタと重なり合わないならば、エイリアシングは防止される。我々は、ディスプレイ分解能でサンプリングされたマルチビュー信号はdピクセルの最大視差を有すると仮定する。スペクトルの傾きは最大視差dに対応する。したがって、スペクトルの傾きの水平距離は、フィルタとのオーバラップ(重なり合い)を取り除くため、少なくとも(d+1)/2ピクセルである必要性がある。これは、(d+1)/2のオーバサンプリング率を含意する。したがって、kビューのディスプレイに対して、補間するビューの総数は少なくともk*((d+1)/2)ビューである。
[ディスプレイプリフィルタリング]
マルチビュービデオ(多視点映像)のプリフィルタリングは3次元ディスプレイのパラメータが既知であるシステムに対して適用でき、また、信号帯域幅は、圧縮前に、ディスプレイの能力に適合させることが出来る。このタイプの処理はビデオゲームシステムあるいはデジタルシネマアプリケーションに対して適用でき、また、それは伝送される信号の所要のバンド幅を最小にするのに役に立つ。
マルチビュービデオ(多視点映像)のプリフィルタリングは3次元ディスプレイのパラメータが既知であるシステムに対して適用でき、また、信号帯域幅は、圧縮前に、ディスプレイの能力に適合させることが出来る。このタイプの処理はビデオゲームシステムあるいはデジタルシネマアプリケーションに対して適用でき、また、それは伝送される信号の所要のバンド幅を最小にするのに役に立つ。
図9はディスプレイプリフィルタリング方法900を示す。サンプリングされた入力ライトフィールド101はサンプリングされた出力ライトフィールド102を生成する方法105により処理される。サンプリングされた出力ライトフィールドはマルチビュービデオエンコーダ901に入力される。
そのエンコーダ901の出力は圧縮されたビットストリーム902である。その圧縮されたビットストリームは、後で再生するために、コンピュータで読み取り可能な媒体910に保管(記憶)されたり、あるいは、以下に詳述するように、スケーラブルなマルチビュービデオデコーダ1001に伝送されることができる。
そのエンコーダ901の出力は圧縮されたビットストリーム902である。その圧縮されたビットストリームは、後で再生するために、コンピュータで読み取り可能な媒体910に保管(記憶)されたり、あるいは、以下に詳述するように、スケーラブルなマルチビュービデオデコーダ1001に伝送されることができる。
上記方法105の主要な目的は、データがディスプレイグリッドの分解能(解像度)でサンプリングされることを保証することにある。また、入力ライトフィールド101から、ディスプレイのナイキスト限界値を超える高周波コンテンツを取り除くことも重要である。これらの周波数はマルチビューディスプレイ上にエイリアシングとして現れるので、方法105におけるフィルタリング工程は画像品質を低下させない。しかし、方法105は、入力スペクトルの選択部分でエネルギを抑制することによって、圧縮効率に対してポジティブな効果を持っている。実験結果は、サンプリングされた出力ライトフィールド102を圧縮するバンド幅が、方法105が適用されずに入力ライトフィールド101が直接的に圧縮されるケースと比較して、2倍だけ減少されることを示している。
[スケーラブルなデコーディング(復号化)]
圧縮前にディスプレイ装置のパラメータにアクセスする手段を持っていない、コンシューマブロードキャスト(消費者放送)およびビデオ会議アプリケーション等のアプリケーションに対して、圧縮フォーマットは、様々なデコーディング(復号化)およびディスプレイ能力に適応するように設計される。そのようなシステムでは、圧縮フォーマットがデコーディング(復号化)リソースを最小にすることを可能にすることが重要である。
圧縮前にディスプレイ装置のパラメータにアクセスする手段を持っていない、コンシューマブロードキャスト(消費者放送)およびビデオ会議アプリケーション等のアプリケーションに対して、圧縮フォーマットは、様々なデコーディング(復号化)およびディスプレイ能力に適応するように設計される。そのようなシステムでは、圧縮フォーマットがデコーディング(復号化)リソースを最小にすることを可能にすることが重要である。
図10は、方法105を実施する手段が後に続く、スケーラブルなマルチビュービデオデコーダ1001を含む受信システム1000を示す。スケーラブルなビットストリーム1002およびディスプレイパラメータ(表示パラメータ化)903が、復号されたライトフィールド1003を生成するために、スケーラブルなマルチビュービデオデコーダ1001へ入力として提供される。そして、復号されたライトフィールド1003は、方法105を実施する手段に与えられて、サンプリングされた出力ライトフィールド1004を生成し、それは3次元ディスプレイ(表示)装置1020上に表示1010され得る。
スケーラブルなデコーダ1001は、ビュースケーラビリティおよび空間的なスケーラビリティの両方をサポートする。受信システム1000における、スケーラブルなデコーダの主な利点は、表示装置にライトフィールドをレンダリングする前に適用された方法105で効率的なデコーディング(復号化)を容易にすることである。ディスプレイパラメータ(表示パラメータ化)903がスケーラブルなマルチビュービデオデコーダ1001に提供され、それにより、1組のターゲット(目標)ビュー1011および復号されたライトフィールド1003の各ターゲットビューに対する関連空間分解能(解像度)1012が決定される。
[ビュースケーラビリティ]
効率的な圧縮を行うことは、よい予測子を持つことに依存する。
時間的に隣接する画像間の相関関係はしばしば非常に強いが、空間的に隣接する画像を含むことは幾つかの利点を提供する。例えば、速い物体動きの間、すなわち互いに隣接するビューに同時に既に存在する複数の物体が1つのビューに現れるとき、空間的に隣接する画像はシーンの非遮蔽領域で有用な予測子である。一例の予測構造が図11に示されており、そこでは、概ね水平な実線が時間的予測と依存関係を示し、概ね垂直な点線が空間的予測と依存関係を示す。8つの時刻(t0−t7)に、5つのビュー(v0−v4)がある。なお、ビューは水平な時間次元で時間的に隣接しており、且つ垂直なビュー(視野)次元で空間的に隣接している。
効率的な圧縮を行うことは、よい予測子を持つことに依存する。
時間的に隣接する画像間の相関関係はしばしば非常に強いが、空間的に隣接する画像を含むことは幾つかの利点を提供する。例えば、速い物体動きの間、すなわち互いに隣接するビューに同時に既に存在する複数の物体が1つのビューに現れるとき、空間的に隣接する画像はシーンの非遮蔽領域で有用な予測子である。一例の予測構造が図11に示されており、そこでは、概ね水平な実線が時間的予測と依存関係を示し、概ね垂直な点線が空間的予測と依存関係を示す。8つの時刻(t0−t7)に、5つのビュー(v0−v4)がある。なお、ビューは水平な時間次元で時間的に隣接しており、且つ垂直なビュー(視野)次元で空間的に隣接している。
ビュースケーラビリティは、ビュー次元における階層的な依存関係でマルチ−ビュー(多視点)ビデオを符号化することによって実現される。一例として、図11に示されるように、各時刻に対して5つのビューを有する予測構造について考える。ディスプレイによりこれらのビューの内3つを復号することが必要とされるだけであるならば、最小の復号化条件を有する2つのオプション(選択肢)がある。
第1のオプションは、圧縮されたビットストリーム902の内の、選択された非目標ビューに対応する部分を選択的に捨てることである。例えば、双方向の依存関係を有する2つのビュー、すなわちv1およびv3、が捨てられる。第2のオプションは、圧縮されたビットストリームにおいて、復号順序で後のビュー、すなわちv3およびv4、に対応する部分を捨てることである。第1のオプションはビュー間の相対的な視差を増大させ、その結果、必要な再サンプリング量を増大させる。したがって、サンプリングレートを最小にするためには、第2のオプションがこの例ではより良好な選択である。
この発明の実施の形態1では、図10のスケーラブルなマルチビュービデオデコーダ1001はビューのサブセット(部分集合)を復号し、この場合のサブセットのビューの数はディスプレイ装置によってサポートされたビュー数に正確に対応する。それらのビューは、サンプリングレートを最小にすべく、お互いの間隔が近接するように選択される。すなわち、空間的に隣接しているビューの間のカメラベースライン距離も最小限である。
この発明の実施の形態2では、スケーラブルなマルチビュービデオデコーダ1001はビューのサブセット(部分集合)を復号し、この場合のサブセットのビューの数はディスプレイ装置によってサポートされたビュー数よりも少ない数に対応する。これは、多くの状況下で必要であるか、あるいは望ましいかもしれない。
まず最初に、ディスプレイでサポートされたビューの数を出力するために必要なデコーディングリソースが利用できないか、或いは長時間の遅延を生じるならば、減少された数のビューだけを提供することができるであろう。2番目に、任意の位置に配置された、より大きな復号されたビューの数よりもむしろ、空間的に隣接するビューの間のベースライン距離が、デコーダの出力として、常に等しいことがより望ましいかもしれない。これらのインスタンス(実体)は、ビューの間の予測依存関係の直接の結果として生じてもよい。
この発明の実施の形態3では、スケーラブルなマルチビュービデオデコーダ1001はビューのサブセット(部分集合)を復号し、この場合のサブセットのビューの数はディスプレイ装置によってサポートされたビュー数よりも大きな数に対応する。これは、オーバサンプリングされた信号の品質を改良するためには望ましいが、より多くのデコーディングリソースとより高いバンド幅とを要求するであろう。以下にさらに詳細に説明する補助深度マップを使用することにより、複雑さおよびバンド幅に対する衝撃を緩和することができる。
[空間的なスケーラビリティ]
上述したように、各ビューの空間分解能は入力信号のスペクトルに影響する。入力スペクトルのレプリカの最もタイトなパッキングを見出すことによって、非中心レプリカのいずれもがディスプレイプレフィルタと重なり合わないように、最小のサンプリングレートを導き出す。復号されるべきビューの数が前述のように決められ、カメラ開口等の取得パラメータ(取得パラメータ化)が固定されるならば、唯一の残りの自由度は空間分解能である。
上述したように、各ビューの空間分解能は入力信号のスペクトルに影響する。入力スペクトルのレプリカの最もタイトなパッキングを見出すことによって、非中心レプリカのいずれもがディスプレイプレフィルタと重なり合わないように、最小のサンプリングレートを導き出す。復号されるべきビューの数が前述のように決められ、カメラ開口等の取得パラメータ(取得パラメータ化)が固定されるならば、唯一の残りの自由度は空間分解能である。
この発明の実施の形態1では、スケーラブルなマルチビュービデオデコーダ1001は直近のマッチをディスプレイ分解能に最も近いものを提供する空間分解能まで復号化を行う。
このようにして、高解像ビデオを完全に復号して、そのビデオをディスプレイの分解能にサンプリングする必要性は避けられる。その結果、スケーラブルなマルチビュービデオデコーダ1001は、ディスプレイパラメータ903で示したディスプレイ分解能を超えてマルチ−ビュービデオの復号化をサポートする必要が無く、また、デコーダは必要なメモリおよび処理を最小にすることができる。
このようにして、高解像ビデオを完全に復号して、そのビデオをディスプレイの分解能にサンプリングする必要性は避けられる。その結果、スケーラブルなマルチビュービデオデコーダ1001は、ディスプレイパラメータ903で示したディスプレイ分解能を超えてマルチ−ビュービデオの復号化をサポートする必要が無く、また、デコーダは必要なメモリおよび処理を最小にすることができる。
この発明の別の実施の形態では、スケーラブルなマルチビュービデオデコーダ1001は、圧縮されたビットストリームを、ディスプレイ分解能より高い空間分解能を持つ復号されたライトフィールド1003に復号する。したがって、方法105は、空間分解能をディスプレイ分解能のそれへ再サンプリングすることを要求される。
[補足エンハンスメント情報]
オーバサンプリング率は2つの空間的に隣接するビュー間の最大視差に依存する。最大視差を得る1つの方法は、復号されたライトフィールド1003に基づいて、受信システム1000における視差を決定することである。これは、相当の複雑さを要求するので、リアルタイム受信器の実装のための好ましい解決策ではない。
オーバサンプリング率は2つの空間的に隣接するビュー間の最大視差に依存する。最大視差を得る1つの方法は、復号されたライトフィールド1003に基づいて、受信システム1000における視差を決定することである。これは、相当の複雑さを要求するので、リアルタイム受信器の実装のための好ましい解決策ではない。
従来のマルチビュービデオエンコーダは、空間的に隣接するビューにおける画像間の視差ベクトルを決定して、予測のためにこれらの視差ベクトルを利用している。したがって、既に行われている計算を活用することにより、エンコーダでの最大視差を決定することが可能である。
受信システム1000に視差情報の信号を送る方法が要求される。H.264/AVCビデオ符号化規格との関連で、ITU−T Rec. H.264 ISO/IEC14496−10、「Advanced Video Coding」、2005(本明細書に引用により援用される)を参照。復号化のためには要求されないが、デコーダのための有用な情報は、補足エンハンスメント情報(SEI)メッセージで搬送される。SEIメッセージはビデオのコンテンツと同期して転送される。
この発明の上記実施の形態1によれば、入力サンプリングレートでの空間的に隣接する全てのビューの最大視差は、SEIメッセージの一部として信号で送信される。この発明の実施の形態1では、視差値は完全なピクセル分解能(解像度)の単位で表わされる。この発明の実施の形態2では、視差値は、ハーフ(1/2)ピクセル分解能やクォター(1/4)ピクセル分解能等のサブピクセル分解能の単位で表わされる。
最大視差を表すシンタックスを含むSEIメッセージが受信システム1000に伝送され、そしてスケーラブルなマルチビュービデオデコーダ1001により最大視差が復号される。最大視差は、シーンに依存するパラメータであるため、経時的に変動し得る。したがって、SEIメッセージを周期的に送ることができ、それだけ最大視差値が更新され得る。最大視差の新しい値は、オーバサンプリング率における変動を含意する。
空間的に隣接するビュー間のベースライン距離が、例えば、複数のビューの或るサブセット(部分集合)を復号することによって変化するならば、最大視差値はそれだけ変更される。例えば、図11の3つのビューが合計5つのビューから復号される前述の例を参照。この例では、最大視差は5つのビューの間隔に対応している。空間的に隣接するビュー間の複数のカメラベースライン距離が等しく離れていると仮定すると、ビューのv1とv3に対応する部分が捨てられるか、或いは出力の一部として復号されないならば、空間的に隣接するビュー間のベースライン距離が倍にされるので、出力ビュー中の最大視差は倍にされる。
[深度マップ]
図12は、この発明の実施の形態1によるライトフィールド取得システム1200を示している。複数のカメラ115は、シーン110のサンプリングされたライトフィールド、すなわち一連のビデオの画像を取得する。それらのカメラは、水平な線形アレイとして配置され得る。好ましくは、カメラは互いに同期を取られている。シーン表示1202は、サンプリングされた入力ライトフィールド101と深度マップ1201とを含む。深度マップは、当該分野で知られているように、特殊カメラあるいは取得ハードウェアにより、またはサンプリングされた入力ライトフィールド101で計算により取得できる。深度マップビットストリームを生成するために、深度マップを符号化できる。
図12は、この発明の実施の形態1によるライトフィールド取得システム1200を示している。複数のカメラ115は、シーン110のサンプリングされたライトフィールド、すなわち一連のビデオの画像を取得する。それらのカメラは、水平な線形アレイとして配置され得る。好ましくは、カメラは互いに同期を取られている。シーン表示1202は、サンプリングされた入力ライトフィールド101と深度マップ1201とを含む。深度マップは、当該分野で知られているように、特殊カメラあるいは取得ハードウェアにより、またはサンプリングされた入力ライトフィールド101で計算により取得できる。深度マップビットストリームを生成するために、深度マップを符号化できる。
図13では、深度マップ1201は、サンプリングされた入力ライトフィールド101とディスプレイパラメータ903と共に、方法105への入力として使用される。深度マップは、サンプリングされた出力ライトフィールド102を生成するために、方法105の処理工程内のビュー補間のために使用される。方法105が圧縮用のプレ(前置)フィルタとして使用されると、サンプリングされた出力ライトフィールド102は、出力ビットストリーム902を生成するために、マルチビュービデオエンコーダ901に入力される。
図14は、方法105を実施する手段が後に続く、スケーラブルなマルチビュービデオデコーダ1001を含む受信システム1400を示す。スケーラブルなビットストリーム1002およびディスプレイパラメータ903が、復号されたライトフィールド1003を生成するために、スケーラブルなマルチビュービデオデコーダ1001へ入力として提供される。また、シーン表示1202の深度マップ1201の符号化された表示である、深度マップビットストリーム1402も受信システム1400に入力される。補助深度マップビットストリーム1402は深度デコーダ1401によって復号され、復号された深度マップ1403を作成する。復号されたライトフィールド1003および復号された深度マップ1403は、サンプリングされた出力ライトフィールド1004を生成するために、方法105に入力される。深度マップは、サンプリングされた出力ライトフィールド1004を生成するために、方法105の処理工程内のビュー補間のために使用される。
図15は、方法105を実施する手段が後に続く、スケーラブルなマルチビュービデオデコーダ1001を含む受信システム1500を示す。符号化された深度マップ1502を含むスケーラブルなビットストリーム1502およびディスプレイパラメータ903が、復号されたライトフィールド1003および復号された深度マップ1403を生成するために、スケーラブルなマルチビュービデオデコーダ1001へ入力として提供される。復号されたライトフィールド1003および復号された深度マップ1403は、サンプリングされた出力ライトフィールド1004を生成するために、方法105に入力される。
受信システム1500において、深度マップは、受信システム1400において行われるように、サンプリングされた出力ライトフィールド1004を生成するために、方法105の処理工程内のビュー補間のために使用される。あるいはまた、スケーラブルなマルチビュービデオデコーダ1001は、増大された数のビューで復号されたライトフィールド1003を出力するために、復号化の間、復号された深度マップを使用できる。
[発明の効果]
この発明は、3次元ディスプレイ装置に対して、ライトフィールドをサンプリングしてエイリアス化するための方法およびシステムを提供する。この方法は、問題を信号処理方法で処理できるようにする光線空間分析に基づいている。この発明は、3次元ディスプレイのバンド幅を決定し、浅い被写界深度の挙動について説明し、線形フィルタリング光線空間によりアンチエイリアシングを実現することができることを示した。この発明は、3次元ディスプレイ上でエイリアス化せずに、制限された分解能で取得された高品質のシーンをレンダリングすることを可能にする再サンプリングアルゴリズムを提供する。
この発明は、3次元ディスプレイ装置に対して、ライトフィールドをサンプリングしてエイリアス化するための方法およびシステムを提供する。この方法は、問題を信号処理方法で処理できるようにする光線空間分析に基づいている。この発明は、3次元ディスプレイのバンド幅を決定し、浅い被写界深度の挙動について説明し、線形フィルタリング光線空間によりアンチエイリアシングを実現することができることを示した。この発明は、3次元ディスプレイ上でエイリアス化せずに、制限された分解能で取得された高品質のシーンをレンダリングすることを可能にする再サンプリングアルゴリズムを提供する。
ディスプレイの被写界深度にマッピングされるべきであるシーンにおける深度範囲をユーザが特定するのを許容することによって、我々は現在のディスプレイの浅い被写界深度の影響を最小にする。この発明は、所与の取得およびディスプレイコンフィグレーション(構成)により提供され得る画像品質を分析するのに使用できる。
高品質ディスプレイに対して、最小のサンプリング条件が導き出される。この発明はマルチ−ビュー取得および3次元ディスプレイ装置のより良好なエンジニアリング(工学的処理)を可能にする。
また、この発明は、圧縮の前にフィルタとして再サンプリングプロセスを使用する方法およびシステムを提供する。3次元ディスプレイ上のエイリアシングに寄与する入力信号の高周波成分を抑制することによって、符号化されたマルチビュービデオはそのバンド(帯域)幅を低減される。
圧縮の間、ディスプレイパラメータが分からないインスタンス(実体)に対して、この発明は、様々な受信システムコンフィグレーション(構成)で再サンプリングプロセスを利用する方法およびシステムを提供する。ビュースケーラビリティと空間的なスケーラビリティが、コンピュータのリソースを最小にするのに使われる。
受信システムにおけるコンピュータの(計算)要求条件をさらに減少させるために、この発明は入力信号の最大視差を受信器に送信するための方法を記述している。
また、この発明は、深度マップを取得するための方法およびシステムについて記述している。深度マップは、オーバサンプリングされた信号を実現するために、再サンプリングプロセスにおいて使用される。深度マップは、符号化前にプリフィルタリングのために使用するか、或いは符号化されて、受信器に伝送されることができる。
この発明は好適な実施の形態を例に挙げて説明したが、この発明の精神および範囲内で種々の他の改変および変更を行うことができることを理解すべきである。したがって、添付の特許請求の範囲の目的は、この発明の真実の精神および範囲に含まれるような全ての変形例および変更例をカバーすることである。
101 入力ライトフィールド、102 出力ライトフィールド、115 カメラ、120 表示装置、121 パララックスバリア、122 スクリーン、125 プロジェクタ。
Claims (35)
- 3次元表示装置に表示すべき3次元シーンのライトフィールドを処理するための方法であって、前記ライトフィールドが複数のカメラによって複数の異なるビューから取得され、各カメラに対して1つのビューが存在し、各ビューがそれに関連する空間分解能を持っている前記方法において、
デコーダにおいて、1組の目標ビューと、前記3次元表示装置の表示パラメータ化による、各目標ビューに対する関連目標空間分解能とを決定する工程と、
前記デコーダにおいて、スケーラブルなビデオビットストリームを復号して前記1組の目標ビューに対する復号されたライトフィールドと各目標ビューに対する関連目標空間分解能とを生成する工程であって、前記スケーラブルなビデオビットストリームは、前記ライトフィールドの符号化された表示であり、且つ時間的依存関係および空間的依存関係を有する工程と、
を備える、3次元シーンのライトフィールドを処理するための方法。 - 前記復号化の間、前記スケーラブルなビデオビットストリームの、選択された非目標ビューに対応する部分を捨てる工程をさらに備える、請求項1に記載の方法。
- 前記復号化の間、前記スケーラブルなビデオビットストリームの、前記目標空間分解能よりも高い空間分解能に対応する部分を捨てる工程をさらに備える、請求項1に記載の方法。
- 前記1組の目標ビューは、前記複数のカメラによって取得され前記複数の異なるビュー間の最小ベースライン距離を有する、請求項1に記載の方法。
- 前記目標ビューは空間的に隣接する目標ビュー間の等しいベースライン距離を有する、請求項1に記載の方法。
- 各目標ビューの目標空間分解能は前記3次元表示装置の空間分解能と等しい、請求項1に記載の方法。
- 前記目標空間分解能は前記3次元表示装置の空間分解能よりも高い、請求項1に記載の方法。
- 各目標ビューの目標空間分解能は前記3次元表示装置の空間分解能よりも低い、請求項1に記載の方法。
- 前記復号化もまた復号された深度マップを生成する、請求項1に記載の方法。
- 前記複数の異なるビューに対して各ビューの空間分解能でライトフィールドをスケーラブルに符号化して、前記スケーラブルなビデオビットストリームを生成する工程をさらに備える、請求項1に記載の方法。
- 前記1組の目標ビューは前記複数の異なるビューよりも大きい、請求項1に記載の方法。
- 前記1組の目標ビューに対する追加のビューが、前記復号化の間、前記復号された深度マップおよびビュー補間を使用して生成される、請求項11に記載の方法。
- 前記符号化は前記複数の異なるビュー間の最大視差を決定し、
前記方法は、
前記最大視差を前記デコーダへ送信する工程、
をさらに備える、請求項10に記載の方法。 - 前記最大視差は、H.264/AVCビデオ符号化規格にしたがって、補足エンハンスメント情報メッセージで送信される、請求項13に記載の方法。
- 前記デコーダは前記最大視差を復号する、請求項13に記載の方法。
- 前記最大視差はピクセル分解能で表される、請求項13に記載の方法。
- 前記最大視差はサブピクセル分解能で表される、請求項13に記載の方法。
- 複数の深度マップを符号化して深度マップビットストリームを生成する工程、
をさらに備える、請求項1に記載の方法。 - 前記深度マップビットストリームは前記スケーラブルなビデオビットストリームに多重化される、請求項18に記載の方法。
- 前記取得されたライトフィールドの入力サンプルを補間して再パラメータ化されたライトフィールドを生成する工程であって、前記補間が取得パラメータ化および表示パラメータ化によって行われる工程と、
再パラメータ化されたライトフィールドをフィルタリングして、フィルタリングされたライトフィールドを生成する工程と、
前記フィルタリングされたライトフィールドをサンプリングして、前記表示パラメータ化を有するサンプリングされたライトフィールドの出力サンプルを生成する工程と、
をさらに備える、請求項10に記載の方法。 - 前記補間する工程は前記シーンについて取得された深度マップを使用する、請求項20に記載の方法。
- 前記補間する工程は、非構造化ルミグラフレンダリングプロセスを使用して前記入力サンプルを再投影する工程をさらに備える、請求項20に記載の方法。
- 前記サンプリングは、オーバサンプリングされたライトフィールドにおけるインターパースペクティブエイリアシングを減少させる、前記3次元表示装置の平面におけるオーバサンプリングであり、前記オーバサンプリングされたライトフィールドは、前記出力サンプルを生成するために、前記表示パラメータ化によりサブサンプリングされる、請求項20に記載の方法。
- 前記補間は前記3次元シーンの追加のビューを生成する、請求項20に記載の方法。
- 前記オーバサンプリングは(d+1)/2の比率で行われ、ここで、dは前記異なるビューの最大視差である、請求項23に記載の方法。
- 前記復号されたライトフィールドのサンプルを補間して再パラメータ化されたライトフィールドを生成する工程であって、前記補間が取得パラメータ化および前記表示パラメータ化によって行われる工程と、
再パラメータ化されたライトフィールドをフィルタリングして、フィルタリングされたライトフィールドを生成する工程と、
前記フィルタリングされたライトフィールドをサンプリングして、前記表示パラメータ化を有するサンプリングされた出力ライトフィールドのサンプルを生成する工程と、
をさらに備える、請求項1に記載の方法。 - 前記補間する工程は前記復号された深度マップを使用する、請求項26に記載の方法。
- 前記補間する工程は、非構造化ルミグラフレンダリングプロセスを使用して、前記復号されたライトフィールドのサンプルを再投影する工程をさらに備える、請求項27に記載の方法。
- 前記サンプリングは、オーバサンプリングされたライトフィールドにおけるインターパースペクティブエイリアシングを減少させる、前記3次元表示装置の平面におけるオーバサンプリングであり、前記オーバサンプリングされたライトフィールドは、前記サンプリングされた出力ライトフィールドのサンプルを生成するために、前記表示パラメータ化によりサブサンプリングされる、請求項26に記載の方法。
- 前記補間は前記3次元シーンの追加のビューを生成する、請求項26に記載の方法。
- 前記オーバサンプリングは(d+1)/2の比率で行われ、ここで、dは前記異なるビューの最大視差である、請求項29に記載の方法。
- 前記最大視差は前記目標ビューにしたがって変更される、請求項15に記載の方法。
- 3次元表示装置に表示すべき3次元シーンのライトフィールドを処理するためのシステムであって、前記ライトフィールドが複数のカメラによって複数の異なるビューから取得され、各カメラに対して1つのビューが存在し、各ビューがそれに関連する空間分解能を持っている前記システムにおいて、
前記システムは、1組の目標ビューと、前記3次元表示装置の表示パラメータ化による、各目標ビューに対する関連目標空間分解能とを決定するように構成されたビデオデコーダを備え、
前記デコーダは、
スケーラブルなビデオビットストリームを復号して前記1組の目標ビューに対する復号されたライトフィールドと各目標ビューに対する関連目標空間分解能とを生成する手段であって、前記スケーラブルなビデオビットストリームは、前記取得されたライトフィールドを符号化し、且つ時間的依存関係および空間的依存関係を有する手段、
を備える、3次元シーンのライトフィールドを処理するためのシステム。 - 前記復号する手段は、復号された深度マップおよびビュー補間を使用して、前記1組の目標ビューに対する追加のビューを生成する、請求項33に記載のシステム。
- 前記取得されたライトフィールドの入力サンプルを補間して再パラメータ化されたライトフィールドを生成する手段であって、前記補間が取得パラメータ化および表示パラメータ化によって行われる手段と、
再パラメータ化されたライトフィールドをフィルタリングして、フィルタリングされたライトフィールドを生成する手段と、
前記フィルタリングされたライトフィールドをサンプリングして、前記表示パラメータ化を有するサンプリングされたライトフィールドの出力サンプルを生成する手段と、
をさらに備える、請求項33に記載のシステム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/696,596 US8044994B2 (en) | 2006-04-04 | 2007-04-04 | Method and system for decoding and displaying 3D light fields |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008257686A true JP2008257686A (ja) | 2008-10-23 |
Family
ID=39542652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007329997A Pending JP2008257686A (ja) | 2007-04-04 | 2007-12-21 | 3次元シーンのライトフィールドを処理するための方法およびシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US8044994B2 (ja) |
EP (1) | EP1978754A3 (ja) |
JP (1) | JP2008257686A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013524608A (ja) * | 2010-03-31 | 2013-06-17 | トムソン ライセンシング | 3d視差マップ |
JP2014203462A (ja) * | 2013-04-05 | 2014-10-27 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 光フィールド映像を生成する方法及び装置 |
US9600923B2 (en) | 2011-05-26 | 2017-03-21 | Thomson Licensing | Scale-independent maps |
US9686472B2 (en) | 2014-07-31 | 2017-06-20 | Canon Kabushiki Kaisha | Image pickup apparatus and control method for same |
JP2017528949A (ja) * | 2014-07-15 | 2017-09-28 | オステンド・テクノロジーズ・インコーポレーテッド | 全方向視差光照射野圧縮のためのプリプロセッサ |
Families Citing this family (95)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7916934B2 (en) * | 2006-04-04 | 2011-03-29 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for acquiring, encoding, decoding and displaying 3D light fields |
PL3182708T3 (pl) * | 2007-01-04 | 2019-07-31 | Interdigital Madison Patent Holdings | Sposoby i urządzenie dla informacji o wielu-widokach przenoszonych w składni wysokiego poziomu |
GB0716776D0 (en) * | 2007-08-29 | 2007-10-10 | Setred As | Rendering improvement for 3D display |
KR101591085B1 (ko) * | 2008-05-19 | 2016-02-02 | 삼성전자주식회사 | 영상 파일 생성 및 재생 장치 및 방법 |
US8902321B2 (en) | 2008-05-20 | 2014-12-02 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US11792538B2 (en) | 2008-05-20 | 2023-10-17 | Adeia Imaging Llc | Capturing and processing of images including occlusions focused on an image sensor by a lens stack array |
US8866920B2 (en) | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
AU2009201637B2 (en) * | 2009-04-24 | 2011-08-11 | Canon Kabushiki Kaisha | Processing multi-view digital images |
US8514491B2 (en) * | 2009-11-20 | 2013-08-20 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US20110157322A1 (en) | 2009-12-31 | 2011-06-30 | Broadcom Corporation | Controlling a pixel array to support an adaptable light manipulator |
US9247286B2 (en) * | 2009-12-31 | 2016-01-26 | Broadcom Corporation | Frame formatting supporting mixed two and three dimensional video data communication |
US8854531B2 (en) * | 2009-12-31 | 2014-10-07 | Broadcom Corporation | Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display |
US8823782B2 (en) * | 2009-12-31 | 2014-09-02 | Broadcom Corporation | Remote control with integrated position, viewer identification and optical and audio test |
SG10201503516VA (en) | 2010-05-12 | 2015-06-29 | Pelican Imaging Corp | Architectures for imager arrays and array cameras |
US8878950B2 (en) | 2010-12-14 | 2014-11-04 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using super-resolution processes |
US8619094B2 (en) | 2011-01-07 | 2013-12-31 | Sony Computer Entertainment America Llc | Morphological anti-aliasing (MLAA) of a re-projection of a two-dimensional image |
US9183670B2 (en) | 2011-01-07 | 2015-11-10 | Sony Computer Entertainment America, LLC | Multi-sample resolving of re-projection of two-dimensional image |
US9041774B2 (en) | 2011-01-07 | 2015-05-26 | Sony Computer Entertainment America, LLC | Dynamic adjustment of predetermined three-dimensional video settings based on scene content |
US8514225B2 (en) | 2011-01-07 | 2013-08-20 | Sony Computer Entertainment America Llc | Scaling pixel depth values of user-controlled virtual object in three-dimensional scene |
BR112013017321A2 (pt) * | 2011-01-07 | 2019-09-24 | Sony Computer Entertainment America Llc | método para resolução de múltiplas amostras de uma reprojeção de uma imagem bidimensional, aparelho para múltiplas amostragens, e, produto de programa de computador |
WO2012155119A1 (en) | 2011-05-11 | 2012-11-15 | Pelican Imaging Corporation | Systems and methods for transmitting and receiving array camera image data |
JP5766034B2 (ja) | 2011-06-08 | 2015-08-19 | キヤノン株式会社 | 画像処理方法、画像処理装置及びプログラム。 |
US20130265459A1 (en) | 2011-06-28 | 2013-10-10 | Pelican Imaging Corporation | Optical arrangements for use with an array camera |
EP2726930A4 (en) | 2011-06-28 | 2015-03-04 | Pelican Imaging Corp | OPTICAL ARRANGEMENTS FOR USE WITH AN ARRAY CAMERA |
KR20130003135A (ko) * | 2011-06-30 | 2013-01-09 | 삼성전자주식회사 | 다시점 카메라를 이용한 라이트 필드 형상 캡처링 방법 및 장치 |
US8553997B1 (en) * | 2011-08-16 | 2013-10-08 | Google Inc. | Depthmap compression |
WO2013043761A1 (en) | 2011-09-19 | 2013-03-28 | Pelican Imaging Corporation | Determining depth from multiple views of a scene that include aliasing using hypothesized fusion |
WO2013049699A1 (en) | 2011-09-28 | 2013-04-04 | Pelican Imaging Corporation | Systems and methods for encoding and decoding light field image files |
US9113043B1 (en) | 2011-10-24 | 2015-08-18 | Disney Enterprises, Inc. | Multi-perspective stereoscopy from light fields |
US9165401B1 (en) * | 2011-10-24 | 2015-10-20 | Disney Enterprises, Inc. | Multi-perspective stereoscopy from light fields |
EP2817955B1 (en) | 2012-02-21 | 2018-04-11 | FotoNation Cayman Limited | Systems and methods for the manipulation of captured light field image data |
US9210392B2 (en) | 2012-05-01 | 2015-12-08 | Pelican Imaging Coporation | Camera modules patterned with pi filter groups |
US9100635B2 (en) | 2012-06-28 | 2015-08-04 | Pelican Imaging Corporation | Systems and methods for detecting defective camera arrays and optic arrays |
US20140002674A1 (en) | 2012-06-30 | 2014-01-02 | Pelican Imaging Corporation | Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors |
CN107346061B (zh) | 2012-08-21 | 2020-04-24 | 快图有限公司 | 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法 |
EP2888698A4 (en) | 2012-08-23 | 2016-06-29 | Pelican Imaging Corp | PROPERTY-BASED HIGH-RESOLUTION MOTION ESTIMATION FROM LOW-RESOLUTION IMAGES RECORDED WITH AN ARRAY SOURCE |
WO2014043641A1 (en) | 2012-09-14 | 2014-03-20 | Pelican Imaging Corporation | Systems and methods for correcting user identified artifacts in light field images |
CN104685860A (zh) | 2012-09-28 | 2015-06-03 | 派力肯影像公司 | 利用虚拟视点从光场生成图像 |
KR101944911B1 (ko) | 2012-10-31 | 2019-02-07 | 삼성전자주식회사 | 영상 처리 방법 및 영상 처리 장치 |
US9143711B2 (en) | 2012-11-13 | 2015-09-22 | Pelican Imaging Corporation | Systems and methods for array camera focal plane control |
US9092890B2 (en) | 2012-12-20 | 2015-07-28 | Ricoh Company, Ltd. | Occlusion-aware reconstruction of three-dimensional scenes from light field images |
US9497380B1 (en) | 2013-02-15 | 2016-11-15 | Red.Com, Inc. | Dense field imaging |
US9462164B2 (en) | 2013-02-21 | 2016-10-04 | Pelican Imaging Corporation | Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information |
US9374512B2 (en) | 2013-02-24 | 2016-06-21 | Pelican Imaging Corporation | Thin form factor computational array cameras and modular array cameras |
US9638883B1 (en) | 2013-03-04 | 2017-05-02 | Fotonation Cayman Limited | Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process |
US9774789B2 (en) | 2013-03-08 | 2017-09-26 | Fotonation Cayman Limited | Systems and methods for high dynamic range imaging using array cameras |
US8866912B2 (en) | 2013-03-10 | 2014-10-21 | Pelican Imaging Corporation | System and methods for calibration of an array camera using a single captured image |
US9521416B1 (en) | 2013-03-11 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for image data compression |
US9106784B2 (en) | 2013-03-13 | 2015-08-11 | Pelican Imaging Corporation | Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing |
US9888194B2 (en) | 2013-03-13 | 2018-02-06 | Fotonation Cayman Limited | Array camera architecture implementing quantum film image sensors |
US9519972B2 (en) | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US9124831B2 (en) | 2013-03-13 | 2015-09-01 | Pelican Imaging Corporation | System and methods for calibration of an array camera |
WO2014159779A1 (en) | 2013-03-14 | 2014-10-02 | Pelican Imaging Corporation | Systems and methods for reducing motion blur in images or video in ultra low light with array cameras |
US9100586B2 (en) | 2013-03-14 | 2015-08-04 | Pelican Imaging Corporation | Systems and methods for photometric normalization in array cameras |
WO2014150856A1 (en) | 2013-03-15 | 2014-09-25 | Pelican Imaging Corporation | Array camera implementing quantum dot color filters |
US9497429B2 (en) | 2013-03-15 | 2016-11-15 | Pelican Imaging Corporation | Extended color processing on pelican array cameras |
US10122993B2 (en) | 2013-03-15 | 2018-11-06 | Fotonation Limited | Autofocus system for a conventional camera that uses depth information from an array camera |
US9633442B2 (en) | 2013-03-15 | 2017-04-25 | Fotonation Cayman Limited | Array cameras including an array camera module augmented with a separate camera |
US9445003B1 (en) | 2013-03-15 | 2016-09-13 | Pelican Imaging Corporation | Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information |
JP2016524125A (ja) | 2013-03-15 | 2016-08-12 | ペリカン イメージング コーポレイション | カメラアレイを用いた立体撮像のためのシステムおよび方法 |
JP2014239316A (ja) * | 2013-06-07 | 2014-12-18 | キヤノン株式会社 | 撮像装置およびその制御方法 |
US9898856B2 (en) | 2013-09-27 | 2018-02-20 | Fotonation Cayman Limited | Systems and methods for depth-assisted perspective distortion correction |
US9185276B2 (en) | 2013-11-07 | 2015-11-10 | Pelican Imaging Corporation | Methods of manufacturing array camera modules incorporating independently aligned lens stacks |
US10119808B2 (en) | 2013-11-18 | 2018-11-06 | Fotonation Limited | Systems and methods for estimating depth from projected texture using camera arrays |
EP3075140B1 (en) | 2013-11-26 | 2018-06-13 | FotoNation Cayman Limited | Array camera configurations incorporating multiple constituent array cameras |
US10244223B2 (en) * | 2014-01-10 | 2019-03-26 | Ostendo Technologies, Inc. | Methods for full parallax compressed light field 3D imaging systems |
US10089740B2 (en) | 2014-03-07 | 2018-10-02 | Fotonation Limited | System and methods for depth regularization and semiautomatic interactive matting using RGB-D images |
US9247117B2 (en) | 2014-04-07 | 2016-01-26 | Pelican Imaging Corporation | Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array |
US9521319B2 (en) | 2014-06-18 | 2016-12-13 | Pelican Imaging Corporation | Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor |
US10250871B2 (en) | 2014-09-29 | 2019-04-02 | Fotonation Limited | Systems and methods for dynamic calibration of array cameras |
US9942474B2 (en) | 2015-04-17 | 2018-04-10 | Fotonation Cayman Limited | Systems and methods for performing high speed video capture and depth estimation using array cameras |
KR102483838B1 (ko) | 2015-04-19 | 2023-01-02 | 포토내이션 리미티드 | Vr/ar 응용에서 심도 증강을 위한 다중-기선 카메라 어레이 시스템 아키텍처 |
EP3286737A1 (en) | 2015-04-23 | 2018-02-28 | Ostendo Technologies, Inc. | Methods for full parallax compressed light field synthesis utilizing depth information |
JP6866299B2 (ja) | 2015-04-23 | 2021-04-28 | オステンド・テクノロジーズ・インコーポレーテッド | 全方向視差ライトフィールド表示システム用の方法および装置 |
US10448030B2 (en) | 2015-11-16 | 2019-10-15 | Ostendo Technologies, Inc. | Content adaptive light field compression |
WO2017112013A1 (en) | 2015-12-22 | 2017-06-29 | Google Inc. | System and method for performing electronic display stabilization via retained lightfield rendering |
US10136116B2 (en) | 2016-03-07 | 2018-11-20 | Ricoh Company, Ltd. | Object segmentation from light field data |
US10453431B2 (en) | 2016-04-28 | 2019-10-22 | Ostendo Technologies, Inc. | Integrated near-far light field display systems |
US10089788B2 (en) | 2016-05-25 | 2018-10-02 | Google Llc | Light-field viewpoint and pixel culling for a head mounted display device |
US10298914B2 (en) * | 2016-10-25 | 2019-05-21 | Intel Corporation | Light field perception enhancement for integral display applications |
CN106991715A (zh) * | 2017-05-11 | 2017-07-28 | 中国科学院自动化研究所 | 基于光场采集的光栅棱柱三维显示渲染方法 |
US10482618B2 (en) | 2017-08-21 | 2019-11-19 | Fotonation Limited | Systems and methods for hybrid depth regularization |
US10432944B2 (en) | 2017-08-23 | 2019-10-01 | Avalon Holographics Inc. | Layered scene decomposition CODEC system and methods |
CN107977993A (zh) * | 2017-11-17 | 2018-05-01 | 杨俊刚 | 一种针对光场阵列相机的基于重投影的重聚焦方法及系统 |
KR102646521B1 (ko) | 2019-09-17 | 2024-03-21 | 인트린식 이노베이션 엘엘씨 | 편광 큐를 이용한 표면 모델링 시스템 및 방법 |
CA3157194C (en) | 2019-10-07 | 2023-08-29 | Boston Polarimetrics, Inc. | Systems and methods for augmentation of sensor systems and imaging systems with polarization |
WO2021108002A1 (en) | 2019-11-30 | 2021-06-03 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
IL271774A (en) * | 2019-12-31 | 2021-06-30 | Bottega Studios Ltd | System and method for imaging dynamic images |
KR20220132620A (ko) | 2020-01-29 | 2022-09-30 | 인트린식 이노베이션 엘엘씨 | 물체 포즈 검출 및 측정 시스템들을 특성화하기 위한 시스템들 및 방법들 |
KR20220133973A (ko) | 2020-01-30 | 2022-10-05 | 인트린식 이노베이션 엘엘씨 | 편광된 이미지들을 포함하는 상이한 이미징 양식들에 대해 통계적 모델들을 훈련하기 위해 데이터를 합성하기 위한 시스템들 및 방법들 |
US11240465B2 (en) | 2020-02-21 | 2022-02-01 | Alibaba Group Holding Limited | System and method to use decoder information in video super resolution |
US11953700B2 (en) | 2020-05-27 | 2024-04-09 | Intrinsic Innovation Llc | Multi-aperture polarization optical systems using beam splitters |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050185711A1 (en) * | 2004-02-20 | 2005-08-25 | Hanspeter Pfister | 3D television system and method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005352267A (ja) | 2004-06-11 | 2005-12-22 | Sharp Corp | 画像信号処理装置 |
US7468745B2 (en) * | 2004-12-17 | 2008-12-23 | Mitsubishi Electric Research Laboratories, Inc. | Multiview video decomposition and encoding |
KR100732961B1 (ko) * | 2005-04-01 | 2007-06-27 | 경희대학교 산학협력단 | 다시점 영상의 스케일러블 부호화, 복호화 방법 및 장치 |
JP5120024B2 (ja) | 2008-03-31 | 2013-01-16 | 富士通株式会社 | 自律移動ロボット及びその障害物識別方法 |
-
2007
- 2007-04-04 US US11/696,596 patent/US8044994B2/en not_active Expired - Fee Related
- 2007-12-21 JP JP2007329997A patent/JP2008257686A/ja active Pending
-
2008
- 2008-02-22 EP EP08003292A patent/EP1978754A3/en not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050185711A1 (en) * | 2004-02-20 | 2005-08-25 | Hanspeter Pfister | 3D television system and method |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013524608A (ja) * | 2010-03-31 | 2013-06-17 | トムソン ライセンシング | 3d視差マップ |
KR101825761B1 (ko) * | 2010-03-31 | 2018-03-22 | 톰슨 라이센싱 | 3d 디스패리티 맵들 |
US10791314B2 (en) | 2010-03-31 | 2020-09-29 | Interdigital Ce Patent Holdings, Sas | 3D disparity maps |
US9600923B2 (en) | 2011-05-26 | 2017-03-21 | Thomson Licensing | Scale-independent maps |
JP2014203462A (ja) * | 2013-04-05 | 2014-10-27 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 光フィールド映像を生成する方法及び装置 |
JP2017528949A (ja) * | 2014-07-15 | 2017-09-28 | オステンド・テクノロジーズ・インコーポレーテッド | 全方向視差光照射野圧縮のためのプリプロセッサ |
US9686472B2 (en) | 2014-07-31 | 2017-06-20 | Canon Kabushiki Kaisha | Image pickup apparatus and control method for same |
Also Published As
Publication number | Publication date |
---|---|
EP1978754A2 (en) | 2008-10-08 |
US8044994B2 (en) | 2011-10-25 |
US20080043096A1 (en) | 2008-02-21 |
EP1978754A3 (en) | 2012-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5300258B2 (ja) | 3次元ライトフィールドを取得、符号化、復号、表示するための方法およびシステム | |
US8044994B2 (en) | Method and system for decoding and displaying 3D light fields | |
US7609906B2 (en) | Method and system for acquiring and displaying 3D light fields | |
TWI807286B (zh) | 用於全視差壓縮光場三維成像系統之方法 | |
CA3072260C (en) | Layered scene decomposition codec system and methods | |
Matusik et al. | 3D TV: a scalable system for real-time acquisition, transmission, and autostereoscopic display of dynamic scenes | |
JP7036599B2 (ja) | 奥行き情報を用いて全方向視差を圧縮したライトフィールドを合成する方法 | |
JP5243612B2 (ja) | 中間画像合成およびマルチビューデータ信号抽出 | |
WO2019034807A1 (en) | SEQUENTIAL CODING AND DECODING OF VOLUMETRIC VIDEO | |
US20050185711A1 (en) | 3D television system and method | |
US20140198182A1 (en) | Representation and Coding of Multi-View Images Using Tapestry Encoding | |
EP3759925A1 (en) | An apparatus, a method and a computer program for volumetric video | |
Graziosi et al. | Depth assisted compression of full parallax light fields | |
Graziosi et al. | Compression for full-parallax light field displays | |
Zwicker et al. | Resampling, antialiasing, and compression in multiview 3-D displays | |
EP2822279B1 (en) | Autostereo tapestry representation | |
JP6979290B2 (ja) | 画像符号化装置および画像復号化装置、並びに、画像符号化プログラムおよび画像復号化プログラム | |
Zinger et al. | iGLANCE project: free-viewpoint 3D video | |
Alfaqheri et al. | Low-delay single holoscopic 3D computer-generated image to multiview images | |
Stone | Omnidirectional Stereoscopic Projections for VR. | |
Suehiro et al. | Integral 3D imaging system using monocular 2D video and depth data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101109 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120306 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120703 |