JP5300258B2 - 3次元ライトフィールドを取得、符号化、復号、表示するための方法およびシステム - Google Patents

3次元ライトフィールドを取得、符号化、復号、表示するための方法およびシステム Download PDF

Info

Publication number
JP5300258B2
JP5300258B2 JP2007324982A JP2007324982A JP5300258B2 JP 5300258 B2 JP5300258 B2 JP 5300258B2 JP 2007324982 A JP2007324982 A JP 2007324982A JP 2007324982 A JP2007324982 A JP 2007324982A JP 5300258 B2 JP5300258 B2 JP 5300258B2
Authority
JP
Japan
Prior art keywords
light field
display
generate
view
decoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007324982A
Other languages
English (en)
Other versions
JP2008259171A (ja
Inventor
アンソニー・ヴェトロ
セフーン・イェー
ウォーチエック・マトゥシック
ハンスピーター・フィスター
マチアス・ツヴィッカー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2008259171A publication Critical patent/JP2008259171A/ja
Application granted granted Critical
Publication of JP5300258B2 publication Critical patent/JP5300258B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Description

[関連出願]
この出願は、Matusik他により2006年4月4日に出願された、「3次元ライトフィールドを取得、表示するための方法およびシステム」という名称の米国特許出願第11/397,227号の一部継続である。
この発明は、一般に、ライトフィールドを取得、符号化、復号化、表示することに関し、特に、3次元ライトフィールドのスケーラブルな復号化、およびオートマルティスコーピック(自動多視点)表示装置に表示するための再構成されたライトフィールドの再サンプリングに関するものである。
現実世界の3次元シーンのイメージ(画像)を取得して、現実的な3次元画像としてそれらを表示することが望まれている。自動多視点ディスプレイは、束縛されない視聴、すなわちビューイングゾーン(見る領域)の任意の位置からの高解像度立体画像の眼鏡無しでの視聴を提供する。自動多視点ディスプレイは視野角に基づく、異なる強度および色のビュー(視点)依存ピクセルを含む。従来の高解像度ディスプレイとパララックスバリアとを使用することにより、視点依存ピクセルを実現することができる。
典型的な自動多視点ディスプレイでは、画像はパララックスバリアを通して、レンズ状シート或いは一体形レンズシートに映し出される。マルチビユーオートステレオスコーピィ(多視点自動立体鏡)の光学原理は1世紀以上に亘って知られている(Okoshi、3元イメージング(撮像)技術、アカデミックプレス社、1976)。近年、高解像度の実用的なディスプレイが利用可能になってきている。その結果、3次元テレビが再び注目されている。
ところで、自動多視点ディスプレイには、幾つかの問題がある。第一に、動いている視聴者は不穏な視覚的アーティファクトを見る。第二に、アーティファクトの無い3次元画像の取得は難しい。
放送および映画産業における写真家、ビデオ撮影家、および専門家は3次元画像を記録するのに必要とされる複雑なセットアップ(構成装備)になじみがない。現在、従来の2次元テレビに対して有るような、マルチカメラパラメータ、配置、および制作後の処理に対するガイドライン(指針)もスタンダード(標準)も無い。
特に、ほとんどの実用的な場合には、カメラのイメージセンサ(撮像素子)におけるピクセル(画素)は、1対1の方法で、表示装置におけるピクセルに直接マップ(写像)されない。これは映像データの再サンプリングを必要とする。再サンプリングは、視覚的アーティファクトが最小にされるような方法で、行われる必要がある。自動多視点ディスプレイに対してライトフィールドを有効に再サンプリングするための従来技術は全く無い。
3次元ディスプレイ用のほとんどの従来のアンチエイリアシングは、波動光学を使用する。その上、それらの方法は、適切なフィルタリングのためにピクセル毎のシーン深度(奥行き)を必要とする。深度情報がないとき、それらの方法は、保守的な最悪条件手法およびシーンにおける最大深度に基づくフィルタに頼る。実際には、これは、それらの方法の実行を非常に浅い深度を有するシーンに制限する。
一般に、自動多視点ディスプレイは、静的な或いは経時的に変動するライトフィールドを発する。ライトフィールドはオクルーダ(遮蔽物)の無い空間の領域における位置および方向の関数としてのラジアンス(放射輝度)を表している。ライトフィールドの周波数分析はプレノプティックサンプリング理論を使用して行われる。そこでは、シーンのスペクトルが物体深度の関数として分析される。これは、ほとんどのライトフィールドがエイリアス化される(輪郭がギザギザになる)ことを明らかにする。エイリアシングを取り除いて、元のスペクトルを可能な限り保存するために、再構成フィルタを適用できる。
自動多視点ディスプレイの上にライトフィールドを表示するのに再パラメータ化を使用できる。ところが、再パラメータ化はディスプレイのエイリアシングに対処しない。
再構成フィルタを広い開口フィルタにより改善することができる。これにより、焦点面上でシャープネス(鮮明度)を犠牲にすることなく、より大きな被写界深度で3次元画像を生成することができる。
また、ディスプレイ品質は3次元レンダリングシステムにおける1つの重大な問題ではあるが、処理されて、レンダリングされて、そのようなディスプレイに伝送されるために必要なデータの量を考慮に入れなければならない。ライトフィールドデータはステレオ画像のペア(対)に基づくシステムに対するよりも少なくとも1桁以上大きいので、データ圧縮プロセスが必要となる。伝送帯域幅が減少されて、受信器での復号化リソースを最小限に保持することが、特に重要である。
従来の方法のいずれも、自動多視点ディスプレイに対するサンプリングおよびアンチエイリアシングに対処していない。従来の方法は、ディスプレイのサンプリングレートを考慮に入れておらず、再構成の間、サンプリングされたライトフィールドからエイリアシングを取り除くという問題を考慮しているだけである。その上、従来の方法のいずれも、圧縮システムまたは方法との関連においてサンプリングおよびアンチエイリアシングを採用していない。
[発明の概要]
この発明は、テレビおよびデジタルエンターテインメントに対して使用できる3次元ディスプレイ(表示)システムおよび方法を提供する。そのような表示システムは、高品質のライトフィールドデータを必要とする。カメラアレイを使用して入力ライトフィールドを取得し、離散的自動多視点ディスプレイ上に出力ライトフィールドをレンダリングする。しかし、ほとんどいつも、取得装置とディスプレイ装置とは、異なるサンプリングパターンを有する。
したがって、この発明はライトフィールドデータを再サンプリングする。ところで、再サンプリングは、エイリアシングアーティファクトの傾向がある。ライトフィールドデータの表示で最も不穏なアーティファクトは、インターパースペクティブ(相互透視)なエイリアシングによって引き起こされる。
この発明は、そのようなインターパースペクティブエイリアシングを最小にする、ライトフィールドの再サンプリング方法を提供する。本方法は、ライトフィールドの高品質なレンダリングを自動多視点表示装置上に提供する。本方法は、ライトフィールド再構成フィルタと、ディスプレイ(表示)装置のサンプリンググリッド(格子)によって決定されるディスプレイ(表示)プレフィルタとを結合する。
従来の方法と比べて、この発明の再サンプリング方法は、深度情報を必要としない。この発明方法は、高品質のレンダリングを生成するために、効率的に複数のフィルタリングステージを結合する。この発明方法は、レンズのディスプレイ画面またはパララックス−バリアディスプレイ画面上にライトフィールドを表示するために、使用できる。
[システム概要]
図1は、この発明の実施の形態1によるライトフィールド取得システム100を示している。複数のカメラ115は、シーン110の一連のイメージ101、たとえば、ビデオ(映像)、を取得する。それらのカメラは、水平な線形アレイとして配置され得る。好ましくは、カメラは互いに同期を取られている。入力画像系列は、この発明の方法105により処理される。その処理は、一連の出力画像102を生成するために、再構成、再サンプリング、プリ(前置)フィルタリング、およびサンプリングの各工程を含む。そして、出力画像が、複数のプロジェクタ125により自動多視点表示装置120に表示される。また、それらのプロジェクタは、互いに同期され、且つ水平な線形アレイとして配置されうる。表示装置120は、プロジェクタとビューイングゾーン(視聴域)130とに対面する側で、上下方向に指向されたレンズ状スクリーン122の上に設けられたパララックスバリア121を含む。
取得された入力画像101における離散的な入力サンプルには低い空間分解能と高い角度分解能があり、また、表示された出力画像102における離散的な出力サンプルには、高い空間分解能と低い角度分解能があるので、アーティファクトの無い表示を生成するために、再サンプリングが必要である。
[方法の概要]
図1Bに示されているように、本方法105は3つの工程で進む。一般に、我々は信号およびフィルタを周波数ドメイン(領域)で表す。まず最初に、連続信号152が入力画像101から再構成150される。我々は公知の再構成フィルタを適用する。次に、我々は、信号を表示座標へ再パラメータ化160して、再パラメータ化されたライトフィールド161を生成する。その後、最後の工程170では、信号は、ディスプレイ(表示)ピクセル格子のナイキスト限界に適合させるために、プレ(前置)フィルタにかけられて、出力画像として表示ピクセル格子に抽出される。
[表示パラメータ化]
図2は、マルチビューオートマルティスコーピック(多視点自動立体)表示装置120に対するパラメータ化を示している。このパラメータ化は、あらゆる配置場所と方向に対してビューイングゾーン130でライトアレイ(光配列)を再生させることを試みる。
我々は2つの平面の交差部で光線をパラメータ化する。表示装置120に対して、我々は、パララックスバリア面121をt座標として、および高解像スクリーン122をv座標として使用する。尚、光線のv座標はt平面との交差部に対すものである。スクリーン122のピクセル間隔はΔv、バリア121の空隙の間隔はΔt、スクリーンとバリアの間の分離はfであり、また、深度は、一般的に、zで示される。
1箇所でt−平面と交差する全ての光線は1つのマルチビューピクセルに対応し、また、v−平面との各交差部は視点依存サブピクセルである。我々は、マルチビューピクセルの個数を空間分解能と呼び、1マルチビューピクセル当たりの視点依存サブピクセルの個数を角度分解能と呼ぶ。
図3に示されているように、表示光線は光線空間で、より高次元の格子を形成する。ほとんどの先行する物理的な表示は、図3に示されているように、4辺形のサンプリング格子に対応しない。図2の各光線は、図3の1つのサンプル点301に対応している。ほとんどの自動多視点表示は、ホリゾンタルパララックス(地平視差)のみを与える、すなわちディスプレイはv−平面上の水平方向にのみサンプルを行う。したがって、我々はt−平面上の各走査線を独立して処理でき、それは2次元光線空間に通じる。
我々は、v=constで1片の光線空間を表すのに、「ディスプレイビュー」という用語を使用する。尚、ディスプレイビューはシーンの平行射影である。一般性を損なわなければ、私たちは、平面vおよびtの間の距離fが1に正規化されると仮定する。3次元ディスプレイのこのような光線空間の解釈は、我々がそれらのバンド幅、被写界深度、およびプリフィルタリングを理解することを可能にする。
[バンド幅]
図4に示されているように、図3のサンプリング格子はディスプレイで表すことができるバンド幅に厳しい限界値を課す。これはナイキスト限界として知られている。私たちは、角度的および空間的な周波数をφ およびθ」で表し、サンプル間隔をΔvおよびΔtで表す。
そして、表示バンド幅Hは次式(1)で与えられる。
Figure 0005300258
[被写界深度]
ディスプレイの被写界深度は、φおよびθ軸の任意の相対的なスケーリングを有する、四角形状のバンド幅の対角線により与えられる。我々は、通常、空間的方向(θ軸)において、角度的方向(φ軸)におけるよりも2桁大きな、それら2軸の相対的な分解能を反映するスケーリング(尺度)を選択した。
一定深度のシーンのライトフィールドのスペクトルすなわちレイスペース(光線空間)信号のスペクトルは線φ/z+θ=0で与えられる。ここで、zは、図2に示されるように、t−平面からの距離である。深度|z| ≦ Δt / Δvのシーンに対して、スペクトル線は四角形状の表示バンド幅と左右の垂直な境界で交差する。これは、これらのシーンが表示の最も高い空間分解能θ=π/Δtで示され得ることを意味する。しかし、|z| >Δt/Δvのシーンに対しては、スペクトルは表示バンド幅と水平境界で交差する。その結果、それらの空間周波数はθ=π/Δvに減少する。これは表示の空間分解能よりも低いので、これらのシーンはぼやけて見えるであろう。
この振る舞いは、写真被写界深度の影響およびライトフィールド写真術における正確な再焦点合わせ領域と同様である。領域|z|≦Δt/Δvは、3次元ディスプレイにより最大の空間分解能で再生されることができる領域である。我々は、これをディスプレイの被写界深度と呼ぶ。ライトフィールド写真術と同様に、被写界深度は、1/Δvすなわち角度寸法におけるナイキスト限界値に比例する。
利用可能な表示は非常に小さな角度バンド幅を有するので、表示は浅い被写界深度を示す。たとえば、Δv=0.0625mmおよびΔt=2mmであれば、被写界深度は±32mmだけである。これは、表示面から32mmより大きな距離に在るように見える如何なるシーン要素もぼやけることを意味する。視点依存サブピクセルに対してピッチが0.25mmであり、高解像スクリーンとパララックスバリアとの間の距離が4mmであれば、これは8つのビュー(視点)と約25度の視野に対応する。これは非常に小さい範囲のように思われるが、ビューイング(視聴)ゾーンにおいて数メータまでの視聴距離に対して奥行(深度)知覚の説得力がある幻想を引き起こすのには十分である。
与えられたディスプレイに対してシーンを特徴付けるために、ディスプレイの被写界深度に対してシーン深度を特定することが有用である。興味深いことには、被写界深度に対するシーン深度の比率(d(z)=zΔv/Δt)はディスプレイ上のビューの間のディスパリティ(視差)に対応する。換言すると、シーン深度とビュー間の視差は交換可能である。この定義によれば、最大視差d<1を有するシーンはディスプレイの被写界深度内に在る。所与の視差d>1は、空間帯域幅が1/dの比率だけ減少されることを意味する。
[プレ(前置)フィルタリング]
連続信号をサンプリングするとき、エイリアシングを避けるために、信号をバンド制限する必要がある。式1から、これが、3次元ディスプレイに対して、四角形状の表示バンド幅の外側の入力の全ての部分を捨てる表示プレフィルタHのスペクトルに入力スペクトルを掛けるという簡単な事柄であることが分かる(図4の右を参照)。尚、このプレフィルタは、表示格子によるエイリアシングだけを扱い、ライトフィールド取得の間に起こり得るエイリアシングを考慮しないことに注意すべきである。
3次元ディスプレイの従来のバンド幅分析は、この発明の実施の形態による信号処理とは対照的に、ほとんど波動光学または幾何学的基準に基づいている。波動光学は、回折効果を研究するためには役に立つが、回折限界から遠く離れて作動する離散的な3次元ディスプレイを分析するのには有効でない。
我々の手法と対照的に、従来の技術は、シーン深度に関する明白な知識を必要とする表示バンド幅のモデルを導き出す。それらの従来技術は、2次元入力画像の深度に依存するフィルタリングを唱道する。各2次元ビューを個別に帯域制限することは、フィルタリングが空間的に変動することを要求されるので、難しい。1つの解は、そのシーンにおける最大深度に相当する線形フィルタを各ビューに適用することである。ところで、それは、利用可能な表示バンド幅の大部分を浪費し、酷くぼやけた結果に通じる。対照的に、我々の方法では、プレフィルタリングは、光線空間での直線的な操作である。
我々のプリフィルタリングを行わなければ、エイリアシングはゴーストアーティファクトとして現れる。我々の再サンプリングは、ゼロディスパリティ(ゼロ視差)平面の周りの、すなわちディスプレイの光線空間パラメータ化におけるt−平面の周りの、空間周波数を保存する。
[3次元ディスプレイのための再サンプリング]
以上で、自動多視点ディスプレイのバンド幅を分析し、エイリアシングを避けるために連続入力信号をどのようにプレフィルタリングする必要があるかについて分析した。しかし、実際には、ライトフィールドはサンプル信号として表わされ、通常、それらサンプル信号は、カメラアレイを使用して取得される。サンプリングされたライトフィールドを自動多視点ディスプレイ上に示すために、入力ライトフィールドのサンプル101が、そのディスプレイのサンプル102すなわちピクセルにマップされる必要がある。
残念ながら、カメラアレイや自動多視点ディスプレイなどの典型的なライトフィールド取得装置のサンプリングパターンは、光線と1対1対応にならない。したがって、自動多視点ディスプレイ上にライトフィールドを示すことは、再サンプリング操作を含む。
さて、ライトフィールド取得およびライトフィールド表示中に関わる両サンプリング工程、すなわち、シーン取得中に起こるサンプリング、およびカメラのサンプルを表示ピクセルにマッピングするときに行われるサンプリング、によるエイリアシングアーティファクトを避ける再サンプリングフレームワークついて説明する。
我々の技術は、Heckbertにより記述され、本明細書中に引用により援用される再サンプリング方法論(Fundamentals of Texture Mapping and Image Warping, Ucb/csd 89/516, U.C. Berkeley, 1989)に基づいている。ところで、その再サンプリングは、コンピュータグラフィックにおけるテクスチャマッピングのためのものである。対照的に、我々は、現実世界のライトフィールドを再サンプリングする。
我々は、どのようにして入力ライトフィールドを再パラメータ化して、それをディスプレイと同じ座標系で表わすかについて説明する。これは、以下に述べるように、我々が再構成とプリフィルタリングとを結合する再サンプリングフィルタを導き出すのを可能にする。
[再パラメータ化]
我々の結合された再サンプリングフィルタを導き出す前に、我々は、入力ライトフィールドおよび3次元ディスプレイに対する共通のパラメータ化を確立する必要がある。我々は、以後の説明を、ライトフィールドパラメータ化がディスプレイに平行である最も一般的な場合に制限する。
カメラおよび焦点面の入力座標は、tinおよびvinによってそれぞれ指定され、tin軸からの距離または深度はzinにより指定され、サンプリング間距離はΔtinおよびΔvinにより指定される。また、tin軸はカメラベースラインとも呼ばれる。同様に、我々は、ディスプレイ座標t、v、z、Δt、およびΔvを使用する。一般性を損なわなければ、我々は、ディスプレイ入力および入力ライトフィールドの両方に対するt−平面およびv−平面間の距離が1に正規化されるものと仮定する。
入力およびディスプレイ座標の関係は単一のパラメータfinにより与えられ、それはカメラ平面tinとディスプレイのゼロ視差平面tとの間の距離である。この変換は光線空間におけるシャー(ずれ)に対応している。
Figure 0005300258
Mはこの式の中央部における2×2マトリクスである。
自動多視点ディスプレイは、通常、高い空間分解能、たとえば1走査線当たり数百のマルチビュー(多視点)ピクセル、および低い角度分解能、たとえば、約10の視点依存サブピクセル、を有する。対照的に、取得されたライトフィールドは、低い空間分解能、たとえば数十のカメラ、および高い角度分解能、たとえば1走査線当たり数百のピクセル、を有する。
図5に示されているように、これは、非常に異方性であり、且つお互いに対してねじれた2つのサンプリング格子に通じる。図5では、サンプル501はディスプレイ走査線サンプルを表し、またサンプル502はカメラ走査線サンプルを表す。
[結合された再サンプリングフィルタ]
図6は、再サンプリング方法をさらに詳細に示す。左側が入力パラメータ化であり、右側が出力パラメータ化であり、下側が取得空間から表示空間までの再パラメータ化である。図6は、象徴的に入力スペクトル611、レプリカ612、およびフィルタ613を示している。
図6に示されるように、3次元ディスプレイアンチエイリアシングのための再サンプリング方法は、周波数ドメイン(領域)における信号およびフィルタを表す3つの工程で進む。まず最初に、連続信号が、角度および空間周波数φinおよびθinで表される、最初の入力パラメータ化601で与えられた入力データ101から再構成150される。
この工程におけるエイリアシングの問題を避け、入力信号の最適な利用を図るために注意しなければならない。我々はライトフィールドレンダリングのために公知の再構成フィルタを適用する。(Stewart et al、”A new reconstruction filter for undersampled light fields”、 Eurographics Symposium on Rendering,ACM International Conference Proceeding Series,pp.150−156,2003、およびChai et al、”Plenoptic sampling”、Computer Graphics,SIGGRAPH 2000 Proceedings、pp.307−318、を参照。両者を本明細書中に引用により援用する。)
これらの技術は、隣接するレプリカと重なり合う部分を捨てつつ、サンプリングされたスペクトルから中央のレプリカの最大領域を抽出する。
次に、我々は、上述のマッピングを使用して、再構成された信号を、φおよびθによって表されたディスプレイ座標621へ再パラメータ化160する。
そして、最後の工程170では、信号は、上述のように、表示ピクセル格子のナイキスト限界に適合させるために、プレフィルタされて、表示ピクセル格子にサンプルされる。プリフィルタリングは、ディスプレイ座標におけるサンプル信号のレプリカが重なり合わないことを保証する。これのより、ぼやけ(ブレ)効果が避けられる。
我々は、いま、上述した3つの工程を結合することによって、統合された再サンプリングフィルタを導き出す。我々は、実用化に対してより役に立つ空間領域で作業する。我々は以下の通り作業を進める。すなわち、入力ライトフィールド101のサンプルξi、jを考えると、我々は連続したライトフィールドlin152を再構成150する。
Figure 0005300258
ここで、rはライトフィールド再構成カーネルを表す。
式(2)を使用して、我々は、次式(4)により、再構成されたライトフィールド152をディスプレイ座標161へ再パラメータ化160する。
Figure 0005300258
ディスプレイ座標で表わされた、再構成されたライトフィールドを、ディスプレイプレフィルタhで畳み込んで、次式(5)のバンド(帯域)限定された信号(以下、バンド限定信号と呼ぶ)を生成する。
Figure 0005300258
この信号をディスプレイグリッド(表示格子)上にサンプリングする場合、如何なるエイリアシングアーティファクトも発生しない。
上記の3つの工程を結合することによって、次式(6)のように、バンド限定信号を入力サンプルの加重和として表す。
Figure 0005300258
重み付けカーネルは、所謂、再サンプリングフィルタである。それは、ディスプレイ座標で表された再構成カーネルのコンボルーション(畳み込み)として定義され、そのプレフィルタは次式(7)により表される。
Figure 0005300258
我々は、従来のガウス関数を使用して、全てのライトフィールド再サンプリングフィルタを実現した。
再構成フィルタとプレフィルタの両方が高異方性であるので、できるだけ信号帯域幅を保持するために、慎重にフィルタを調整する。尚、式(2)は[φin、θin ] = [φS、θ ]M−1を含意することに注意すべきである。したがって、入力スペクトルは垂直軸に沿って剪断される。
また、我々は、線θinin+φin=0(深度zin=finに相当する)がディスプレイのゼロ視差平面にマップされることに注目する。したがって、入力座標で表されるディスプレイの被写界深度は、カメラからの距離fin=Δt/Δvにある。これは、カメラ平面とディスプレイ平面との間の距離finが、対象となる物体に対して、zin−fin=zd<Δt/Δvとなるように選択されることを意味する。
[カメラベースラインおよび被写界深度]
上述したような、入力ライトフィールドと出力ライトフィールドとの関係は、ディスプレイが均等にスケーリングされたシーンに対するバーチャル(仮想)ウィンドウとして働くことを含意する。ディスプレイは、異なった、通常はより小さな、スケール(縮尺)でシーンのライトフィールドを再生させる。しかし、これを実現するのは、しばしば、望ましくないし、実際に可能でもない。
シーンの深度領域が比較的浅いディスプレイの被写界深度を遙かに超えていることは、珍しくない。このことは、シーンの大部分がディスプレイバンド幅の外側であることを意味し、それは酷くぼけたビューにつながる虞がある。さらに、野外のセット等のように、対象物体がカメラから遠く離れているシーンに対して、上記仮定は、非常に大きなカメラベースラインが必要とされることを意味する。また、それは、ディスプレイの観察者によって見られる一対の立体ビューが、現実のシーンにおける観察者の2つの目より遙かに離れている、物理的に遠く離れているカメラに相当することを意味するであろう。
これらの問題は、カメラベースラインの寸法を変えることによって、解決できる。これは、シーンの表示された深度を減少させる入力ライトフィールドの追加の1次変換として表すことができる。この追加の自由度により、我々が、焦点の合うことを必要とする入力シーンにおける望ましい深度範囲を特定することが可能になる。我々は、この深度範囲をディスプレイ被写界深度にマッピングする、所要のカメラベースラインスケーリングを推論する。
[カメラベースラインのスケーリング]
図7に示されるように、取得の間にカメラベースラインtin701を変更することは、表示された構成を変換することに対応する。図7では、実線は取得ジオメトリを示しており、また点線はディスプレイしジオメトリを示している。
観察者710は、与えられた位置で、カメラベースラインの中心により近いカメラによって取得される透視図を見る。すなわち、我々は、ベースライン平面tinとの交差部が倍率s>1によりスケーリング(拡大)され、ディスプレイのゼロ視差平面との交差部(すなわちt−平面)が保存されるように、各取得されたカメラ光線を再マッピングする。
このマッピングは入力光線空間の線形(1次)変換に対応しており、また、光線空間の如何なる線形(1次)変換もシーンジオメトリの射影変換に対応する。図7に示された変換のために、射影変換は次式(8)のようになる。
Figure 0005300258
すなわち、シーンにおける点(x、z)は点(x’/w’、z’/w’)にマッピングされる。また、図7にシーンジオメトリの射影変換を示す。このシーン変換は、ステレオビュー融合を支援するのに使用される立体ディスプレイで使用される深度削減法と密接に関連する。この変換は無限のポイント、すなわちz=∞、を有限の深さz’/w’=(fins/(s−1+fin)へ移動する。
さらに、sが無限へ近づくとき、z’/w’はfinに近づく。これは、シーン深度がディスプレイのゼロ視差平面に向かって圧縮されることを意味する。我々は、図7に示されるマッピングを含めることにより、ディスプレイ座標から入力座標への変換を一般化する。この変換は次式(9)のようになる。
Figure 0005300258
我々は、このマッピングが自由なパラメータfinおよびsによって決定されることを強調するために、それをM(fin、s)と呼ぶ。
[シーン被写界深度の制御]
実際的な適用では、ユーザは、シーンにおける所与の深度範囲がディスプレイの被写界深度にマッピングされて、シャープ(鮮明)に見えることが保証されることを望んでいる。限定された深度範囲内のシーン要素のバンド幅が2つのスペクトル線で制限されていることを想起すべきである。さらに、ディスプレイの被写界深度は、四角形状のバンド幅の対角線により与えられる。式(9)の2つのフリー(自由)パラメータ、カメラベースラインをスケーリング(拡大、縮小)するためのs、およびシーンに対してディスプレイのゼロ視差平面を位置決めするためのfin、を使用して、我々はこれらの2組の線を配列して、期待される効果を発揮するマッピングを決定する。
我々は、2つの対応するペア(対)のスペクトル線を等しくすることにより、マッピングを決定する。すなわち、第1のペアはディスプレイ座標にマッピングされた、ユーザにより特定された深度範囲を限定し、また第2のペアはディスプレイの被写界深度を定義する。我々は、ユーザがディスプレイ上に焦点を結ぶように望む、最小および最大のシーン深度zminおよびzmaxをzfrontおよびzbackで表す。パラメータsおよびfinに対する解は、それぞれ次式(10)、(11)で表される。
Figure 0005300258
[取得の最適化]
3次元ディスプレイ上に示されるライトフィールドのスペクトルとエイリアシングは、カメラの数、それらの間隔、それらの開口、シーン深度範囲、およびディスプレイ解像度等の多くの取得パラメータ(取得パラメータ化)およびディスプレイパラメータ(ディスプレイパラメータ化)に依存する。3次元映写技師の決定は、芸術的な選択、物理的制約、および取得バンド幅とディスプレイバンド幅との最適利用の願望、の組合せによって行われる。したがって、我々は、これらの要素がどのように相互作用して、3次元ディスプレイに対する最終的なスペクトルおよびエイリアシングにどのように影響を及ぼすかを分析する。
まず最初に、我々は、カメラ開口の、取得されたバンド幅に対する影響について説明する。次に、我々は、全ての取得パラメータとディスプレイパラメータの結果について説明し、取得の間、パラメータの選択を最適化するのに、どうようにこの分析を使用できるかを示す。
[有限開口カメラ]
上述したチャイ外は、理想化されたピンホールカメラで取得されたライトフィールドのスペクトルについて述べた。ここで、我々は、現実のカメラの有限開口がピンホールライトフィールドのスペクトルにバンド(帯域)制限効果を持つことを示す。我々の導出は、図2、3、5および7に示したものと若干異なるパラメータ化に基づいている。
図8Aに示すように、我々は、カメラの共通の焦点面としてt−平面を選択し、またtinを距離dだけ離れたレンズ801の平面として、v−平面をカメラセンサを含む平面として、それぞれ選択する。平面vinおよびtinは、上述したように、距離1だけ離れている。
我々は、大きさaの開口がカメラセンサから距離fだけ離れてレンズ上に存在すると仮定する。これは正確には現実のレンズに対する場合ではないが、誤差は我々の目的に対しては無視しうるものである。薄肉のレンズモデルによると、センサ平面で取得された如何なる光線l(v、t)も、次式(12)に示すように、レンズを透過する全ての光線l(v、t)の重み付け積分に対応する。
Figure 0005300258
ここで、積分範囲は、図8Aに示されるように、開口に対応し、また、αはセンサ平面の法線と光線との間の角度である。我々は、4次元ライトフィールドの代わりに2次元ライトフィールドで、且つ2次元レンズおよびセンサの代わりに1次元レンズおよびセンサで作業しているが、我々の導出はより高い次元の場合にも等しく適用される。
そして、我々がv−平面に平行な平面でレンズを「摺動させる」と仮定すると、これを畳み込み(13)として表すことができる。
Figure 0005300258
ここでb(v、t)は開口フィルタである。我々は、cosの項を無視して、bを次式(14)のように定義する。
Figure 0005300258
フーリエドメイン(領域)では、式(13)における畳み込みはシーンライトフィールドとカメラ開口フィルタのスペクトルの積である。我々は、図8Bに示されるように、θに沿って変換(移動)されたφにおける正弦基数関数(sinc)であるカメラ開口フィルタのスペクトルを、θに沿って変換(移動)されたφにおける幅2πd/(a(f+d))のボックス802により近似する。
上記の再サンプリングに対して使用されたと同様の変換を使用して、我々はいま座標を入力ライトフィールドのパラメータ化に戻し、その結果、図8Cに示されたバンド幅803をもたらす。距離dにフォーカスされた有限開口aを有するレンズを通して観察された連続したライトフィールドは、幅2π/aおよび傾き−dの剪断されたスラブ(平板)にバンド限定される。
[バンド幅利用および最小サンプリング]
実際的応用では、利用可能なカメラの数は制限される。また、カメラの配置も制約されうる。したがって、制限され且つ制約された資源に対する最適な装置構成を決定することが望まれる。我々の再サンプリング技術で、セットアップを推測することができる。我々は、取得パラメータを考慮して、再サンプリングフィルタの最適な「形状」を決定し、ディスプレイバンド幅に対するその再サンプリングフィルタのバンド幅を分析することができる。
我々は、サンプリングされた入力信号101におけるエイリアシングが、利用可能なバンド幅を減少させる主な要因であることに気付いた。カメラの定数を考えて、このバンド幅を増大させるための2つの主なオプションがある。まず最初に、我々はカメラベースラインを減少させることができ、これにより、ディスプレイにマッピングされるとき、シーンの深度を小さくする。この場合、入力スペクトルは深度減少で角度方向φにより狭くなる。明らかに、カメラベースラインをあまりにも減少させすぎると、シーン深度が感じ取れなくなる虞がある。2番目に、我々はカメラ開口を増大させることができる。しかし、カメラ開口が大き過ぎると、取得された被写界深度がディスプレイ被写界深度より浅くなる虞がある。我々は、カメラの焦点深度がfinに等しくなるように選択する。それは、取得された入力スペクトルのスラブが四角形状のディスプレイバンド幅に平行であることを意味する。
代わりのセットアップでは、与えられたシーンを取得し、物体を或る程度のフォーカス深度に保つことが、望ましい。したがって、ディスプレイに高品質の結果を実現するために必要とされる最小のサンプリングレートが決定される。直観的には、再構成エイリアシングがディスプレイのバンド幅内に現れないとき、サンプリングレートは与えられたディスプレイに対して充分である。取得サンプリングレートをこの評価基準を超えて増大させても、出力品質は向上しない。
我々は、入力座標からディスプレイ座標へのマッピングを決定する、焦点距離finとベースラインスケーリングsを決定するために、式(11)を使用する。次に、我々は、入力スペクトルのレプリカの最もタイトなパッキングを見い出すことによって、非中心レプリカのいずれもがディスプレイプレフィルタと重なり合わないように、最小のサンプリングレートを導き出す、すなわち、カメラの最小数および最小分解能を導き出す。これにより、所要のカメラの個数をディスプレイの角度分解能に減少させることが可能である。しかし、これを実現するのは、より大きなカメラ開口が必要とされるので、しばしば非実用的である。
[ビュー挿入]
再構成工程150および再パラメータ化工程160に代わるものとして、サンプリングされた入力ライトフィールド101から再パラメータ化されたライトフィールド161を決定するために、ビュー補間を使用することもできる。深度マップが利用可能であれば、再投影を使用して、たとえば、ブーラ(Buehler)外の非構造化ルミグラフレンダリングプロセス、「Unstructured Lumigraph Rendering」、 Proceedings of ACM SIGGRAPH, pp. 425−432, Aug. 2001、(本明細書中に引用により援用される)を使用して、ビュー補間を実現することができる。
エイリアシングアーティファクトを避けるために、信号はv−平面に沿ってオーバ(過剰)サンプリングされる。オーバサンプリングされた信号は、ディスプレイバンド幅内でエイリアシングアーティファクトが減少される。ビュー補間技術は、ディスプレイが実際に提供するより多くのビューを生成するために使用される、すなわちv−平面においてより小さな間隔でビューを生成するために使用される。フィルタリングの後に、信号は、ディスプレイの元の分解能へサブ(副)サンプリングされる、すなわちディスプレイパラメータ化される。
スペクトルの非中心レプリカのいずれもディスプレイプレフィルタと重なり合わないならば、エイリアシングは防止される。我々は、ディスプレイ分解能でサンプリングされたマルチビュー信号はdピクセルの最大視差を有すると仮定する。スペクトルの傾きは最大視差dに対応する。したがって、スペクトルの傾きの水平距離は、フィルタとのオーバラップ(重なり合い)を取り除くため、少なくとも(d+1)/2ピクセルである必要性がある。これは、(d+1)/2のオーバサンプリング率を含意する。したがって、kビューのディスプレイに対して、補間するビューの総数は少なくともk((d+1)/2)ビューである。
[ディスプレイプリフィルタリング]
マルチビュービデオ(多視点映像)のプリフィルタリングは3次元ディスプレイのパラメータが既知であるシステムに対して適用でき、また、信号帯域幅は、圧縮前に、ディスプレイの能力に適合させることが出来る。このタイプの処理はビデオゲームシステム或いはデジタルシネマアプリケーションに対して適用でき、また、それは伝送される信号の所要のバンド幅を最小にするのに役に立つ。
図9はディスプレイプリフィルタリング方法900を示す。サンプリングされた入力ライトフィールド101はサンプリングされた出力ライトフィールド102を生成する方法105により処理される。サンプリングされた出力ライトフィールドはマルチビュービデオエンコーダ901に入力される。
そのエンコーダ901の出力は圧縮されたビットストリーム902である。その圧縮されたビットストリームは、後で再生するために、コンピュータで読取り可能な媒体910に保管(記憶)されたり、或いは、以下に詳述するように、スケーラブルなマルチビュービデオデコーダ1001に伝送されることができる。
上記方法105の主要な目的は、データがディスプレイグリッドの分解能(解像度)でサンプリングされることを保証することにある。また、入力ライトフィールド101から、ディスプレイのナイキスト限界値を超える高周波コンテンツを取り除くことも重要である。これらの周波数はマルチビューディスプレイ上にエイリアシングとして現れるので、方法105におけるフィルタリング工程は画像品質を低下させない。しかし、方法105は、入力スペクトルの選択部分でエネルギを抑制することによって、圧縮効率に対してポジティブな効果を持っている。実験結果は、サンプリングされた出力ライトフィールド102を圧縮するバンド幅が、方法105が適用されずに入力ライトフィールド101が直接的に圧縮されるケースと比較して、2倍だけ減少されることを示している。
[スケーラブルなデコーディング(復号化)]
圧縮前にディスプレイ装置のパラメータにアクセスする手段を持っていない、コンシューマブロードキャスト(消費者放送)およびビデオ会議アプリケーション等のアプリケーションに対して、圧縮フォーマットは、様々なデコーディング(復号化)およびディスプレイ能力に適応するように設計される。そのようなシステムでは、圧縮フォーマットがデコーディング(復号化)リソースを最小にすることを可能にすることが重要である。
図10は、方法105を実行する手段が後に続く、スケーラブルなマルチビュービデオデコーダ1001を含む受信システム1000を示す。スケーラブルなビットストリーム1002およびディスプレイパラメータ(表示パラメータ化)903が、復号されたライトフィールド1003を生成するために、スケーラブルなマルチビュービデオデコーダ1001へ入力として提供される。そして、復号されたライトフィールド1003は方法105を実行する手段に与えられて、サンプリングされた出力ライトフィールド1004を生成し、それは3次元ディスプレイ(表示)装置1120上に表示1110され得る。
スケーラブルなデコーダ1001は、ビュースケーラビリティおよび空間的なスケーラビリティの両方をサポートする。受信システム1000における、スケーラブルなデコーダの主な利点は、表示装置にライトフィールドをレンダリングする前に適用された方法105で効率的なデコーディング(復号化)を容易にすることである。ディスプレイパラメータ(表示パラメータ化)903がスケーラブルなマルチビュービデオデコーダ1001に提供され、それにより、1組のターゲット(目標)ビュー1011および復号されたライトフィールド1003の各ターゲットビューに対する関連空間分解能(解像度)1012が決定される。
[ビュースケーラビリティ]
効率的な圧縮を行うことは、良い予測子を持つことに依存する。
時間的に隣接する画像間の相関関係はしばしば非常に強いが、空間的に隣接する画像を含むことは幾つかの利点を提供する。たとえば、速い物体動きの間、すなわち互いに隣接するビューに同時に既に存在する複数の物体が1つのビューに現れるとき、空間的に隣接する画像はシーンの非遮蔽領域で有用な予測子である。一例の予測構造が図11に示されており、そこでは、概ね水平な実線が時間的予測と依存関係を示し、概ね垂直な点線が空間的予測と依存関係を示す。8つの時刻(t−t)に、5つのビュー(v−v)がある。尚、ビューは水平な時間次元で時間的に隣接しており、且つ垂直なビュー(視野)次元で空間的に隣接している。
ビュースケーラビリティは、ビュー次元における階層的な依存関係でマルチ−ビュー(多視点)ビデオを符号化することによって実現される。一例として、図11に示されるように、各時刻に対して5つのビューを有する予測構造について考える。ディスプレイによりこれらのビューの内3つを復号することが必要とされるだけであるならば、最小の復号化条件を有する2つのオプション(選択肢)がある。
第1のオプションは、圧縮されたビットストリーム902の内の、選択された非目標ビューに対応する部分を選択的に捨てることである。たとえば、双方向の依存関係を有する2つのビュー、すなわちvおよびv、が捨てられる。第2のオプションは、圧縮されたビットストリームにおいて、復号順序で後のビュー、すなわちvおよびv、に対応する部分を捨てることである。第1のオプションはビュー間の相対的な視差を増大させ、その結果、必要な再サンプリング量を増大させる。したがって、サンプリングレートを最小にするためには、第2のオプションがこの例ではより良好な選択である。
この発明の実施の形態1では、図10のスケーラブルなマルチビュービデオデコーダ1001はビューのサブセット(部分集合)を復号し、この場合のサブセットのビューの数はディスプレイ装置によってサポートされたビュー数に正確に対応する。それらのビューは、サンプリングレートを最小にすべく、お互いの間隔が近接するように、選択される。すなわち、空間的に隣接しているビューの間のカメラベースライン距離も最小限である。
この発明の第2の実施の形態1では、スケーラブルなマルチビュービデオデコーダ1001はビューのサブセット(部分集合)を復号し、この場合のサブセットのビューの数はディスプレイ装置によってサポートされたビュー数よりも少ない数に対応する。これは、多くの状況下で必要であるか、或いは望ましいかもしれない。
まず最初に、ディスプレイでサポートされたビューの数を出力するために必要なデコーディングリソースが利用できないか、或いは長時間の遅延を生じるならば、減少された数のビューだけを提供することができるであろう。2番目に、任意の位置に配置された、より大きな復号されたビューの数よりもむしろ、空間的に隣接するビューの間のベースライン距離が、デコーダの出力として、常に等しいことがより望ましいかもしれない。これらのインスタンス(実体)は、ビューの間の予測依存関係の直接の結果として生じてもよい。
この発明の第3の実施の形態1では、スケーラブルなマルチビュービデオデコーダ1001はビューのサブセット(部分集合)を復号し、この場合のサブセットのビューの数はディスプレイ装置によってサポートされたビュー数よりも大きな数に対応する。これは、オーバサンプリングされた信号の品質を改良するためには望ましいが、より多くのデコーディングリソースとより高いバンド幅とを要求するであろう。以下にさらに詳細に説明する補助深度マップを使用することにより、複雑さおよびバンド幅に対する衝撃を緩和することができる。
[空間的なスケーラビリティ]
上述したように、各ビューの空間分解能は入力信号のスペクトルに影響する。入力スペクトルのレプリカの最もタイトなパッキングを見い出すことによって、非中心レプリカのいずれもがディスプレイプレフィルタと重なり合わないように、最小のサンプリングレートを導き出す。復号されるべきビューの数が前述のように決められ、カメラ開口等の取得パラメータ(取得パラメータ化)が固定されるならば、唯一の残りの自由度は空間分解能である。
この発明の実施の形態1では、スケーラブルなマルチビュービデオデコーダ1001は直近のマッチをディスプレイ分解能に最も近いものを提供する空間分解能まで復号化を行う。
このようにして、高解像ビデオを完全に復号して、そのビデオをディスプレイの分解能にサンプリングする必要性は避けられる。その結果、スケーラブルなマルチビュービデオデコーダ1001は、ディスプレイパラメータ903で示したディスプレイ分解能を超えてマルチ−ビュービデオの復号化をサポートする必要が無く、また、デコーダは必要なメモリおよび処理を最小にすることができる。
この発明の別の実施の形態1では、スケーラブルなマルチビュービデオデコーダ1001は、圧縮されたビットストリームを、ディスプレイ分解能より高い空間分解能を持つ復号されたライトフィールド1003に復号する。したがって、方法105は、空間分解能をディスプレイ分解能のそれへ再サンプリングすることを要求される。
[補足エンハンスメント情報]
オーバサンプリング率は2つの空間的に隣接するビュー間の最大視差に依存する。最大視差を得る1つの方法は、復号されたライトフィールド1003に基づいて、受信システム1000における視差を決定することである。これは、相当の複雑さを要求するので、リアルタイム受信器の実装のための好ましい解決策ではない。
従来のマルチビュービデオエンコーダは、空間的に隣接するビューにおける画像間の視差ベクトルを決定して、予測のためにこれらの視差ベクトルを利用している。したがって、既に行われている計算を活用することにより、エンコーダでの最大視差を決定することが可能である。
受信システム1000に視差情報の信号を送る方法が要求される。H.264/AVCビデオ符号化規格との関連で、ITU−T Rec. H.264 ISO/IEC14496−10、「Advanced Video Coding」、2005(本明細書に引用により援用される)を参照。復号化のためには要求されないが、デコーダのための有用な情報は、補足エンハンスメント情報(SEI)メッセージで搬送される。SEIメッセージはビデオのコンテンツと同期して転送される。
この発明の上記実施の形態1によれば、入力サンプリングレートでの空間的に隣接する全てのビューの最大視差は、SEIメッセージの一部として信号で送信される。この発明の実施の形態1では、視差値は完全なピクセル分解能(解像度)の単位で表わされる。この発明の第2の実施の形態1では、視差値は、ハーフ(1/2)ピクセル分解能やクォター(1/4)ピクセル分解能等のサブピクセル分解能の単位で表わされる。
最大視差を表すシンタックスを含むSEIメッセージが受信システム1000に伝送され、そしてスケーラブルなマルチビュービデオデコーダ1001により最大視差が復号される。最大視差は、シーンに依存するパラメータであるため、経時的に変動し得る。したがって、SEIメッセージを周期的に送ることができ、それだけ最大視差値が更新され得る。最大視差の新しい値は、オーバサンプリング率における変動を含意する。
空間的に隣接するビュー間のベースライン距離が、たとえば、複数のビューの或るサブセット(部分集合)を復号することによって変化するならば、最大視差値はそれだけ変更される。たとえば、図11の3つのビューが合計5つのビューから復号される前述の例を参照。この例では、最大視差は5つのビューの間隔に対応している。空間的に隣接するビュー間の複数のカメラベースライン距離が等しく離れていると仮定すると、ビューのvとvに対応する部分が捨てられるか、或いは出力の一部として復号されないならば、空間的に隣接するビュー間のベースライン距離が倍にされるので、出力ビュー中の最大視差は倍にされる。
[深度マップ]
図12は、この発明の実施の形態1によるライトフィールド取得システム1200を示している。複数のカメラ115は、シーン110のサンプリングされたライトフィールド、すなわち一連のビデオの画像、を取得する。それらのカメラは、水平な線形アレイとして配置され得る。好ましくは、カメラは互いに同期を取られている。シーン表示1202は、サンプリングされた入力ライトフィールド101と深度マップ1201とを含む。深度マップは、当該分野で知られているように、特殊カメラ或いは取得ハードウェアにより、またはサンプリングされた入力ライトフィールド101で計算により、取得できる。深度マップビットストリームを生成するために、深度マップを符号化できる。
図13では、深度マップ1201は、サンプリングされた入力ライトフィールド101とディスプレイパラメータ903と共に、方法105への入力として使用される。深度マップは、サンプリングされた出力ライトフィールド102を生成するために、方法105の処理工程内のビュー補間のために使用される。方法105が圧縮用のプレ(前置)フィルタとして使用されると、サンプリングされた出力ライトフィールド102は、出力ビットストリーム902を生成するために、マルチビュービデオエンコーダ901に入力される。
図14は、方法105を実行する手段が後に続く、スケーラブルなマルチビュービデオデコーダ1001を含む受信システム1400を示す。スケーラブルなビットストリーム1002およびディスプレイパラメータ903が、復号されたライトフィールド1003を生成するために、スケーラブルなマルチビュービデオデコーダ1001へ入力として提供される。また、シーン表示1202の深度マップ1201の符号化された表示である、深度マップビットストリーム1402も受信システム1400に入力される。補助深度マップビットストリーム1402は深度デコーダ1401によって復号され、復号された深度マップ1403を作成する。復号されたライトフィールド1003および復号された深度マップ1403は、サンプリングされた出力ライトフィールド1004を生成するために、方法105に入力される。深度マップは、サンプリングされた出力ライトフィールド1004を生成するために、方法105の処理工程内のビュー補間のために使用される。
図15は、方法105を実行する手段が後に続く、スケーラブルなマルチビュービデオデコーダ1001を含む受信システム1500を示す。符号化された深度マップ1502を含むスケーラブルなビットストリーム1502およびディスプレイパラメータ903が、復号されたライトフィールド1003および復号された深度マップ1403を生成するために、スケーラブルなマルチビュービデオデコーダ1501へ入力として提供される。復号されたライトフィールド1003および復号された深度マップ1403は、サンプリングされた出力ライトフィールド1004を生成するために、方法105に入力される。
受信システム1500において、深度マップは、受信システム1400において行われるように、サンプリングされた出力ライトフィールド1004を生成するために、方法105の処理工程内のビュー補間のために使用される。あるいはまた、スケーラブルなマルチビュービデオデコーダ1501は、増大された数のビューで復号されたライトフィールド1003を出力するために、復号化の間、復号された深度マップを使用できる。
[発明の効果]
この発明は、3次元ディスプレイ装置に対して、ライトフィールドをサンプリングしてエイリアス化するための方法およびシステムを提供する。この方法は、問題を信号処理方法で処理できるようにする光線空間分析に基づいている。この発明は、3次元ディスプレイのバンド幅を決定し、浅い被写界深度の挙動について説明し、線形フィルタリング光線空間によりアンチエイリアシングを実現することができることを示した。この発明は、3次元ディスプレイ上でエイリアス化せずに、制限された分解能で取得された高品質のシーンをレンダリングすることを可能にする再サンプリングアルゴリズムを提供する。
ディスプレイの被写界深度にマッピングされるべきであるシーンにおける深度範囲をユーザが特定するのを許容することによって、我々は現在のディスプレイの浅い被写界深度の影響を最小にする。この発明は、所与の取得およびディスプレイコンフィグレーション(構成)により提供され得る画像品質を分析するのに使用できる。
高品質ディスプレイに対して、最小のサンプリング条件が導き出される。この発明はマルチ−ビュー取得および3次元ディスプレイ装置のより良好なエンジニアリング(工学的処理)を可能にする。
また、この発明は、圧縮の前にフィルタとして再サンプリングプロセスを使用する方法およびシステムを提供する。3次元ディスプレイ上のエイリアシングに寄与する入力信号の高周波成分を抑制することによって、符号化されたマルチビュービデオはそのバンド(帯域)幅を低減される。
圧縮の間、ディスプレイパラメータが分からないインスタンス(実体)に対して、この発明は、様々な受信システムコンフィグレーション(構成)で再サンプリングプロセスを利用する方法およびシステムを提供する。ビュースケーラビリティと空間的なスケーラビリティが、コンピュータのリソースを最小にするのに使われる。
受信システムにおけるコンピュータの(計算)要求条件をさらに減少させるために、この発明は入力信号の最大視差を受信器に送信するための方法を記述している。
また、この発明は、深度マップを取得するための方法およびシステムについて記述している。深度マップは、オーバサンプリングされた信号を実現するために、再サンプリングプロセスにおいて使用される。深度マップは、符号化前にプリフィルタリングのために使用するか、或いは符号化されて、受信器に伝送されることができる。
この発明は好適な実施の形態を例に挙げて説明したが、この発明の精神および範囲内で種々の他の改変および変更を行うことができることを理解すべきである。したがって、添付の特許請求の範囲の目的は、この発明の真実の精神および範囲に含まれるような全ての変形例および変更例をカバーすることである。
この発明の実施の形態1による、3次元表示装置上に3次元ライトフィールドを取得して表示するためのシステムを概略的に示す平面図である。 この発明の実施の形態1による、ライトフィールドを再サンプリング、アンチエイリアシングする方法のフローチャートである。 この発明の実施の形態1による、ディスプレイ(表示)パラメータ化の概略図である。 この発明の実施の形態1による、4辺形のサンプリンググリッド(格子)である。 この発明の実施の形態1による、バンド(帯域)幅要件に関する概略図である。 この発明の実施の形態1による、カメラとディスプレイ装置の走査線のサンプルを重ね合わせた概略図である。 この発明の実施の形態1による、サンプリングおよびフィルタリング方法の概略図である。 この発明の実施の形態1による、ライトフィールド取得ジオメトリからライトフィールド表示ジオメトリまでの変態の概略図である。 この発明の実施の形態1による、カメラのパラメータ平面の概略図である。 この発明の実施の形態1による、カメラ開口フィルタのスペクトルの近似の概略図である。 図8Bに示された、スペクトルのバンド幅の概略図である。 この発明の実施の形態1による、アンチエイリアシングおよび圧縮方法のフローチャートである。 この発明の実施の形態1による、スケーラブルな復号化およびアンチエイリアシングする受信システムのブロック図である。 この発明の実施の形態1による、マルチビュー(多視点)ビデオ予測構造の概略図である。 この発明の実施の形態1による、深度マップを含むシーン表示を取得するためのシステムの概略図である。 この発明の実施の形態1による、深度マップを使用したアンチエイリアシングおよび圧縮方法のフローチャートである。 この発明の実施の形態1による、深度マップを別個に復号化するスケーラブルな復号化、およびアンチエイリアシングする受信システムのブロック図である。 この発明の実施の形態1による、深度マップの復号化を含むスケーラブルな復号化、およびアンチエイリアシングする受信システムのブロック図である。
符号の説明
101 入力ライトフィールド、102 出力ライトフィールド、115 カメラ、161 ライトフィールド。

Claims (16)

  1. 3次元ライトフィールドを取得、符号化、復号、表示するための方法であって、
    入力ライトフィールドの入力サンプルを補間して再パラメータ化されたライトフィールドを生成する工程であって、前記入力サンプルが複数のカメラによって取得された3次元シーンの異なるビューであり、前記補間が取得パラメータ化および表示パラメータ化によって行われる工程と、
    前記再パラメータ化されたライトフィールドに対して、光線空間での直線的な操作であるプレフィルタリングを行い、プレフィルタリングされたライトフィールドを生成する工程と、
    前記プレフィルタリングされたライトフィールドをサンプリングして、3次元表示装置上に出力ライトフィールドとして表示するための、前記表示パラメータ化を有する出力サンプルを生成する工程と、
    前記出力ライトフィールドを符号化して、圧縮されたスケーラブルなビットストリームを生成する工程と、
    前記表示パラメータ化により、デコーダの前記スケーラブルなビットストリームを復号して、復号されたライトフィールドを生成する工程と、
    前記表示パラメータ化により前記復号ライトフィールドを再サンプリングして、前記3次元表示装置に対する、サンプリングされたライトフィールドを生成する工程と、
    前記復号化の間、前記圧縮されたビットストリームの、目標空間分解能より高い空間分解能に対応する部分を捨てる工程と、
    を備え、
    前記スケーラブルなビットストリームを復号するスケーラブルなデコーダは、目標ビュー、および前記復号されたライトフィールドの各目標ビューに対する目標空間分解能を決定し、
    前記目標ビューは時間的な依存関係および空間的な依存関係を有し、
    前記補間は前記シーンについて取得された深度マップを使用して前記3次元シーンの追加のビューを生成し、前記深度マップは、前記プレフィルタリングされたライトフィールドを生成する工程でのビュー補間のために使用され、
    前記サンプリングは、オーバサンプリングされたライトフィールドにおけるインターパースペクティブエイリアシングを減少させる前記3次元表示装置の平面におけるオーバサンプリングであり、前記オーバサンプリングされたライトフィールドは、前記出力サンプルを表示するために前記表示パラメータ化によりサブサンプリングされ、
    前記3次元表示装置のバンド幅は、前記3次元表示装置の角度的な周波数および空間的な周波数にしたがってパラメータ化される、
    ライトフィールドを取得して表示するためのコンピュータにより実行される方法。
  2. 前記補間は非構造化光線空間プロセスを使用して前記入力サンプルを再投影することからなる、請求項1に記載の方法。
  3. 前記オーバサンプリングは(d+1)/2の比率で行われ、ここで、dは前記異なるビューの最大視差である、
    前記オーバサンプリングは、前記シーンのスペクトルの傾きの水平距離を示す(d+1)/2の比率で行われ、ここで、dは前記異なるビューの最大視差である、請求項1に記載の方法。
  4. 前記目標ビューは前記カメラビュー間の最小ベースライン距離を有する1組のビューである、請求項1に記載の方法。
  5. 前記目標ビューは空間的に隣接するビュー間の等しいベースライン距離を有する、請求項1に記載の方法。
  6. 前記復号されたライトフィールドは前記3次元表示装置の空間分解能よりも高い空間分解能を有する、請求項1に記載の方法。
  7. 前記符号化は前記目標ビュー間の最大視差を決定し、
    前記方法は、
    前記最大視差を前記デコーダへ送信する工程、
    をさらに備え、
    前記最大視差情報は、H.264/AVCビデオ符号化規格にしたがって、補足エンハンスメント情報メッセージで送信される、
    請求項1に記載の方法。
  8. 前記最大視差はピクセル分解能で表される、請求項7に記載の方法。
  9. 前記最大視差はサブピクセル分解能で表される、請求項7に記載の方法。
  10. 前記補間は前記シーンについて取得された深度マップを使用し、
    前記方法は、
    前記出力ライトフィールドを符号化して、圧縮されたビットストリームを生成する工程と、
    前記深度マップを符号化して、深度マップビットストリームを生成する工程と、
    をさらに備える、請求項1に記載の方法。
  11. 前記圧縮されたビットストリームをスケーラブルなデコーダに供給して、復号された出力ライトフィールドを生成し、また前記深度ビットストリームを深度デコーダに供給して、復号された深度マップを生成する工程、
    をさらに備える、請求項10に記載の方法。
  12. 前記圧縮されたビットストリームおよび深度ビットストリームが多重化されて、多重化されたビットストリームを生成する、請求項10に記載の方法。
  13. 前記多重化されたビットストリームをスケーラブルなデコーダに供給して、復号された出力ライトフィールドおよび復号された深度マップを生成する工程、
    をさらに備える、請求項12に記載の方法。
  14. 前記復号された出力ライトフィールドは追加のビューを含む、請求項13に記載の方法。
  15. 前記追加のビューは、前記復号化の間、前記復号された深度マップおよびビュー補間を使用して生成される、請求項14に記載の方法。
  16. 3次元ライトフィールドを取得、符号化、復号、表示するためのシステムであって、
    入力ライトフィールドの入力サンプルを補間して再パラメータ化されたライトフィールドを生成する手段であって、前記入力サンプルが複数のカメラによって取得された3次元シーンの異なるビューであり、前記補間が取得パラメータ化および表示パラメータ化によって行われる手段と、
    前記再パラメータ化されたライトフィールドに対して、光線空間での直線的な操作であるプレフィルタリングを行い、プレフィルタリングされたライトフィールドを生成する手段と、
    前記プレフィルタリングされたライトフィールドをサンプリングして、3次元表示装置上に出力ライトフィールドとして表示するための、表示パラメータ化を有する出力サンプルを生成する手段と、
    前記出力ライトフィールドを符号化して、圧縮されたスケーラブルなビットストリームを生成する手段と、
    前記表示パラメータ化により、デコーダの前記スケーラブルなビットストリームを復号して、復号されたライトフィールドを生成する手段と、
    前記表示パラメータ化により前記復号ライトフィールドを再サンプリングして、前記3次元表示装置に対する、サンプリングされたライトフィールドを生成する手段と、
    前記復号化の間、前記圧縮されたビットストリームの、目標空間分解能より高い空間分解能に対応する部分を捨てる手段と、
    を備え、
    前記スケーラブルなビットストリームを復号するスケーラブルなデコーダは、目標ビュー、および前記復号されたライトフィールドの各目標ビューに対する目標空間分解能を決定し、
    前記目標ビューは時間的な依存関係および空間的な依存関係を有し、
    前記補間は前記シーンについて取得された深度マップを使用して前記3次元シーンの追加のビューを生成し、前記深度マップは、前記プレフィルタリングされたライトフィールドを生成する手段でのビュー補間のために使用され、
    前記サンプリングは、オーバサンプリングされたライトフィールドにおけるインターパースペクティブエイリアシングを減少させる前記3次元表示装置の平面におけるオーバサンプリングであり、前記オーバサンプリングされたライトフィールドは、前記出力サンプルを生成するために、前記表示パラメータ化によりサブサンプリングされ、
    前記3次元表示装置のバンド幅は、前記3次元表示装置の角度的な周波数および空間的な周波数にしたがってパラメータ化される、
    ライトフィールドを取得して表示するシステム。
JP2007324982A 2007-04-04 2007-12-17 3次元ライトフィールドを取得、符号化、復号、表示するための方法およびシステム Expired - Fee Related JP5300258B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/696,562 2007-04-04
US11/696,562 US7916934B2 (en) 2006-04-04 2007-04-04 Method and system for acquiring, encoding, decoding and displaying 3D light fields

Publications (2)

Publication Number Publication Date
JP2008259171A JP2008259171A (ja) 2008-10-23
JP5300258B2 true JP5300258B2 (ja) 2013-09-25

Family

ID=39598181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007324982A Expired - Fee Related JP5300258B2 (ja) 2007-04-04 2007-12-17 3次元ライトフィールドを取得、符号化、復号、表示するための方法およびシステム

Country Status (3)

Country Link
US (1) US7916934B2 (ja)
EP (1) EP1978755A3 (ja)
JP (1) JP5300258B2 (ja)

Families Citing this family (119)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE480106T1 (de) * 2005-11-04 2010-09-15 Koninkl Philips Electronics Nv Wiedergabe von bilddaten für mehrfachansicht- anzeige
WO2009011492A1 (en) * 2007-07-13 2009-01-22 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding stereoscopic image format including both information of base view image and information of additional view image
EP2289235A4 (en) 2008-05-20 2011-12-28 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES BY MONOLITHIC CAMERA ARRANGEMENT WITH HETEROGENIC IMAGE TRANSFORMER
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
JP5792064B2 (ja) * 2008-07-25 2015-10-07 コーニンクレッカ フィリップス エヌ ヴェ 字幕の三次元表示処理
KR101206895B1 (ko) * 2008-12-22 2012-11-30 한국전자통신연구원 렌더링 시스템 및 이를 이용한 데이터 처리 방법
US8189089B1 (en) 2009-01-20 2012-05-29 Adobe Systems Incorporated Methods and apparatus for reducing plenoptic camera artifacts
JP5388032B2 (ja) * 2009-05-11 2014-01-15 独立行政法人情報通信研究機構 遠隔コミュニケーションシステム、制御装置、制御方法およびプログラム
KR20100128233A (ko) * 2009-05-27 2010-12-07 삼성전자주식회사 영상 처리 방법 및 장치
CN102474638B (zh) * 2009-07-27 2015-07-01 皇家飞利浦电子股份有限公司 组合3d视频与辅助数据
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8860833B2 (en) 2010-03-03 2014-10-14 Adobe Systems Incorporated Blended rendering of focused plenoptic camera data
CN106131531B (zh) 2010-03-31 2019-04-26 汤姆森特许公司 视频处理方法和装置
CN106454370B (zh) 2010-04-13 2019-11-01 Ge视频压缩有限责任公司 解码器、重建数组的方法、编码器、编码方法及数据流
ES2907203T3 (es) 2010-04-13 2022-04-22 Ge Video Compression Llc Codificación de vídeo que usa subdivisiones multiárbol de imágenes
JP5718453B2 (ja) 2010-04-13 2015-05-13 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 復号化方法
CN102939750B (zh) 2010-04-13 2016-07-06 Ge视频压缩有限责任公司 跨平面预测
SG10201503516VA (en) 2010-05-12 2015-06-29 Pelican Imaging Corp Architectures for imager arrays and array cameras
CN102474647B (zh) * 2010-05-25 2015-08-19 松下电器(美国)知识产权公司 图像编码装置、图像编码方法以及集成电路
US8134786B2 (en) * 2010-06-30 2012-03-13 Mitsubishi Electric Research Laboratories, Inc. Method and system for determining projections in non-central catadioptric optical systems
HUE026534T2 (en) * 2010-07-15 2016-06-28 Ge Video Compression Llc Hybrid video encoding to support intermediate view synthesis
US8749694B2 (en) * 2010-08-27 2014-06-10 Adobe Systems Incorporated Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing
US8665341B2 (en) 2010-08-27 2014-03-04 Adobe Systems Incorporated Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data
US8803918B2 (en) 2010-08-27 2014-08-12 Adobe Systems Incorporated Methods and apparatus for calibrating focused plenoptic camera data
US8724000B2 (en) 2010-08-27 2014-05-13 Adobe Systems Incorporated Methods and apparatus for super-resolution in integral photography
JP5837606B2 (ja) 2010-11-15 2015-12-24 エルジー エレクトロニクス インコーポレイティド フレームフォーマット変換方法及びその方法を使用する装置
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
FR2969457A1 (fr) * 2010-12-15 2012-06-22 France Telecom Procede et dispositif d'evaluation d'une chaine de production et de visualisation d'images stereoscopiques
US9641823B2 (en) * 2011-01-31 2017-05-02 Hewlett-Packard Development Company, L.P. Embedded light field display architecture to process and display three-dimensional light field data
US9030550B2 (en) 2011-03-25 2015-05-12 Adobe Systems Incorporated Thin plenoptic cameras using solid immersion lenses
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
AU2011368712A1 (en) 2011-05-26 2013-12-05 Thomson Licensing Scale-independent maps
EP2726930A4 (en) 2011-06-28 2015-03-04 Pelican Imaging Corp OPTICAL ARRANGEMENTS FOR USE WITH AN ARRAY CAMERA
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
TWI470338B (zh) * 2011-07-07 2015-01-21 Era Optoelectronics Inc 物體輪廓的偵測裝置及方法
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
KR102002165B1 (ko) 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
WO2013081576A1 (en) * 2011-11-28 2013-06-06 Hewlett-Packard Development Company, L.P. Capturing a perspective-flexible, viewpoint-synthesizing panoramic 3d image with a multi-view 3d camera
US8854724B2 (en) 2012-03-27 2014-10-07 Ostendo Technologies, Inc. Spatio-temporal directional light modulator
US8928969B2 (en) 2011-12-06 2015-01-06 Ostendo Technologies, Inc. Spatio-optical directional light modulator
WO2013114887A1 (en) * 2012-02-02 2013-08-08 Panasonic Corporation Methods and apparatuses for 3d media data generation, encoding, decoding and display using disparity information
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
CN111031302A (zh) * 2012-04-25 2020-04-17 浙江大学 三维视频序列辅助信息的解码方法、编码方法及装置
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US8754829B2 (en) * 2012-08-04 2014-06-17 Paul Lapstun Scanning light field camera and display
US9681072B2 (en) 2012-08-07 2017-06-13 National University Corporation Shizuoka Univeristy Solid-state image pickup device with averaging of signals from individual pixels
CN107346061B (zh) 2012-08-21 2020-04-24 快图有限公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
US9214013B2 (en) 2012-09-14 2015-12-15 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
US9207759B1 (en) 2012-10-08 2015-12-08 Edge3 Technologies, Inc. Method and apparatus for generating depth map from monochrome microlens and imager arrays
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
US9497380B1 (en) 2013-02-15 2016-11-15 Red.Com, Inc. Dense field imaging
WO2014130849A1 (en) 2013-02-21 2014-08-28 Pelican Imaging Corporation Generating compressed light field representation data
US9374512B2 (en) 2013-02-24 2016-06-21 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138697A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for high dynamic range imaging using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014164909A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Array camera architecture implementing quantum film sensors
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
KR101852669B1 (ko) 2013-04-08 2018-04-26 소니 주식회사 Shvc를 이용한 관심 영역 확장성
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9756316B2 (en) 2013-11-04 2017-09-05 Massachusetts Institute Of Technology Joint view expansion and filtering for automultiscopic 3D displays
US9967538B2 (en) * 2013-11-04 2018-05-08 Massachussetts Institute Of Technology Reducing view transitions artifacts in automultiscopic displays
KR102156402B1 (ko) * 2013-11-05 2020-09-16 삼성전자주식회사 영상 처리 방법 및 장치
WO2015070105A1 (en) 2013-11-07 2015-05-14 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
EP3075140B1 (en) 2013-11-26 2018-06-13 FotoNation Cayman Limited Array camera configurations incorporating multiple constituent array cameras
US10244223B2 (en) 2014-01-10 2019-03-26 Ostendo Technologies, Inc. Methods for full parallax compressed light field 3D imaging systems
WO2015115946A1 (en) * 2014-01-30 2015-08-06 Telefonaktiebolaget L M Ericsson (Publ) Methods for encoding and decoding three-dimensional video content
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
CN107431797B (zh) 2015-04-23 2019-10-11 奥斯坦多科技公司 用于全视差光场显示系统的方法和装置
KR20170140187A (ko) 2015-04-23 2017-12-20 오스텐도 테크놀로지스 인코포레이티드 깊이 정보를 이용한 완전 시차 압축 광 필드 합성을 위한 방법
FR3036016B1 (fr) * 2015-05-07 2018-10-12 Orange Codage/decodage predictif d'images comportant un artefact, utilisant une extrapolation
CA2994239A1 (en) 2015-07-31 2017-02-09 Hsni, Llc Virtual three dimensional video creation and management system and method
US10448030B2 (en) 2015-11-16 2019-10-15 Ostendo Technologies, Inc. Content adaptive light field compression
CA3214444A1 (en) 2016-04-12 2017-10-19 Quidient, Llc Quotidian scene reconstruction engine
US10453431B2 (en) 2016-04-28 2019-10-22 Ostendo Technologies, Inc. Integrated near-far light field display systems
US11051039B2 (en) 2017-06-02 2021-06-29 Ostendo Technologies, Inc. Methods for full parallax light field compression
US20180350038A1 (en) 2017-06-02 2018-12-06 Ostendo Technologies, Inc. Methods and Systems for Light Field Compression With Residuals
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10931956B2 (en) 2018-04-12 2021-02-23 Ostendo Technologies, Inc. Methods for MR-DIBR disparity map merging and disparity threshold determination
WO2019213450A1 (en) 2018-05-02 2019-11-07 Quidient, Llc A codec for processing scenes of almost unlimited detail
US11172222B2 (en) 2018-06-26 2021-11-09 Ostendo Technologies, Inc. Random access in encoded full parallax light field images
EP3949422A1 (en) * 2019-03-26 2022-02-09 PCMS Holdings, Inc. System and method for multiplexed rendering of light fields
KR102646521B1 (ko) 2019-09-17 2024-03-21 인트린식 이노베이션 엘엘씨 편광 큐를 이용한 표면 모델링 시스템 및 방법
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
WO2021077078A1 (en) * 2019-10-18 2021-04-22 Looking Glass Factory, Inc. System and method for lightfield capture
EP4066001A4 (en) 2019-11-30 2024-01-24 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR TRANSPARENT OBJECT SEGMENTATION USING POLARIZATION GUIDES
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11240465B2 (en) 2020-02-21 2022-02-01 Alibaba Group Holding Limited System and method to use decoder information in video super resolution
US11449004B2 (en) 2020-05-21 2022-09-20 Looking Glass Factory, Inc. System and method for holographic image display
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11415935B2 (en) 2020-06-23 2022-08-16 Looking Glass Factory, Inc. System and method for holographic communication
US11388388B2 (en) 2020-12-01 2022-07-12 Looking Glass Factory, Inc. System and method for processing three dimensional images
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5617334A (en) * 1995-07-21 1997-04-01 The Trustees Of Columbia University In The City Of New York Multi-viewpoint digital video coder/decoder and method
US6055012A (en) * 1995-12-29 2000-04-25 Lucent Technologies Inc. Digital multi-view video compression with complexity and compatibility constraints
JPH09245195A (ja) * 1996-03-08 1997-09-19 Canon Inc 画像処理方法およびその装置
JP3958493B2 (ja) * 2000-03-16 2007-08-15 日本放送協会 符号化装置及び復号化装置
AU2002227428A1 (en) * 2000-12-13 2002-06-24 Zograph, Llc Resolution modulation in microlens image reproduction
JP4222817B2 (ja) * 2002-09-27 2009-02-12 シャープ株式会社 立体画像表示装置、記録方法、及び伝送方法
JP4174001B2 (ja) * 2002-09-27 2008-10-29 シャープ株式会社 立体画像表示装置、記録方法、及び伝送方法
US20050185711A1 (en) * 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
JP4652727B2 (ja) * 2004-06-14 2011-03-16 キヤノン株式会社 立体画像生成システムおよびその制御方法
US7324687B2 (en) * 2004-06-28 2008-01-29 Microsoft Corporation Color segmentation-based stereo 3D reconstruction system and process
WO2007026440A1 (ja) * 2005-08-29 2007-03-08 National University Corporation Nagoya University 画像情報圧縮方法、画像情報圧縮装置、及び自由視点テレビシステム
KR100667810B1 (ko) * 2005-08-31 2007-01-11 삼성전자주식회사 3d 영상의 깊이감 조정 장치 및 방법
US8044994B2 (en) * 2006-04-04 2011-10-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for decoding and displaying 3D light fields

Also Published As

Publication number Publication date
US20080043095A1 (en) 2008-02-21
EP1978755A2 (en) 2008-10-08
EP1978755A3 (en) 2009-12-09
JP2008259171A (ja) 2008-10-23
US7916934B2 (en) 2011-03-29

Similar Documents

Publication Publication Date Title
JP5300258B2 (ja) 3次元ライトフィールドを取得、符号化、復号、表示するための方法およびシステム
US8044994B2 (en) Method and system for decoding and displaying 3D light fields
US7609906B2 (en) Method and system for acquiring and displaying 3D light fields
US11968372B2 (en) Layered scene decomposition CODEC method
TWI807286B (zh) 用於全視差壓縮光場三維成像系統之方法
Matusik et al. 3D TV: a scalable system for real-time acquisition, transmission, and autostereoscopic display of dynamic scenes
JP7036599B2 (ja) 奥行き情報を用いて全方向視差を圧縮したライトフィールドを合成する方法
US20050185711A1 (en) 3D television system and method
US20140198182A1 (en) Representation and Coding of Multi-View Images Using Tapestry Encoding
US20080205791A1 (en) Methods and systems for use in 3d video generation, storage and compression
Graziosi et al. Depth assisted compression of full parallax light fields
Graziosi et al. Compression for full-parallax light field displays
Zwicker et al. Resampling, antialiasing, and compression in multiview 3-D displays
EP2822279B1 (en) Autostereo tapestry representation
JP2019004271A (ja) 画像符号化装置および画像復号化装置、並びに、画像符号化プログラムおよび画像復号化プログラム
Stone Omnidirectional Stereoscopic Projections for VR.
Alfaqheri et al. Low-delay single holoscopic 3D computer-generated image to multiview images
Suehiro et al. Integral 3D imaging system using monocular 2D video and depth data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130618

R150 Certificate of patent or registration of utility model

Ref document number: 5300258

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees