JP2009518877A - 3次元ライトフィールドを取得し、表示するための方法およびシステム - Google Patents

3次元ライトフィールドを取得し、表示するための方法およびシステム Download PDF

Info

Publication number
JP2009518877A
JP2009518877A JP2008527257A JP2008527257A JP2009518877A JP 2009518877 A JP2009518877 A JP 2009518877A JP 2008527257 A JP2008527257 A JP 2008527257A JP 2008527257 A JP2008527257 A JP 2008527257A JP 2009518877 A JP2009518877 A JP 2009518877A
Authority
JP
Japan
Prior art keywords
display
light field
parameterization
input
plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008527257A
Other languages
English (en)
Inventor
マトゥシック、ウォーチエック
フィスター、ハンスピーター
ツヴィッカー、マチアス
デュラン、フレド
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2009518877A publication Critical patent/JP2009518877A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)

Abstract

【課題】この発明方法およびシステムはライトフィールドを取得して表示する。
【解決手段】連続したライトフィールドが、カメラによって取得された3次元シーンの入力ライトフィールドの入力サンプルから、取得パラメータ化により、再構成される。連続したライトフィールドは、表示パラメータ化により再パラメータ化され、その後、表示パラメータ化を有する出力サンプルを生成するために、プレフィルタリングされ、そしてサンプリングされる。出力サンプルは、3次元表示装置を使用して、出力ライトフィールドとして表示される。
【選択図】図1A

Description

この発明は、一般に、ライトフィールドを取得し、表示することに関し、特に、カメラのアレイでライトフィールドを取得し、およびオートマルティスコーピック(自動多視点)表示装置に表示するために、このライトフィールドを再サンプリングすることに関する。
現実世界の3次元シーンのイメージ(画像)を取得して、現実的な3次元画像としてそれらを表示することが望まれている。自動多視点ディスプレイは、束縛されない視聴、すなわちビューイングゾーン(見る領域)の任意の位置からの高解像度立体画像の眼鏡無しでの視聴を提供する。自動多視点ディスプレイは視野角に基づく、異なる強度および色のビュー(視点)依存ピクセルを含む。従来の高解像度ディスプレイとパララックスバリアとを使用することにより、視点依存ピクセルを実施することができる。
典型的な自動多視点ディスプレイでは、画像はパララックスバリアを通して、レンズ状シート或いは一体形レンズシートに映し出される。マルチビューオートステレオスコーピィ(多視点自動立体鏡)の光学原理は1世紀以上に亘って知られている(Okoshi、3元イメージング(撮像)技術、アカデミックプレス社、1976)。近年、高解像度の実用的なディスプレイが利用可能になってきている。その結果、3次元テレビが再び注目されている。
ところで、自動多視点ディスプレイには、幾つかの問題がある。第一に、動いている視聴者は不穏な視覚的アーティファクトを見る。第二に、アーティファクトの無い3次元画像の取得は難しい。
放送および映画産業における写真家、ビデオ撮影家、および専門家は3次元画像を記録するのに必要とされる複雑なセットアップ(構成装備)になじみがない。現在、従来の2次元テレビに対して有るような、マルチカメラパラメータ、配置、および制作後の処理に対するガイドライン(指針)もスタンダード(標準)も無い。
特に、ほとんどの実用的な場合には、イメージセンサ(撮像素子)、例えばカメラ、におけるピクセル(画素)は、1対1の方法で、表示装置におけるピクセルに直接マップ(写像)されない。これは映像データの再サンプリングを必要とする。再サンプリングは、視覚的アーティファクトが最小にされるような方法で、行われる必要がある。自動多視点ディスプレイに対してライトフィールドを有効に再サンプリングするための従来技術は全く無い。
3次元ディスプレイ用のほとんどの従来のアンチエイリアシングは、波動光学を使用する。全ての知られている方法は、オクルージョンおよび鏡面を正しく扱わない。その上、それらの方法は、適切なフィルタリングのためにピクセル毎のシーン深度(奥行き)を必要とする。深度情報がないとき、それらの方法は、保守的な最悪条件手法およびシーンにおける最大深度に基づくフィルタに頼る。実際には、これは、それらの方法の実施を非常に浅い深度を有するシーンに制限する。
一般に、自動多視点ディスプレイは、静的な或いは経時的に変動するライトフィールドを発する。ライトフィールドはオクルーダ(遮蔽物)の無い空間の領域における位置および方向の関数としてのラジアンス(放射輝度)を表している。ライトフィールドの周波数分析はプレノプティックサンプリング理論を使用して行われる。そこでは、シーンのスペクトルが物体深度の関数として分析される。これは、ほとんどのライトフィールドがエイリアス化される(輪郭がギザギザになる)ことを明らかにする。エイリアシングを取り除いて、元のスペクトルを可能な限り保存するために、再構成フィルタを適用できる。
自動多視点ディスプレイの上にライトフィールドを表示するのに再パラメータ化を使用できる。ところが、再パラメータ化はディスプレイのエイリアシングに対処しない。
再構成フィルタを広い開口フィルタにより改善することができる。これにより、焦点面上でシャープネス(鮮明度)を犠牲にすることなく、より大きな被写界深度で3次元画像を生成することができる。
従来の方法のいずれも、自動多視点ディスプレイに対するサンプリングおよびアンチエイリアシングに対処していない。従来の方法は、ディスプレイのサンプリングレートを考慮に入れておらず、再構成の間、サンプリングされたライトフィールドからエイリアシングを取り除くという問題を考慮しているだけである。
この発明は、テレビおよびデジタルエンターテインメントに対して使用できる3次元ディスプレイ(表示)システムを提供する。そのような表示システムは、高品質のライトフィールドデータを必要とする。カメラアレイを使用してライトフィールドが取得され、離散的自動多視点ディスプレイ上にそのライトフィールドがレンダリングされる。しかし、ほとんどいつも、取得装置とディスプレイ装置とは、異なるサンプリングパターンを有する。
したがって、この発明はライトフィールドデータを再サンプリングする。ところで、再サンプリングは、エイリアシングアーティファクトの傾向がある。ライトフィールドデータの表示で最も不穏なアーティファクトは、インターパースペクティブ(相互透視)なエイリアシングによって引き起こされる。
この発明は、そのようなエイリアシングを最小にする、ライトフィールドの再サンプリング方法を提供する。本方法は、自動多視点ディスプレイ(表示)装置上へのライトフィールドの高品質な表示を保証する。本方法は、ライトフィールド再構成フィルタと、ディスプレイ(表示)装置のサンプリンググリッド(格子)によって決定されるディスプレイ(表示)プレフィルタとを結合する。
従来の方法と比べて、この発明の再サンプリング方法は、深度情報を必要としない。この発明方法は、高品質のレンダリングを生成するために、効率的に複数のフィルタリングステージを結合する。この発明方法は、レンズのディスプレイ画面またはパララックス‐バリアディスプレイ画面上にライトフィールドを表示するために使用できる。
[システム概要]
図1は、この発明の実施の形態1によるライトフィールド取得システム100を示している。複数のカメラ115は、シーン110の一連のイメージ101、例えば、ビデオ(映像)、を取得する。それらのカメラは、水平な線形アレイとして配置され得る。好ましくは、カメラは互いに同期を取られている。入力画像系列は、この発明の方法105により処理される。その処理は、一連の出力画像102を生成するために、再構成、再サンプリング、プリ(前置)フィルタリング、およびサンプリングの各工程を含む。そして、出力画像が、複数のプロジェクタ125により自動多視点表示装置120に表示される。また、それらのプロジェクタは、互いに同期され、且つ水平な線形アレイとして配置されうる。表示装置120は、プロジェクタとビューイングゾーン(視聴域)130とに対面する側で、上下方向に指向されたレンズ状スクリーン122の上に設けられたパララックスバリア121を含む。
取得された入力画像101における離散的な入力サンプルには低い空間分解能と高い角度分解能があり、また、表示された出力画像102における離散的な出力サンプルには、高い空間分解能と低い角度分解能があるので、アーティファクトの無い表示を生成するために、再サンプリングが必要である。
[方法の概要]
図1Bに示されているように、本方法105は3つの工程で進む。一般に、我々は信号およびフィルタを周波数ドメイン(領域)で表す。まず最初に、連続信号152が入力画像101から再構成150される。我々は公知の再構成フィルタを適用する。次に、我々は、信号を表示座標へ再パラメータ化160して、再パラメータ化されたライトフィールド161を生成する。その後、最後の工程170では、信号は、ディスプレイ(表示)ピクセル格子のナイキスト限界に適合させるために、プレ(前置)フィルタにかけられて、出力画像として表示ピクセル格子に抽出される。
[表示パラメータ化]
図2は、マルチビューオートマルティスコーピック(多視点自動立体)表示装置120に対するパラメータ化を示している。このパラメータ化は、あらゆる配置場所と方向に対してビューイングゾーン130でライトアレイ(光配列)を再生させることを試みる。
我々は2つの平面の交差部で光線をパラメータ化する。表示装置120に対して、我々は、パララックスバリア面121をt座標として、および高解像スクリーン122をv座標として使用する。なお、光線のv座標はt平面との交差部に対すものである。スクリーン122のピクセル間隔はΔv、バリア121の空隙の間隔はΔt、スクリーンとバリアの間の間隔はfであり、また、深度は、一般的に、zで示される。
1箇所でt−平面と交差する全ての光線は1つのマルチビューピクセルに対応し、また、v−平面との各交差部は視点依存サブピクセルである。我々は、マルチビューピクセルの個数を空間分解能と呼び、1マルチビューピクセル当たりの視点依存サブピクセルの個数を角度分解能と呼ぶ。
図3に示されているように、表示光線は光線空間で、より高次元の格子を形成する。ほとんどの先行する物理的な表示は、図3に示されているように、4辺形のサンプリング格子に対応しない。図2の各光線は、図3の1つのサンプル点301に対応している。ほとんどの自動多視点表示は、ホリゾンタルパララックス(地平視差)のみを与える、すなわちディスプレイはv−平面上の水平方向にのみサンプルを行う。したがって、我々はt−平面上の各走査線を独立して処理でき、それは2次元光線空間に通じる。
我々は、v=constで1片の光線空間を表すのに、「ディスプレイビュー」という用語を使用する。なお、ディスプレイビューはシーンの平行射影である。一般性を損なわなければ、私たちは、平面vおよびtの間の距離fが1に正規化されると仮定する。3次元ディスプレイのこのような光線空間の解釈は、我々がそれらのバンド幅、被写界深度、およびプリフィルタリングを理解することを可能にする。
[バンド幅]
図4に示されているように、図3のサンプリング格子はディスプレイで表すことができるバンド幅に厳しい限界値を課す。これはナイキスト限界として知られている。私たちは、角度的および空間的な周波数をφおよびθで表し、サンプル間隔をΔvおよびΔtで表す。
そして、表示バンド幅Hは次式(1)で与えられる。
Figure 2009518877
[被写界深度]
ディスプレイの被写界深度は、φおよびθ軸の任意の相対的なスケーリングを有する、四角形状のバンド幅の対角線により与えられる。我々は、通常、空間的方向(θ軸)において、角度的方向(φ軸)におけるよりも2桁大きな、それら2軸の相対的な分解能を反映するスケーリング(尺度)を選択した。
一定深度のシーンのライトフィールドのスペクトルすなわちレイスペース(光線空間)信号のスペクトルは線φ/z+θ=0で与えられる。ここで、zは、図2に示されるように、t−平面からの距離である。深度|z|≦Δt/Δvのシーンに対して、スペクトル線は四角形状の表示バンド幅と左右の垂直な境界で交差する。これは、これらのシーンが表示の最も高い空間分解能θ=π/Δtで示され得ることを意味する。しかし、|z|>Δt/Δvのシーンに対しては、スペクトルは表示バンド幅と水平境界で交差する。その結果、それらの空間周波数はθ=π/Δvに減少する。これは表示の空間分解能よりも低いので、これらのシーンはぼやけて見えるであろう。
この振る舞いは、写真被写界深度の影響およびライトフィールド写真術における正確な再焦点合わせ領域と同様である。領域|z|≦Δt/Δvは、3次元ディスプレイにより最大の空間分解能で再生されることができる領域である。我々は、これをディスプレイの被写界深度と呼ぶ。ライトフィールド写真術と同様に、被写界深度は、1/Δvすなわち角度寸法におけるナイキスト限界値に比例する。
利用可能な表示は非常に小さな角度バンド幅を有するので、表示は浅い被写界深度を示す。例えば、Δv=0.0625mmおよびΔt=2mmであれば、被写界深度は±32mmだけである。これは、表示面から32mmより大きな距離に在るように見える如何なるシーン要素もぼやけることを意味する。視点依存サブピクセルに対してピッチが0.25mmであり、高解像スクリーンとパララックスバリアとの間の距離が4mmであれば、これは8つのビュー(視点)と約25度の視野に対応する。これは非常に小さい範囲のように思われるが、ビューイング(視聴)ゾーンにおいて数メータまでの視聴距離に対して奥行(深度)知覚の説得力がある幻想を引き起こすのには十分である。
与えられたディスプレイに対してシーンを特徴付けるために、ディスプレイの被写界深度に対してシーン深度を特定することが有用である。興味深いことには、被写界深度に対するシーン深度の比率(d(z)=zΔv/Δt)はディスプレイ上のビューの間のディスパリティ(視差)に対応する。この定義によれば、最大視差d<1を有するシーンはディスプレイの被写界深度内に在る。所与の視差d>1は、空間帯域幅が1/dの比率だけ減少されることを意味する。
[プレ(前置)フィルタリング]
連続信号をサンプリングするとき、エイリアシングを避けるために、信号をバンド制限する必要がある。式(1)から、これが、3次元ディスプレイに対して、四角形状の表示バンド幅の外側の入力の全ての部分を捨てる表示プレフィルタHのスペクトルに入力スペクトルを掛けるという簡単な事柄であることが分かる(図4の右を参照)。なお、このプレフィルタは、表示格子によるエイリアシングだけを扱い、ライトフィールド取得の間に起こり得るエイリアシングを考慮しないことに注意すべきである。
3次元ディスプレイの従来のバンド幅分析は、この発明の実施の形態による信号処理とは対照的に、ほとんど波動光学または幾何学的基準に基づいている。波動光学は、回折効果を研究するためには役に立つが、回折限界から遠く離れて作動する離散的な3次元ディスプレイを分析するのには有効でない。
我々の手法と対照的に、従来の技術は、シーン深度に関する明白な知識を必要とする表示バンド幅のモデルを導き出す。それらの従来技術は、2次元入力画像の深度に依存するフィルタリングを提唱する。各2次元ビューを個別に帯域制限することは、フィルタリングが空間的に変動することを要求されるので、難しい。1つの解は、そのシーンにおける最大深度に相当する線形フィルタを各ビューに適用することである。ところで、それは、利用可能な表示バンド幅の大部分を浪費し、酷くぼやけた結果に通じる。対照的に、我々の方法では、プレフィルタリングは、光線空間での直線的な操作である。
我々のプリフィルタリングを行わなければ、エイリアシングはゴーストアーティファクトとして現れる。我々の再サンプリングは、ゼロディスパリティ(ゼロ視差)平面の周りの、すなわちディスプレイの光線空間パラメータ化におけるt−平面の周りの、空間周波数を保存する。
[3次元ディスプレイのための再サンプリング]
以上で、自動多視点ディスプレイのバンド幅を分析し、エイリアシングを避けるために連続入力信号をどのようにプレフィルタリングする必要があるかについて分析した。しかし、実際には、ライトフィールドはサンプル信号として表わされ、通常、それらサンプル信号は、カメラアレイを使用して取得される。サンプリングされたライトフィールドを自動多視点ディスプレイ上に示すために、入力ライトフィールドのサンプル101が、そのディスプレイのサンプル102すなわちピクセルにマップされる必要がある。
残念ながら、カメラアレイや自動多視点ディスプレイなどの典型的なライトフィールド取得装置のサンプリングパターンは、光線と1対1対応にならない。したがって、自動多視点ディスプレイ上にライトフィールドを示すことは、再サンプリング操作を含む。
さて、ライトフィールド取得およびライトフィールド表示中に関わる両サンプリング工程、すなわち、シーン取得中に起こるサンプリング、およびカメラのサンプルを表示ピクセルにマッピングするときに行われるサンプリング、によるエイリアシングアーティファクトを避ける再サンプリングフレームワークついて説明する。
我々の技術は、Heckbertにより記述され、本明細書中に引用により援用される再サンプリング方法論(Fundamentals of Texture Mapping and Image Warping, Ucb/csd 89/516, U.C. Berkeley, 1989)に基づいている。ところで、その再サンプリングは、コンピュータグラフィックにおけるテクスチャマッピングのためのものである。対照的に、我々は、現実世界のライトフィールドを再サンプリングする。
我々は、どのようにして入力ライトフィールドを再パラメータ化して、それをディスプレイと同じ座標系で表わすかについて説明する。これは、以下に述べるように、我々が再構成とプリフィルタリングとを結合する再サンプリングフィルタを導き出すのを可能にする。
[再パラメータ化]
我々の結合された再サンプリングフィルタを導き出す前に、我々は、入力ライトフィールドおよび3次元ディスプレイに対する共通のパラメータ化を確立する必要がある。我々は、以後の説明を、ライトフィールドパラメータ化がディスプレイに平行である最も一般的な場合に制限する。
カメラおよび焦点面の入力座標は、tinおよびvinによってそれぞれ指定され、tin軸からの距離または深度はzinにより指定され、サンプリング間距離はΔtinおよびΔvinにより指定される。また、tin軸はカメラベースラインとも呼ばれる。同様に、我々は、ディスプレイ座標t、v、z、Δt、およびΔvを使用する。一般性を損なわなければ、我々は、ディスプレイ入力および入力ライトフィールドの両方に対するt−平面およびv−平面間の距離が1に正規化されるものと仮定する。
入力およびディスプレイ座標の関係は単一のパラメータfinにより与えられ、それはカメラ平面tinとディスプレイのゼロ視差平面tとの間の距離である。この変換は光線空間におけるシャー(ずれ)に対応している。
Figure 2009518877
Mはこの式の中央部における2×2マトリクスである。
自動多視点ディスプレイは、通常、高い空間分解能、例えば1走査線当たり数百のマルチビュー(多視点)ピクセル、および低い角度分解能、例えば、約10の視点依存サブピクセルを有する。対照的に、取得されたライトフィールドは、低い空間分解能、例えば数十のカメラ、および高い角度分解能、例えば1走査線当たり数百のピクセルを有する。
図5に示されているように、これは、非常に異方性であり、且つお互いに対してねじれた2つのサンプリング格子に通じる。図5では、サンプル501はディスプレイ走査線サンプルを表し、またサンプル502はカメラ走査線サンプルを表す。
[結合された再サンプリングフィルタ]
図6は、再サンプリング方法をさらに詳細に示す。左側が入力パラメータ化であり、右側が出力パラメータ化であり、下側が取得空間から表示空間までの再パラメータ化である。図6は、象徴的に入力スペクトル611、レプリカ612、およびフィルタ613を示している。
図6に示されるように、3次元ディスプレイアンチエイリアシングのための再サンプリング方法は、周波数ドメイン(領域)における信号およびフィルタを表す3つの工程で進む。まず最初に、連続信号が、角度および空間周波数φinおよびθinで表される、最初の入力パラメータ化601で与えられた入力データ101から再構成150される。
この工程におけるエイリアシングの問題を避け、入力信号の最適な利用を図るために注意しなければならない。我々はライトフィールドレンダリングのために公知の再構成フィルタを適用する。(Stewart et al、”A new reconstruction filter for undersampled light fields”、 Eurographics Symposium on Rendering,ACM International Conference Proceeding Series,pp.150−156,2003、およびChai et al、”Plenoptic sampling”、Computer Graphics,SIGGRAPH 2000 Proceedings、pp.307−318を参照。両者を本明細書中に引用により援用する。)
これらの技術は、隣接するレプリカと重なり合う領域を捨てつつ、サンプリングされたスペクトルから中央のレプリカの最大領域を抽出する。
次に、我々は、上述のマッピングを使用して、再構成された信号を、φおよびθによって表されたディスプレイ座標621へ再パラメータ化160する。
そして、最後の工程170では、信号は、上述のように、表示ピクセル格子のナイキスト限界に適合させるために、プレフィルタされて、表示ピクセル格子にサンプルされる。プリフィルタリングは、ディスプレイ座標におけるサンプル信号のレプリカが重なり合わないことを保証する。これのより、ぼやけ(ブレ)効果が避けられる。
我々は、いま、上述した3つの工程を結合することによって、統合された再サンプリングフィルタを導き出す。我々は、実用化に対してより役に立つ空間領域で作業する。我々は以下の通り作業を進める。
1.入力ライトフィールド101のサンプルξi,jを考えると、我々は連続したライトフィールドlin152を再構成150する。
Figure 2009518877
ここで、rはライトフィールド再構成カーネルを表す。
2.式(2)を使用して、我々は、次式(4)により、再構成されたライトフィールド152をディスプレイ座標161へ再パラメータ化160する。
Figure 2009518877
3.ディスプレイ座標で表わされた、再構成されたライトフィールドを、ディスプレイプレフィルタhで畳み込んで、次式(5)のバンド(帯域)限定された信号(以下、バンド限定信号と呼ぶ)を生成する。
Figure 2009518877
この信号をディスプレイグリッド(表示格子)上にサンプリングする場合、如何なるエイリアシングアーティファクトも発生しない。
上記の3つの工程を結合することによって、次式(6)のように、バンド限定信号を入力サンプルの加重和として表す。
Figure 2009518877
重み付けカーネルρは、所謂、再サンプリングフィルタである。それは、ディスプレイ座標で表された再構成カーネルのコンボルーション(畳み込み)として定義され、そのプレフィルタは次式(7)により表される。
Figure 2009518877
我々は、従来のガウス関数を使用して、全てのライトフィールド再サンプリングフィルタを実施した。
再構成フィルタとプレフィルタの両方が高異方性であるので、できるだけ信号帯域幅を保持するために、慎重にフィルタを調整する。なお、式(2)は[φin、θin]=[φs、θ]M−1を含意することに注意すべきである。したがって、入力スペクトルは垂直軸に沿って剪断される。
また、我々は、線θinin+φin=0(深度zin=finに相当する)がディスプレイのゼロ視差平面にマップされることに注目する。したがって、入力座標で表されるディスプレイの被写界深度は、カメラからの距離fin=Δt/Δvにある。これは、カメラ平面とディスプレイ平面との間の距離finが、対象となる物体に対して、zin−fin=zd<Δt/Δvとなるように選択されることを意味する。
[ベースラインおよび被写界深度]
上述したような、入力ライトフィールドと出力ライトフィールドとの関係は、ディスプレイが均等にスケーリングされたシーンに対するバーチャル(仮想)ウィンドウとして働くことを含意する。ディスプレイは、異なった、通常はより小さな、スケール(縮尺)でシーンのライトフィールドを再生させる。しかし、これを実現するのは、しばしば、望ましくないし、実際に可能でもない。
シーンの深度領域が比較的浅いディスプレイの被写界深度を遙かに超えていることは、珍しくない。このことは、シーンの大部分がディスプレイバンド幅の外側であることを意味し、それは酷くぼけたビューにつながる恐れがある。さらに、野外のセット等のように、対象物体がカメラから遠く離れているシーンに対して、上記仮定は、非常に大きなカメラベースラインが必要とされることを意味する。また、それは、ディスプレイの観察者によって見られる一対の立体ビューが、現実のシーンにおける観察者の2つの目より遙かに離れている、物理的に遠く離れているカメラに相当することを意味するであろう。
これらの問題は、カメラベースラインの寸法を変えることによって、解決できる。これは、シーンの表示された深度を減少させる入力ライトフィールドの追加の1次変換として表すことができる。この追加の自由度により、我々が、焦点の合うことを必要とする入力シーンにおける望ましい深度範囲を特定することが可能になる。我々は、この深度範囲をディスプレイ被写界深度にマッピングする、所要のベースラインスケーリングを推論する。
[ベースラインのスケーリング]
図7に示されるように、取得の間にカメラベースラインtin701を変更することは、表示された構成を変換することに対応する。図7では、実線は取得ジオメトリを示しており、また点線はディスプレイしジオメトリを示している。
観察者710は、与えられた位置で、ベースラインの中心により近いカメラによって取得される透視図を見る。すなわち、我々は、ベースライン平面tinとの交差部が倍率s>1によりスケーリング(拡大)され、ディスプレイのゼロ視差平面との交差部(すなわちt−平面)が保存されるように、各取得されたカメラ光線を再マッピングする。
このマッピングは入力光線空間の線形(1次)変換に対応しており、また、光線空間の如何なる線形(1次)変換もシーンジオメトリの射影変換に対応する。図7に示された変換のために、射影変換は次式(8)のようになる。
Figure 2009518877
すなわち、シーンにおける点(x、z)は点(x’/w’、z’/w’)にマッピングされる。また、図7にシーンジオメトリの射影変換を示す。このシーン変換は、ステレオビュー融合を支援するのに使用される立体ディスプレイで使用される深度削減法と密接に関連する。この変換は無限のポイント、すなわちz=∞、を有限の深さz’/w’=(fins/(s−1+fin)へ移動する。
さらに、sが無限へ近づくとき、z’/w’はfinに近づく。これは、シーン深度がディスプレイのゼロ視差平面に向かって圧縮されることを意味する。我々は、図7に示されるマッピングを含めることにより、ディスプレイ座標から入力座標への変換を一般化する。この変換は次式(9)のようになる。
Figure 2009518877
我々は、このマッピングが自由なパラメータfinおよびsによって決定されることを強調するために、それをM(fin、s)と呼ぶ。
[シーン被写界深度の制御]
実際的な適用では、ユーザは、シーンにおける所与の深度範囲がディスプレイの被写界深度にマッピングされて、シャープ(鮮明)に見えることが保証されることを望んでいる。限定された深度範囲内のシーン要素のバンド幅が2つのスペクトル線で制限されていることを想起すべきである。さらに、ディスプレイの被写界深度は、四角形状のバンド幅の対角線により与えられる。式(9)の2つのフリー(自由)パラメータ、ベースラインをスケーリング(拡大、縮小)するためのs、およびシーンに対してディスプレイのゼロ視差平面を位置決めするためのfinを使用して、我々はこれらの2組の線を配列して、期待される効果を発揮するマッピングを決定する。
我々は、2つの対応するペア(対)のスペクトル線を等しくすることにより、マッピングを決定する。すなわち、第1のペアはディスプレイ座標にマッピングされた、ユーザにより特定された深度範囲を限定し、また第2のペアはディスプレイの被写界深度を定義する。我々は、ユーザがディスプレイ上に焦点を結ぶように望む、最小および最大のシーン深度zminおよびzmaxをzfrontおよびzbackで表す。パラメータsおよびfinに対する解は、それぞれ次式(10)、(11)で表される。
Figure 2009518877
[取得の最適化]
3次元ディスプレイ上に示されるライトフィールドのスペクトルとエイリアシングは、カメラの数、それらの間隔、それらの開口、シーン深度範囲、およびディスプレイ解像度等の多くの取得パラメータおよびディスプレイパラメータに依存する。3次元映写技師の決定は、芸術的な選択、物理的制約、および取得バンド幅とディスプレイバンド幅との最適利用の願望、の組合せによって行われる。したがって、我々は、これらの要素がどのように相互作用して、3次元ディスプレイに対する最終的なスペクトルおよびエイリアシングにどのように影響を及ぼすかを分析する。
まず最初に、我々は、カメラ開口の、取得されたバンド幅に対する影響について説明する。次に、我々は、全ての取得パラメータとディスプレイパラメータの結果について説明し、取得の間、パラメータの選択を最適化するのに、どうようにこの分析を使用できるかを示す。
[有限開口カメラ]
上述したチャイ外は、理想化されたピンホールカメラで取得されたライトフィールドのスペクトルについて述べた。ここで、我々は、現実のカメラの有限開口がピンホールライトフィールドのスペクトルにバンド(帯域)制限効果を持つことを示す。我々の導出は、図2、3、5および7に示したものと若干異なるパラメータ化に基づいている。
図8Aに示すように、我々は、カメラの共通の焦点面としてt−平面を選択し、またtinを距離dだけ離れたレンズ801の平面として、v−平面をカメラセンサを含む平面として、それぞれ選択する。平面vinおよびtinは、上述したように、距離1だけ離れている。
我々は、大きさaの開口がカメラセンサから距離fだけ離れてレンズ上に存在すると仮定する。これは正確には現実のレンズに対する場合ではないが、誤差は我々の目的に対しては無視しうるものである。薄肉のレンズモデルによると、センサ平面で取得された如何なる光線l(v、t)も、次式(12)に示すように、レンズを透過する全ての光線lバー(v、t)の重み付け積分に対応する。
Figure 2009518877
ここで、積分範囲は、図8Aに示されるように、開口に対応し、また、αはセンサ平面の法線と光線との間の角度である。我々は、4次元ライトフィールドの代わりに2次元ライトフィールドで、且つ2次元レンズおよびセンサの代わりに1次元レンズおよびセンサで作業しているが、我々の導出はより高い次元の場合にも等しく適用される。
そして、我々がv−平面に平行な平面でレンズを「摺動させる」と仮定すると、これを畳み込み(13)として表すことができる。
Figure 2009518877
ここでb(v、t)は開口フィルタである。我々は、cosの項を無視して、bを次式(14)のように定義する。
Figure 2009518877
フーリエドメイン(領域)では、式(13)における畳み込みはシーンライトフィールドとカメラ開口フィルタのスペクトルの積である。我々は、図8Bに示されるように、θに沿って変換(移動)されたφにおける正弦基数関数(sinc)であるカメラ開口フィルタのスペクトルを、θに沿って変換(移動)されたφにおける幅2πd/(a(f+d))のボックス802により近似する。
上記の再サンプリングに対して使用されたと同様の変換を使用して、我々はいま座標を入力ライトフィールドのパラメータ化に戻し、その結果、図8Cに示されたバンド幅803をもたらす。距離dにフォーカスされた有限開口aを有するレンズを通して観察された連続したライトフィールドは、幅2π/aおよび傾き−dの剪断されたスラブ(平板)にバンド限定される。
[バンド幅利用および最小サンプリング]
実際的応用では、利用可能なカメラの数は制限される。また、カメラの配置も制約されうる。したがって、制限され且つ制約された資源に対する最適な装置構成を決定することが望まれる。我々の再サンプリング技術で、セットアップを推測することができる。我々は、取得パラメータを考慮して、再サンプリングフィルタの最適な「形状」を決定し、ディスプレイバンド幅に対するその再サンプリングフィルタのバンド幅を分析することができる。
我々は、サンプリングされた入力信号101におけるエイリアシングが、利用可能なバンド幅を減少させる主な要因であることに気付いた。カメラの定数を考えて、このバンド幅を増大させるための2つの主なオプションがある。まず最初に、我々はカメラベースラインを減少させることができ、これにより、ディスプレイにマッピングされるとき、シーンの深度を小さくする。この場合、入力スペクトルは深度減少で角度方向φにより狭くなる。明らかに、カメラベースラインをあまりにも減少させすぎると、シーン深度が感じ取れなくなる恐れがある。2番目に、我々はカメラ開口を増大させることができる。しかし、カメラ開口が大き過ぎると、取得された被写界深度がディスプレイ被写界深度より浅くなる恐れがある。我々は、カメラの焦点深度がfinに等しくなるように選択する。それは、取得された入力スペクトルのスラブが四角形状のディスプレイバンド幅に平行であることを意味する。
代わりのセットアップでは、与えられたシーンを取得し、物体を或る程度のフォーカス深度に保つことが、望ましい。したがって、ターゲットとなるディスプレイに高品質の結果を実現するために必要とされる最小のサンプリングレートが決定される。直観的には、再構成エイリアシングがディスプレイのバンド幅内に現れないとき、サンプリングレートは与えられたディスプレイに対して充分である。取得サンプリングレートをこの評価基準を超えて増大させても、出力品質は向上しない。
我々は、入力座標からディスプレイ座標へのマッピングを決定する、焦点距離finとベースラインスケーリングsを決定するために、式(11)を使用する。次に、我々は、入力スペクトルのレプリカの最もタイトなパッキングを見出すことによって、非中心レプリカのいずれもがディスプレイプレフィルタと重なり合わないように、最小のサンプリングレートを導き出す、すなわち、カメラの最小数および最小分解能を導き出す。これにより、所要のカメラの個数をディスプレイの角度分解能に減少させることが可能である。しかし、これを実現するのは、より大きなカメラ開口が必要とされるので、しばしば非実用的である。
この発明は、3次元ディスプレイ装置に対して、ライトフィールドをサンプリングしてエイリアス化するための方法およびシステムを提供する。この方法は、問題を信号処理方法で処理できるようにする光線空間分析に基づいている。この発明は、3次元ディスプレイのバンド幅を決定し、浅い被写界深度の挙動について説明し、線形フィルタリング光線空間によりアンチエイリアシングを実現することができることを示した。この発明は、3次元ディスプレイ上でエイリアス化せずに、制限された分解能で取得された高品質のシーンをレンダリングすることを可能にする再サンプリングアルゴリズムを提供する。
ディスプレイの被写界深度にマッピングされるべきであるシーンにおける深度範囲をユーザが特定するのを許容することによって、我々は現在のディスプレイの浅い被写界深度の影響を最小にする。この発明は、所与の取得およびディスプレイコンフィグレーション(構成)により提供され得る画像品質を分析するのに使用できる。
高品質ディスプレイに対して、最小のサンプリング条件が導き出される。この発明はマルチ−ビュー取得および3次元ディスプレイ装置のより良好なエンジニアリング(工学的処理)を可能にする。
この発明は好適な実施の形態を例に挙げて説明したが、この発明の精神および範囲内で種々の他の改変および変更を行うことができることを理解すべきである。したがって、添付の特許請求の範囲の目的は、この発明の真実の精神および範囲に含まれるような全ての変形例および変更例をカバーすることである。
この発明の実施の形態1による、3次元表示装置上に3次元ライトフィールドを取得して表示するためのシステムを概略的に示す平面図である。 この発明の実施の形態1による、ライトフィールドを再サンプリング、アンチエイリアシングする方法のフローチャートである。 この発明の実施の形態1による、ディスプレイ(表示)パラメータ化の概略図である。 この発明の実施の形態1による、4辺形のサンプリンググリッド(格子)である。 この発明の実施の形態1による、バンド(帯域)幅要件に関する概略図である。 この発明の実施の形態1による、カメラとディスプレイ装置の走査線のサンプルを重ね合わせた概略図である。 この発明の実施の形態1による、サンプリングおよびフィルタリング方法の概略図である。 この発明の実施の形態1による、ライトフィールド取得ジオメトリからライトフィールド表示ジオメトリまでの変態の概略図である。 この発明の実施の形態1による、カメラのパラメータ平面の概略図である。 この発明の実施の形態1による、カメラ開口フィルタのスペクトルの近似の概略図である。 図8Bに示された、スペクトルのバンド幅の概略図である。

Claims (14)

  1. 取得パラメータ化により、複数のカメラによって取得された3次元シーンの入力ライトフィールドの入力サンプルから連続するライトフィールドを再構成する工程と、
    ディスプレイパラメータ化により、連続するライトフィールドを再パラメータ化する工程と、
    前記再パラメータ化されたライトフィールドをプレフィルタリングし、そのプレフィルタリングされたライトフィールドをサンプリングして、ディスプレイパラメータ化を有する出力サンプルを生成し、そして3次元表示装置を使用してその出力サンプルを出力ライトフィールドとして表示する工程と、
    を備える、ライトフィールドを取得して表示するためのコンピュータにより実施される方法。
  2. 前記プレフィルタリングは、ディスプレイパラメータ化によるディスプレイバンド幅のナイキスト限界値に適合する、請求項1に記載の方法。
  3. 前記3次元表示装置は自動多視点表示装置である、請求項1に記載の方法。
  4. 前記入力サンプルは、複数のカメラによって取得された画像の順序の形式である,請求項1に記載の方法。
  5. 前記複数のカメラは水平な線形アレイとして配置される、請求項1に記載の方法。
  6. 3次元表示装置は複数のプロジェクタを含み、またディスプレイスクリーンは垂直に指向されたレンズ状スクリーンの前側に取り付けられたパララックスバリアを含む、請求項1に記載の方法。
  7. ディスプレイパラメータ化は、t座標を定義するパララックスバリアのt平面、およびv座標を定義するレンズ状スクリーンのv平面によって、部分的に定義され、また、レンズ状スクリーンのピクセル間隔はΔv、パララックスバリアの空隙の間隔はΔt、レンズ状スクリーンとパララックスバリアとの間の離隔距離はfであり、深度はzである、請求項1に記載の方法。
  8. 1つの位置で前記t平面と交差する出力ライトフィールドの光線は1つのマルチビューピクセルに対応し、前記光線のv平面との各交点はビュー依存サブピクセルであり、前記マルチビューピクセルの数は空間分解能を定義し、マルチビューピクセル当たりのビュー依存サブピクセルの数はディスプレイパラメータ化の角度分解能を定義する、請求項7に記載の方法。
  9. ディスプレイバンド幅は、次式
    Figure 2009518877
    により制限される、請求項7に記載の方法。
  10. 特定のカメラおよびその焦点面の入力座標はそれぞれtinおよびvinであり、tin軸からの距離はzinであり、サンプリング間距離はΔtinおよびΔvinであり、対応するディスプレイ座標はt、v、z、Δt、およびΔvであり、入力ライトフィールドと出力光の両方に対するt平面とv平面との間の距離は1に正規化され、再パラメータ化は、次式
    Figure 2009518877
    により定義される、取得パラメータ化とディスプレイパラメータ化との関係を使用する、請求項7に記載の方法。
  11. 入力ライトフィールドの入力サンプルはξi、jであり、再構成化は、次式
    Figure 2009518877
    によって行われ、再パラメータ化は、次式
    Figure 2009518877
    により行われ、そしてプレフィルタリングは、次式
    Figure 2009518877
    により行われる、請求項10に記載の方法。
  12. 入力サンプルの加重和としてのバンド制限された信号は再サンプルリングフィルタρを使用して、次式
    Figure 2009518877
    により実行される、請求項11に記載の方法。
  13. ρは、次式
    Figure 2009518877
    で表される、請求項12に記載の方法。
  14. 3次元シーンの入力ライトフィールドを取得するように構成された複数のカメラと、
    取得パラメータ化により、前記入力ライトフィールドの入力サンプルから連続するライトフィールドを再構成する手段と、
    ディスプレイパラメータ化により、連続するライトフィールドを再パラメータ化する手段と、
    再パラメータ化されたライトフィールドをプレフィルタリングし、プレフィルタリングされたライトフィールドをサンプリングしてディスプレイパラメータ化を有する出力サンプルを生成する手段と、
    前記出力サンプルを出力ライトフィールドとして表示するように構成された3次元表示装置と、
    を備える、ライトフィールドを取得して表示するシステム。
JP2008527257A 2006-04-04 2007-03-28 3次元ライトフィールドを取得し、表示するための方法およびシステム Pending JP2009518877A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/397,227 US7609906B2 (en) 2006-04-04 2006-04-04 Method and system for acquiring and displaying 3D light fields
PCT/JP2007/057502 WO2007119666A1 (en) 2006-04-04 2007-03-28 Method and system for acquiring and displaying 3d light fields

Publications (1)

Publication Number Publication Date
JP2009518877A true JP2009518877A (ja) 2009-05-07

Family

ID=38362837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008527257A Pending JP2009518877A (ja) 2006-04-04 2007-03-28 3次元ライトフィールドを取得し、表示するための方法およびシステム

Country Status (4)

Country Link
US (1) US7609906B2 (ja)
JP (1) JP2009518877A (ja)
CN (1) CN101411207B (ja)
WO (1) WO2007119666A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013030848A (ja) * 2011-07-26 2013-02-07 Canon Inc 画像処理装置および画像処理方法
JP2014140158A (ja) * 2012-12-20 2014-07-31 Ricoh Co Ltd オクルージョンを意識した明視野像からの3次元シーンの再構成
JP2015039059A (ja) * 2010-08-27 2015-02-26 株式会社東芝 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム
US9600923B2 (en) 2011-05-26 2017-03-21 Thomson Licensing Scale-independent maps
WO2017183513A1 (ja) * 2016-04-20 2017-10-26 アイシン精機株式会社 鏡ディスプレイ装置
KR20180054737A (ko) * 2015-09-17 2018-05-24 톰슨 라이센싱 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법
US10791314B2 (en) 2010-03-31 2020-09-29 Interdigital Ce Patent Holdings, Sas 3D disparity maps

Families Citing this family (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE480106T1 (de) * 2005-11-04 2010-09-15 Koninkl Philips Electronics Nv Wiedergabe von bilddaten für mehrfachansicht- anzeige
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
EP2512135B1 (en) 2007-04-12 2015-03-18 Thomson Licensing Tiling in video encoding and decoding
US8289440B2 (en) * 2008-12-08 2012-10-16 Lytro, Inc. Light field data acquisition devices, and methods of using and manufacturing same
US9036714B2 (en) 2009-01-26 2015-05-19 Thomson Licensing Frame packing for video coding
CN105744284B (zh) 2009-02-19 2019-04-19 交互数字麦迪逊专利控股公司 使用3d视频格式的装置
WO2011094019A1 (en) 2010-01-29 2011-08-04 Thomson Licensing Block-based interleaving
KR101756910B1 (ko) 2010-05-11 2017-07-26 삼성전자주식회사 감쇠 패턴을 포함하는 마스크를 이용한 광 필드 영상 처리 장치 및 방법
US9146403B2 (en) * 2010-12-01 2015-09-29 Massachusetts Institute Of Technology Content-adaptive parallax barriers for automultiscopic display
JP5704975B2 (ja) * 2011-03-08 2015-04-22 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
CN102314708B (zh) * 2011-05-23 2013-07-31 北京航空航天大学 利用可控光源的光场采样及模拟方法
JP5766034B2 (ja) 2011-06-08 2015-08-19 キヤノン株式会社 画像処理方法、画像処理装置及びプログラム。
US8928969B2 (en) 2011-12-06 2015-01-06 Ostendo Technologies, Inc. Spatio-optical directional light modulator
US8854724B2 (en) 2012-03-27 2014-10-07 Ostendo Technologies, Inc. Spatio-temporal directional light modulator
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
KR101944911B1 (ko) * 2012-10-31 2019-02-07 삼성전자주식회사 영상 처리 방법 및 영상 처리 장치
KR102049456B1 (ko) * 2013-04-05 2019-11-27 삼성전자주식회사 광 필드 영상을 생성하는 방법 및 장치
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
US9756316B2 (en) * 2013-11-04 2017-09-05 Massachusetts Institute Of Technology Joint view expansion and filtering for automultiscopic 3D displays
US9967538B2 (en) 2013-11-04 2018-05-08 Massachussetts Institute Of Technology Reducing view transitions artifacts in automultiscopic displays
CN104156916B (zh) * 2014-07-31 2017-03-29 北京航空航天大学 一种用于场景光照恢复的光场投影方法
CN104469343B (zh) * 2014-11-26 2017-02-01 北京智谷技术服务有限公司 光场显示控制方法和装置、光场显示设备
CN104519347B (zh) * 2014-12-10 2017-03-01 北京智谷睿拓技术服务有限公司 光场显示控制方法和装置、光场显示设备
CN106034232B (zh) 2015-03-12 2018-03-23 北京智谷睿拓技术服务有限公司 显示控制方法和装置
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
KR20170139560A (ko) 2015-04-23 2017-12-19 오스텐도 테크놀로지스 인코포레이티드 완전 시차 광 필드 디스플레이 시스템들을 위한 방법들 및 장치들
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
US10448030B2 (en) 2015-11-16 2019-10-15 Ostendo Technologies, Inc. Content adaptive light field compression
CN105704476B (zh) * 2016-01-14 2018-03-20 东南大学 一种基于边缘修复的虚拟视点图像频域快速获取方法
US10453431B2 (en) 2016-04-28 2019-10-22 Ostendo Technologies, Inc. Integrated near-far light field display systems
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
EP3261347A1 (en) * 2016-06-22 2017-12-27 Thomson Licensing A method and a device for encoding a signal representative of a light-field content
CN108377383B (zh) * 2016-11-07 2020-01-10 北京邮电大学 一种多投影3d系统光场对比度调整方法及其系统
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
WO2018220782A1 (ja) * 2017-06-01 2018-12-06 三菱電機株式会社 エレベータ装置
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
WO2020040521A1 (ko) * 2018-08-21 2020-02-27 삼성전자 주식회사 라이트 필드의 중간 뷰 합성 방법, 라이트 필드의 중간 뷰 합성 시스템과 라이트 필드 압축 방법
RU2690757C1 (ru) 2018-08-21 2019-06-05 Самсунг Электроникс Ко., Лтд. Система синтеза промежуточных видов светового поля и способ ее функционирования

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09245195A (ja) * 1996-03-08 1997-09-19 Canon Inc 画像処理方法およびその装置
JP2001078233A (ja) * 1999-09-02 2001-03-23 Mixed Reality Systems Laboratory Inc 空間描画方法、仮想空間描画装置および記憶媒体
JP2004012644A (ja) * 2002-06-05 2004-01-15 Sony Corp 表示装置および表示方法
JP2005533291A (ja) * 2002-07-12 2005-11-04 イクスドライデー テヒノロギーズ ゲーエムベーハー 自動立体視投影装置
JP2005352267A (ja) * 2004-06-11 2005-12-22 Sharp Corp 画像信号処理装置
WO2007013194A1 (ja) * 2005-07-26 2007-02-01 National University Corporation Nagoya University 画像情報圧縮方法及び自由視点テレビシステム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4987487A (en) * 1988-08-12 1991-01-22 Nippon Telegraph And Telephone Corporation Method of stereoscopic images display which compensates electronically for viewer head movement
JPH05122733A (ja) * 1991-10-28 1993-05-18 Nippon Hoso Kyokai <Nhk> 3次元画像表示装置
KR960015507B1 (ko) * 1991-12-24 1996-11-14 가부시끼가이샤 히다찌세이사꾸쇼 배면투사형화상표시장치및배면투과형스크린
JP2951202B2 (ja) * 1994-02-23 1999-09-20 三洋電機株式会社 メガネ無し立体表示装置
JPH09238367A (ja) * 1996-02-29 1997-09-09 Matsushita Electric Ind Co Ltd テレビジョン信号送信方法,テレビジョン信号送信装置,テレビジョン信号受信方法,テレビジョン信号受信装置,テレビジョン信号送信受信方法,テレビジョン信号送信受信装置
US6744435B2 (en) * 2001-04-26 2004-06-01 Mitsubishi Electric Research Laboratories, Inc. Rendering discrete sample points projected to a screen space with a continuous resampling filter
KR20050102119A (ko) * 2003-02-21 2005-10-25 코닌클리케 필립스 일렉트로닉스 엔.브이. 자동입체 디스플레이

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09245195A (ja) * 1996-03-08 1997-09-19 Canon Inc 画像処理方法およびその装置
JP2001078233A (ja) * 1999-09-02 2001-03-23 Mixed Reality Systems Laboratory Inc 空間描画方法、仮想空間描画装置および記憶媒体
JP2004012644A (ja) * 2002-06-05 2004-01-15 Sony Corp 表示装置および表示方法
JP2005533291A (ja) * 2002-07-12 2005-11-04 イクスドライデー テヒノロギーズ ゲーエムベーハー 自動立体視投影装置
JP2005352267A (ja) * 2004-06-11 2005-12-22 Sharp Corp 画像信号処理装置
WO2007013194A1 (ja) * 2005-07-26 2007-02-01 National University Corporation Nagoya University 画像情報圧縮方法及び自由視点テレビシステム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10791314B2 (en) 2010-03-31 2020-09-29 Interdigital Ce Patent Holdings, Sas 3D disparity maps
JP2015039059A (ja) * 2010-08-27 2015-02-26 株式会社東芝 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム
US9600923B2 (en) 2011-05-26 2017-03-21 Thomson Licensing Scale-independent maps
JP2013030848A (ja) * 2011-07-26 2013-02-07 Canon Inc 画像処理装置および画像処理方法
JP2014140158A (ja) * 2012-12-20 2014-07-31 Ricoh Co Ltd オクルージョンを意識した明視野像からの3次元シーンの再構成
KR20180054737A (ko) * 2015-09-17 2018-05-24 톰슨 라이센싱 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법
KR102585129B1 (ko) 2015-09-17 2023-10-06 인터디지털 브이씨 홀딩스 인코포레이티드 픽셀 빔을 나타내는 데이터를 생성하기 위한 장치 및 방법
WO2017183513A1 (ja) * 2016-04-20 2017-10-26 アイシン精機株式会社 鏡ディスプレイ装置

Also Published As

Publication number Publication date
US20070229653A1 (en) 2007-10-04
CN101411207B (zh) 2010-07-14
US7609906B2 (en) 2009-10-27
WO2007119666A1 (en) 2007-10-25
CN101411207A (zh) 2009-04-15

Similar Documents

Publication Publication Date Title
JP2009518877A (ja) 3次元ライトフィールドを取得し、表示するための方法およびシステム
JP5300258B2 (ja) 3次元ライトフィールドを取得、符号化、復号、表示するための方法およびシステム
JP2008257686A (ja) 3次元シーンのライトフィールドを処理するための方法およびシステム
EP1143747B1 (en) Processing of images for autostereoscopic display
Matusik et al. 3D TV: a scalable system for real-time acquisition, transmission, and autostereoscopic display of dynamic scenes
JP3944188B2 (ja) 立体画像表示方法、立体画像撮像方法及び立体画像表示装置
CN102959945B (zh) 根据通过图像捕捉设备的阵列获得的数据产生虚拟输出图像的方法和系统
JP4942221B2 (ja) 高解像度仮想焦点面画像生成方法
JP4328311B2 (ja) 三次元画像表示用多視点画像の作成方法およびプログラム
US7643025B2 (en) Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US11928794B2 (en) Image processing device, image processing program, image processing method, and imaging device
KR20100067656A (ko) 3차원 디스플레이에 대한 렌더링 개선
US8094148B2 (en) Texture processing apparatus, method and program
JP2020525912A (ja) デジタル画像を適応的にスティッチするシステムおよび方法
KR20130138177A (ko) 다중 시점 장면에서의 그래픽 표시
JP2009037301A (ja) 局所領域分割による自由視点画像の生成方法
JP5522794B2 (ja) 立体像生成装置およびそのプログラム
JP2013009274A (ja) 画像処理装置および画像処理方法、プログラム
Saito et al. Displaying real-world light fields with stacked multiplicative layers: requirement and data conversion for input multiview images
Berretty et al. Real-time rendering for multiview autostereoscopic displays
WO2005034527A1 (en) Stereoscopic imaging
KR20080034419A (ko) 3d 영상 생성 및 디스플레이 시스템
Sawahata et al. Estimating angular resolutions required in light-field broadcasting
Kawakita et al. 3D video capturing for multiprojection type 3D display
KR20150098252A (ko) 컴퓨터 그래픽스 기반의 스테레오 플로팅 집적 영상생성시스템

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110719

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20111213