JP5340952B2 - 三次元投影ディスプレイ - Google Patents

三次元投影ディスプレイ Download PDF

Info

Publication number
JP5340952B2
JP5340952B2 JP2009539491A JP2009539491A JP5340952B2 JP 5340952 B2 JP5340952 B2 JP 5340952B2 JP 2009539491 A JP2009539491 A JP 2009539491A JP 2009539491 A JP2009539491 A JP 2009539491A JP 5340952 B2 JP5340952 B2 JP 5340952B2
Authority
JP
Japan
Prior art keywords
projector
image
image information
light
viewing area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009539491A
Other languages
English (en)
Other versions
JP2010511360A (ja
Inventor
コリン、 デイヴィッド キャメロン、
クリストファー、 ポール ウィルソン、
アントン デブラール、
Original Assignee
エフ・ポスザツト・ヒユー・エル・エル・シー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by エフ・ポスザツト・ヒユー・エル・エル・シー filed Critical エフ・ポスザツト・ヒユー・エル・エル・シー
Publication of JP2010511360A publication Critical patent/JP2010511360A/ja
Application granted granted Critical
Publication of JP5340952B2 publication Critical patent/JP5340952B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor

Description

投影ディスプレイシステム及びオートステレオスコープ三次元ディスプレイを含む三次元ディスプレイシステム。
複数のプロジェクタを組み込んだディスプレイシステムは、二次元(2D)及び三次元(3D)の両ディスプレイシステムに用いられている。3D表示のために使われるそれらは、種々の形態をとる。一形態は、映写スクリーン上に高解像度のタイル貼り像を創出するために、複数のプロジェクタを使い、また前記スクリーンの前に、各レンズが前記スクリーンの小さい部分の像を作るように配列される状態で、レンズレンズアレイを設置する。そのようなシステム中の前記レンズは、しばしば単軸レンティキュラアレイに配置される。視聴者は、レンズ作用により、その時、彼の視点に応じた異なるピクセルセットを見るので、したがって、適切に投影された像データに3Dのような外観が与えられる。この方法は、複数のプロジェクタに依存せず、該プロジェクタによって提供されるピクセル数の増大により、利益を得るであろう。
3D像は、また、スクリーンの異なる部分を見る視聴者が異なるプロジェクタからの、3D効果が達成されるように協力する像成分を見るように、スクリーンに関して複数のプロジェクタを配置することにより、形成することができる。これは多数のレンズを必要とすることなく、より良い3D効果を与えることができ、
その結果生じる像が、異なる観察点から異なるように見えるだけであることに加えて、はっきりわかる深度を持つことができる。より多くのプロジェクタを用いると、これがより広い写角及びより自然な3D像を提供するので、より良い結果を達成することができる。伝統的に、プロジェクタ数の増加に伴い、そのようなディスプレイでの像のレンダリング要件はシステムにかなり重荷をかけ、入手可能な品質に経済的な制限を引き起こす。また、プロジェクタの数の増大に伴い、該プロジェクタ間での各プロジェクタのセットアップはより困難になる。
これらのシステムによって実行されるレンダリング(rendering)は、概念的には比較的簡単ではあるが、各プロジェクタで表示されるデータが、オートステレオスコープ像を見ることができるビュー立体(viewing volume)に置かれた虚像生成カメラを使ってレンダリングを受けるので、比較的重要な処理資源を必要とする。虚像生成カメラは、レンダリングが行われるポイントである。それは、レイトレーシング用語で、すべての光線が出ると仮定されるポイントであり、伝統的に、像が見られるポイントを表す。オートステレオ表示にとって、レンダリングは、伝統的にビュー立体でのいくつかの虚像生成カメラ位置毎に実行され、上記のパラグラフで述べられたように、計算上の集中的なタスクである。
次に、種々の実施例が、以下の図表を参照して、例のみとしてではあるが、より詳細に説明される説明される。
三次元投影ディスプレイを実行できる投影システムの説明を示し、 図1の投影システムに設けられるプロジェクタ錐台及び像情報のレンダリング例を示し、 視聴者の正しい空間位置に現れるように、ポイントp′を通って投影されているシステム空間の1つのポイントpを示し、 視聴者の正しい空間位置に現れるように、ポイントp′を通って投影されているシステム空間の1つのポイントpを示し、 湾曲したスクリーンを含む三次元投影ディスプレイの実施例を示し 三次元の投影システムによって生成されたある像で起こる歪曲効果を示す。 三次元の投影システムによって生成されたある像で起こる歪曲効果を示す。
図1は、三次元投影表示を実行できる投影システムの説明を示す。前記投影システムは、水平視差オンリー(HPO)システムであるが、ここに開示の動作原理は、他のシステムに適用することができる。複数のプロジェクタ1が、1つの像をスクリーン2上に投影するために、それぞれ配列されている。スクリーン2は、水平面での分散角が約1.5°で非常に小さいのに対し、垂直面での分散角が約60°でかなり広い分散特性を有している。
プロジェクタ1は、2つの隣接するプロジェクタと、スクリーン2との間の角度θがスクリーン2の水平分散角度に過ぎないように配置することができる。この配置は、スクリーン2の反対側の視聴者3が、像に、複数のプロジェクタ1のうちの少なくとも1つで照らされない如何なるギャップも見ないであろうことを保証する。
プロジェクタ1は、相互に又は前記スクリーンに関して、少しも高精度で一列に並べられる必要がない。較正ステップ(以下で説明する)は、プロジェクタの位置的又は光学的むら、及びスクリーンむらを補償するように、実行される。
ネットワーク化された多数のコンピュータ4から成るコンピュータ群が、表示される像のグラフィカルな処理すなわちレンダリングを実行するために、使われる。より特殊化したハードウェアを使うことができ、これは必要とされる別個のコンピュータの数を減少させることを可能にする。コンピュータ4のそれぞれは、プロセッサと、メモリと、1つ又は複数の出力ポートを有する消費者向けレベルのグラフィックカードとを含む。前記グラフィックカードの各ポートは、個々の前記プロジェクタに接続することができる。コンピュータ4のうちの1台を残りのコンピュータのための主制御器として設定することができる。
図1は、さらに、複数のプロジェクタ1からスクリーン2に投影されている一連の光線5を示す。実際には、各プロジェクタはその投影錐台内でピクセルのグリッドから投影を放っているであろうが、1つの光線がプロジェクタ1毎に示されている。図示の各光線5は、表示された像の中で単一の表示点、例えば7を作り出すために指向されている。この表示点は、スクリーン2の面上にはないが、その前に少しの距離をおいて視聴者には見える。各プロジェクタ1は前記像に対応する、すなわち該像の一部に対応する光線をスクリーン2の異なる部分に送るように構成されている。像がプロジェクタ透視投影(projector perspective)によって表示されているところすなわち前記スクリーンに歪んだ像で表示されているところでは、これはプロジェクタ偏り(bias)をもたらすかもしれない。一実施例では、表示される3Dオブジェクトの頂点は、プロジェクタ偏りを矯正すべく以下で説明する方法で、処理され、すなわち予め歪められる。
一実施例による3D像の表示は、以下の方法で行われる。
1.3D像情報から成るアプリケーションデータは、一連の頂点としてマスタコンピュータに受け入れられる。これは、例えばAUTOCADのようなCADパッケージからの情報、又は多数のカメラから得られた場面情報であるかもしれない。前記マスタコンピュータ(又は工程(process))は、回路網を通して前記データをレンダリングコンピュータ(又は複数の工程(processes))に送る。
2.各レンダリング工程は、前記頂点を受け取り、プロジェクタ偏り又は前記システムによって前記像に加えられた歪みによる視覚効果を補償して、割り当てられたプロジェクタ毎にそのレンダリングを実行する。前記視覚効果は、光がレンダリングを受けるに先立って前記像情報に処理を施すことにより、補償することができる。
3.3Dデータがグラフィックカードの2Dフレーム・バッファに適切に与えられると、さらなる較正データは、前記の予め歪んだ頂点を操作又は処理することにより、プロジェクタ、ミラー及びスクリーン面のミスアライメントを矯正するように適用される。
3D像を作っている頂点のカスタマイズされた調整は、投影錐台の特性を考慮して実行される。前記システムの各プロジェクタのためのレンダリング(又はカメラ)錐台は、実際のプロジェクタ錐台と一致しないかもしれない。各プロジェクタ1は、該プロジェクタが前記スクリーンの背面の全高に向けられる(すなわち前記プロジェクタが頂部及び底部の両領域を覆う)ように設定される。HPOスクリーン特性のため、複数のレンダリング錐台は、各錐台の始点がZX平面内で関連したプロジェクタと共面にあり、YZ平面内での方向が選ばれた視聴者位置によって決まるように、配置される。
図2は、図1の投影システムに設けることができるプロジェクタの錐台を示し、又、像情報のレンダリング例を示す。「理想的な」レンダリング錐台8(ハッチング領域)と共に、スクリーン2の一部と、実際のプロジェクタ錐台9とが示されている。プロジェクタ錐台9は、典型的には、「理想的」プロジェクタ位置10に正しく位置合わせされていないプロジェクタによって作り出される。理想的なプロジェクタ位置10がZX平面内で実際の位置10′と共面であることに注意を払う必要がある。
複数のレンダリング錐台(frusta)の広がりは、すべての可能な光線が対応する実際のプロジェクタによって再現されるように、選ぶことができる。一実施例では、システム空間内の複数のレンダリング錐台は、前記スクリーンの実際に向けられた部分に交わる。
回転及び垂直オフセットのような実際のプロジェクタのある種のミスアライメントは、後述するように、較正及び画像ワーピングで矯正される。
再び図1に目を向けるに、プロジェクタ1の列の両側にミラー11を置くことによって、複数の仮想プロジェクタ12が複数のプロジェクタ1の錐台の反射された部分によって形成されることが分かる。これは、プロジェクタ数を増大させる結果を与えて、したがって、像6が視聴者3によって観察されるビュー立体のサイズを増大させる。1個のミラー付き実際のプロジェクタについて、真の及び仮想のプロジェクタ錐台の両方を計算することによって、正しい部分的な錐台が前記スクリーン上に投影される。例えば、オートステレオディスプレイを含む実施例で、各コンピュータ(4)のグラフィックカードのフレーム・バッファは、並んだ2つのレンダリング像をロードされる。レンダリング像間の境界は、ミラー境界に位置合わせされる。
上で述べられたHPO歪みを矯正するために、及びすべてのビューポイントから幾何学的に正確なワールド空間を視聴者に与えるためには、像の表面形状は、レンダリングに先立って、処理されすなわち予め歪みを与えられる。完全に正確な歪み補正処理のために、スクリーンに関しての視聴者の場所を定めるべく、目の任意の動作が提供される。
マルチビュアー、マルチビューポイントのオートステレオシステムでは、同時にすべての視聴者を追跡する(track)ことが不可能な場合がある。したがって、視聴者位置は最も一般的であると決められている場所で妥協される。一実施例では、視界深さは、ビュー立体の中心線で選ばれる。しかしながら、この方法は、例えば、システムの以下の数学的な表現において座標を変えることで、ビュアー位置のリアルタイム更新が可能となる。
外部の3Dアプリケーションから像を表示するとき、忠実にそのアイ空間(又はアプリケーション空間)を表すことは、また中心ビューポイントを保持しかつ遠近法でオブジェクトを正しく作り出すことを含み、重要である。
前記システムの数学的な表現は、(外部のアプリケーションからの)ユーザーのビューポイントを目の中心軸に(すなわち、アイ空間のZ軸に沿って)マッピングするように、定める。これは、ユーザーの主要なビューポイントがアプリケーションのそれに似ることを可能にし、ビュー立体の中で動き回ることにより、表示されたオブジェクトを見回す能力をユーザーに与える。
さらに、前記システムの数学的表現を定める場合に、4×4行列Mが特定され、ここで行列Mは、アプリケーションアイ空間をアプリケーションプロジェクタ空間に変換することができると理解される。プロジェクタ空間では、一旦、投影行列Pがアプリケーションの同次クリッピング空間に投影を表す。
我々は、次に、アイプロジェクション逆行列P −1を適用することによって、ディスプレイアイ空間に「投影しない(un-project)」で、さらにアイ変換逆行列M −1を使用し、前記システム空間にマッピングする。システム空間になったら、例えばディスプレイのサブボリューム中でアプリケーションの封じ込めを許すために、一般的な変換行列Tを適用することができる。レンダリングカメラ変換行列Mは、表面形状の前歪みのためにプロジェクタ空間へのマッピングに使うことができる。
プロジェクタ空間中に前記表面形状(geometry)を処理し、すなわち予め歪めて、次に我々のカメラ疑似スコピック(pseudoscopic)同次クリッピング空間に、疑似プロジェクションHを実行する。疑似変換は次のように表すことができる。
Figure 0005340952
括弧内の符号は、像のフリッピング(flipping)又はフロッピング(flopping)を表すと理解される。一実施例では、前記像は、前記プロジェクタの投影モードを補償するように、フリッピングを受ける。
アプリケーション空間の均質ポイントP = <Px, Py, Pz, 1>は、正規化デバイス座標へのマッピングに先立って、次のように表わすことができる。
P' = Hz .Pp.D(x,y,z;E).Mp.T..ME -1.PE -1.PA.MA .P (式2)
ここで、D(x,y,z;E)は、以下で説明されるように、プロジェクタ空間内で、前記ポイントの前記座標及び前記アイポジションに基づく関数として、前記処理すなわち前歪みを表す。
図3及び4は、像が所定のプロジェクタによって表示される前に該像への処理で実行される計算を図解する。プロジェクタ13は、スクリーン14からその後ろに短い距離をおいて位置する点pを示すために寄与する光線を投影するように、設定されている。3D像の点pを見ている視聴者は、点16でスクリーン14を通過する光線15を見る。
点pを作るための光線17を投影しているプロジェクタ13は、光線17を点pに直接向けるのではなく、(すなわち点p′によって)視聴者に点pが見えるスクリーン14の部分に向ける。光線17は、プロジェクタビューポイントと視聴者のビューポイントとの差を補償すべく点pに前歪み量を提供するように、処理を受ける。3D像を作るすべての点すなわち頂点は、同様に処理を受ける。しかしながら、前記3D像を作る点以外のスクリーン14上の残余の点は変更されないか、同様には処理されないかもしれないことを理解されたい。
プロジェクタ空間中で点pを予め歪めるために、YZ平面上でプロジェクタ始点からアイ始点への距離dを決定し、プロジェクタ光線のスクリーンzとの交点のZ座標を突き止めることは可能である。
プロジェクタ空間の点pの高さアイビュー、所定の深さzでのye は、前記スクリーンでの共通点を通って突出する目標物高さyp にマップされる。したがって、前記スクリーンのHPO性質のため、投影された点p'は正しい位置で視聴者に出現する。
さらに図4を参照するに、所定のプロジェクタ光線に関して、目の高さEy 及びそのX軸回転EΘに基づいて、プロジェクタ始点の実効高さ、Py及びその方向が計算されることが理解できよう。
このように、点、yp の前歪みの高さは計算することができる。
Figure 0005340952
図5は、湾曲したスクリーンを含む三次元の投影ディスプレイの一実施例を示す。前記湾曲スクリーンが使われるとき、投影座標は、歪みを修正すべく処理される。一実施例では、zpの値は、特定の光線(式x = mzによって定義される)と前記スクリーンとの交差から見つけることができる。
一般的な変換行列Tは、上述したように、ビューイング立体の異なる領域に独立した像情報を提供するために使うことができる。前記独立した像情報は、例えば、ビューイング領域の一半から見える一方の像と、前記ビューイング領域の他半から見える第2の像から成るかもしれない。代替的に、第1の像が第1の位置の視聴者に投影され、第2の像が第2の位置の視聴者に投影されるように、独立な像情報を手配することができる。視聴者の位置はヘッドトラッキング手段を使って追跡することができ、追跡された位置に対応する行列Tの値に適当な変更を加えることによって、視聴者は、彼らがビューイング領域内で動きながら選択された像の眺めを維持するであろう。
ここに開示された種々の実施例のプロジェクタ及びスクリーンは、極度に位置の正確さに関しての懸念をもつことなく配置することができる。図2の位置10と10′との違いで見ることができるように、プロジェクタ位置と方向の偏差を補償できるように、ソフトウェア較正フェーズを実行することができる。レンダリング錐台始点がZX面のプロジェクタの錐台と共面であることに、再び注目されたい。較正は、一実施例では、以下のとおりになされる。
1.グリッド基準線が印刷された透明なシートを該シートがスクリーンを覆うように置く。
2.最初のプロジェクタについて、予めプログラムされたグリッドパターンを表示するように、前記プロジェクタを制御するためのコンピュータを手配する。
3.前記表示されたグリッドが印刷されたグリッドと密接して位置合わせされるように、x及びyの両軸で投影錐台の広がり及び曲率などの表示パラメータを調整する。
4.較正ファイルのプロジェクタに関連して作られた調整の範囲を記憶する。そして、
5.前記システムのプロジェクタのそれぞれのために、ステップ2から4までを繰り返す。
そのように作り出された較正ファイルは、先に突き止められた位置及び方向の誤差を補償すべく、前記前歪み像データに変換を適用するために前記前歪みレンダリングフェーズの前後で使用される較正データを含む。
さらなる較正ステージは、プロジェクタ間での異なる色及び彩度の正しい表現のために、実行することができる。前記プロジェクタ像を横切る色及び彩度の非均一性は、RGB重りを各ピクセルに適用することによって、ダイナミックレンジを犠牲にして訂正することができる。
他の実施例は、リアルタイムの動画表示を生じ続けることができる最新のグラフィックカードを備える他の設備を利用する。例えば、上で概説した表面形状の前歪みは、非線形光学の完全な処置を含むために強化することができる。最新のグラフィックカードは、頂点処理フェーズにおいてテクスチャマップを利用することができ、それは、非常に複雑で不完全な光学のためのオフライン補正の計算を可能にする。そのような光学の例は、カーブミラー及び放射状レンズの収差を含む。
種々の実施例は、さまざまな分野に効用を有する。これらは、MRI/NMR、ステレオリソグラフィ、PETスキャン、CTスキャン等、またCAD/CAMからの3Dコンピュータ幾何学、3Dゲーム、アニメーションのような立体データを含む。マルチ2Dデータソースは、また、3D立体の任意の深さの平面にそれらをマッピングすることによって表示することができる。
種々の実施例のさらなる応用は、コンピュータによって生成された像をマルチプルビデオカメラからの像と取り替えることを含み、ライブでの再現によって真の「オートステレオ3Dテレビ」が可能となる。異なる位置にある複数のカメラ、又は1つの像を作り上げるための時間内に異なる位置に移動した1台のカメラのいずれかにより、一場面の複数の風景画を収集することができる。これらの別個の景色は、深さ情報を抽出するために使われるかもしれない。この3Dビデオ情報(video feed)を再生するために、前記データは、上で概説した正しい前歪みと共に、疑似スコピック的(pseudoscopically)に再投影され得る。深さ情報を収集する他の方法は、レーザ式距離測定及び他の3Dカメラ技術のようなマルチビデオ画像の補足に使うことができる。
プログラム可能な比較的低価格のグラフィックスハードウェアの出現によって、像の前記前歪みは、各コンピュータのグラフィックカードのグラフィックス処理ユニット(GPU)の頂点処理ステージで旨く実行できた。各頂点を予め歪めることによって、フラグメントの引き続く補間は、前歪みの目標量に近づく。十分な数の、かなり均等の間隔で配置された、頂点を形状の全体にわたって与えることができ、これにより結果として生じる像を正しく描くことが保証される。GPUに各頂点の前記前歪みをゆだねることにより、リアルタイムフレームレートは非常に大きな3Dデータセットで達成することができる。
いくつかのシステムは、図6aに例示するように、湾曲現象として現れる画像アーチファクトを見せる。これは、ビュー立体の正面から後ろに伸びる要素、あるいは前記スクリーンのどちらかの側にビュー立体の大部分を占める要素を有する像に存在する。これは、主として、像のレンダリングに透視投影が用いられる場合に起こる。
ある実施例は、1つ以上の消失点を有する透視投影を含む。消失点を持たない(又は実質的に無限遠にすべての消失点を持つとみなすことができる)正投影に代えることにより、湾曲現象は減少するかもしれない。しかしながら、これは、オブジェクトそれ自体の不自然な外観を引き起こす。
同一オブジェクトの異なる部分の投影は、スクリーンから前記オブジェクトの各部分への見た目の距離に従って適合される。例えば、表示されるオブジェクトのスクリーンに近い部分は透視投影で表示され、他方、スクリーンから最大遠距離の部分は、正投影を使用して表示され、中間部分は透視投影及び正投影の両方のある組合せを使って表示されるかもしれない。この投影の変化は、見た目のオブジェクト距離が増大するに伴い、段階的に生じさせることができ、より快い像をもたらすことができる。図6bは、湾曲が減少するように処理を受けた画像を示す。
視聴者指向のレンダリング(viewer oriented rendering)とは対照的に、種々の実施例はプロジェクタのビューポイントからレンダリングにアプローチするので、最新のプロジェクトは、プロジェクタ空間像生成(PSIG)と称されている。像情報は3Dオブジェクトを表す形式で受け取られる。像情報は、1以上のプロジェクタに関連したプロジェクタ偏りを補うために処理される。プロジェクタ偏りは、プロジェクタ透視投影をビュー領域透視投影に変換することによって補償される。処理された像情報に対応する光線は、スクリーンを通して1つ以上のプロジェクタのそれぞれからビュー領域に投影される。
前記PSIGアプローチは、事実上、虚像生成ビューポイント又は仮想カメラ――それはレイトレーシング用語ではプロジェクタ自身にとって視聴者又はカメラの目に相当するであろう――を同じ位置に配置し、プロジェクタからの像レンダリングを実行する。もちろん、結果として生じる像の実際の視点がプロジェクタと同じ位置に配置されることを意味せず、用語「虚像生成視点」は、画像計算又はレンダリング目的で得られた効果的なビューポイントのことを指すことができる。それは、通常、レイトレーシング(光線追跡)アプリケーションの中でなされるように、結果として生じる像の視聴者の実際のビューポイントと対比される。仮想カメラの実際の位置は、プロジェクタ位置と正確に同じに配置されるか、又は実際のプロジェクタ位置に比較的近い位置にあるかもしれず、その場合、補正率が、位置差の説明に使われる。レンダリング情報変換後の処理の減少(事実上零)によって、プロジェクタマッピングフェーズのカメラは簡素化する。
したがって、ここでは、高品質ではあるが処理能力の必要性を大きく減少させるオートステレオスコープ像の生成を投影されるべき像のレンダリングのために説明する。プロジェクタの側からスクリーンへ、また想像上の視聴者へ投影されるべき正しい光線は、幾何学的に正確に表示される像を生成すべく計算される。そのような光線追跡方法は、1つのプロジェクタからの像フレームのレンダリングを単一経路内でおこなわせることが可能であることは分かっている。これは、スクリーンの視聴者側からのレンダリングと対比され、それは必要とされる数値演算数の桁違いの増加を結果として生じる。
ここに開示された種々の実施例は、水平視差(HPO)オートステレオ投影システムで実行されるとして記載されている。しかしながら、投影システム及びレンダリングソフトウェアの設定に適切な変更を施すことにより、種々の実施例は、必要に応じて垂直視差オンリーシステム又は全視差システムに適用することができる。
種々の実施例のために提供されるスクリーンは、その拡散角度に関して非対称的であることによってHPO使用に適する。プロジェクタからスクリーンに当たっている光は、垂直面内に大きな視角、約60°に広く散乱するが、水平面では相対的に極めて狭く散乱する。一般的に、角度は、与えられたシステムの設計パラメータに適応するが、水平拡散は約1.5°、2°又は3°である。この散乱特性は、システムが、プロジェクタから放射された光の伝搬方向を非常に正確に制御することができ、このように、システムが、3D効果を生み出すために大きな立体で視聴者の目のそれぞれに違う像を提供することができることを意味している。プロジェクタの使用数、選択される最適な視聴距離及びプロジェクタ間の間隔などの他のパラメータに従って、スクリーンの分散角度が選ばれるかもしれない。多数のプロジェクタ又は互いに間隔をおいてより近くに配置される複数のプロジェクタは、一般的に、より小さな分散角度でスクリーンを使う。これは、より良好な品質の像をもたらすであろうが、より多くのプロジェクタ又はより小さなビュー立体のどちらかを犠牲にする。スクリーンは透過型又は反射型である。ここでは、種々の実施例が透過型のスクリーンの使用に関して開示されているが、反射型のスクリーンを使うこともできた。
水平視差オンリー(HPO)特性を有するスクリーン材料を使うとき、特定の歪みが目立つかもしれない。これらの歪みは、すべてのHPOシステムに共通であり、正しい垂直透視投影ができない像を引き起こす。そのような影響は、オブジェクトの短縮化及び目の上下運動でのオブジェクトの表面的な追跡を含む。
さらなる実施例では、スクリーンは少なくとも1つの軸に狭い分散角度を有する材料から成る。オートステレオスコープ像が前記スクリーン上に表示される。1又は複数のプロジェクタが、異なる角度から前記スクリーンを照らすために配置される。
視聴者空間像生成システムに比べて処理能力が減少するため、比較的安価な標準量産品のコンピュータシステムを利用しても、複雑なリアルタイムのコンピュータアニメーションのディスプレイは可能である。生中継ビデオの情報を含む可能性を含むことは、さらに、3Dオートステレオテレビジョン方式を作り出すために、適切なカメラ・システムのための用途を開く。
1つ以上のプロジェクタに受け取られた像情報は、表示される物体の形に関する情報を含むことができ、さらに色、テクスチャー、明るさレベル又は表示されることが可能なすべての他の特徴に関する情報を含むことができる。
像情報は、3Dオブジェクトを描写する形式で受け取られる。像情報は1つ以上のプロジェクタに関連する1つ又は複数のプロセッサに流される。一実施例では、各プロジェクタが、それぞれに異なるプロセッサに関連し、各プロセッサが前記像情報の一部を処理、すなわちレンダリングするように構成されている。1又は複数のプロジェクタのそれぞれは、スクリーンへの投影錐台中に像を投影するように配置される。各プロジェクタの錐台の中の映像の異なる部分は、全体の像の予め決められたビューを表すためにレンダリングされる。1つ又は複数のプロジェクタのそれぞれからの像は、ビュー立体中でオートステレオ像を生産するために結合される。一実施例では、所定のプロジェクタのために実行されるレンダリングは、前記像プロジェクタと同じ位置に配置される(co-located)虚像生成カメラを使う。
この仕様の目的のために、1つ又は複数のプロジェクタは、光源、ある種の光空間変調器(SLM)及びレンズを有する、従来、一般的に入手可能なプロジェクタ装置を含むことができることに留意すべきである。代替的に、前記1つ又は複数のプロジェクタは、隣接する光学開口とで共有されるSLMを備えた個々の光学開口から成るかもしれない。光源及びSLMは、同一であってもよい。
本明細書で使用されたいくつかの用語の解説
・アプリケーション空間。 我々のディスプレイ上にマッピングされるべき外部アプリケーションのアイ空間。
・オートステレオ。 特殊めがねが不要の両眼視差(及び潜在的な運動視差)。
・カメラ空間。 プロジェクタ空間参照。
・アイ空間。 ワールド空間でのビュアーの座標系。
・全視差(FP)。 水平及び垂直の両次元における視差。
・錐台(複数形frusta)。 投影立体、一般に、接頭正方(4面)角錐に類似。
・同次クリッピング空間(HCS)。 立方体中への透視投影後の座標系。
・同質な座標。 四次元ベクトルの表現であり、4番目の成分はw座標になる。
・水平視差オンリー(HPO)。 水平面内での視差のみを示す。
・オブジェクト空間。 3Dオブジェクトが定義される局所座標系。
・プロジェクタ空間。 レンダリング又は「カメラ」の座標系。
・システム配置。 以下を含むシステムの特性:成分の相対位置及び方向、投影截頭体並びにスクリーン幾何学。
・システム空間。 ディスプレイハードウェアが定義される座標系。
・ビュー(イング)立体。 ユーザーがディスプレイシステムによって生成される像を見ることができる立体。(一般的に、特定の視野及び使用可能な深さ範囲によって切り取られる。)
・仮想プロジェクタ。 サイドミラーに映るプロジェクタの影(例えば)、該プロジェクタ像から部分的な錐台が生じているように見える。
・ワールド空間。 すべての3Dオブジェクト及び対応するオブジェクト空間が定義されるグローバルな座標系。
1、13 プロジェクタ
2、14 スクリーン
3 視聴者
4 コンピュータ
5、15、17 光線
6 像
7、16 点
8、9 錐台
10 プロジェクタの理想位置
10′ プロジェクタの実際位置
11 ミラー
12 仮想プロジェクタ

Claims (26)

  1. 数のプロセッサにて三次元(3D)オブジェクトを表す形態で像情報を受信すること、
    前記複数のプロセッサにて前記3Dオブジェクトのプロジェクタ透視投影をビューイング領域に対応するビューイング領域透視投影に変換すべく、前記受信した像情報を処理すること、
    前記複数のプロセッサにて複数のプロジェクタそれぞれの位置における虚像生成ビューポイントからの前記3Dオブジェクトの像をレンダリングすること、及び
    前記像情報への前記処理に対応した光を前記数のプロジェクタのそれぞれからスクリーンを通してビューイング領域へ投影して、前記レンダリングされた像を当該ビューイング領域に表示することを含み、
    前記3Dオブジェクトの前記スクリーンに比較的近い複数の部分は、透視投影プロジェクタを使って表示され、前記3Dオブジェクトの前記スクリーンから比較的遠い部分は、正投影のプロジェクタを使って表示される、
    方法。
  2. 前記受信した像情報を処理することは、
    ビューイング空間の座標系を前記数の虚像生成ビューポイントの座標系に変換すること、
    前記数のプロジェクタから視聴者への距離を求め、前記レンダリングされた像の点が前記視聴者に対し表示される前記スクリーンの部分を求めること、及び
    前記スクリーンの一部を照らして前記3Dオブジェクトのプロジェクタ透視投影とビューイング領域における透視投影との差を補償すること、を含む、請求項1に記載の方法。
  3. 前記受信た像情報を処理することは、前記数のプロジェクタの前記3Dオブジェクトの透視投影と前記レンダリングされた像のビューイング領域における透視投影の間の差違を有する、前記プロジェクタごとのプロジェクタ偏りを補償することを含む、請求項1に記載の方法。
  4. 前記受信た像情報の処理は前記3Dオブジェクトの像をレンダリングする前に行われる、請求項1に記載の方法。
  5. 前記数のプロジェクタから視聴者までの距離は、前記視聴者の位置を追跡することにより求められる、請求項2に記載の方法。
  6. ビューイング領域の面を光で照らすように構成された複数のプロジェクタであって前記光はビューイング領域でディスプレイのための三次元(3D)のオブジェクトを形成するプロジェクタと、
    前記3Dオブジェクトに関連する像情報を生成すべく構成される数のプロセッサであって前記3Dオブジェクトのプロジェクタ透視投影をビューイング領域透視投影に変換し、前記数のプロジェクタそれぞれの位置における虚像生成ビューポイントからの前記3Dオブジェクトの像をレンダリングする複数のプロセッサとを含み、
    前記3Dオブジェクトの前記ビューイング領域に比較的近い複数の部分は、透視投影プロジェクタを使って表示され、前記3Dオブジェクトの前記ビューイング領域から比較的遠い部分は、正投影のプロジェクタを使って表示される、
    システム。
  7. 前記3Dオブジェクトは、視聴者の位置に基づいて、前記数の虚像生成ビューポイントから前記3Dオブジェクトが投影されるビューイング領域の部分への光線を追跡することによりレンダリングされる、請求項に記載のシステム。
  8. 前記像情報の処理は、前記3Dオブジェクトの像のレンダリングの前に行われる、請求項に記載のシステム。
  9. さらに、前記ビューイング領域のビュー立体サイズを増大させるために前記ビューイング領域の面に向けて前記光を反射すべく設定されたミラーを含む、請求項に記載のシステム。
  10. 前記数のプロセッサは、ミラーの境界のいずれか一方の側に整列する2つのレンダリング像を生成する、請求項に記載のシステム。
  11. 前記ビューイング領域の面は、少なくとも1つの軸に分散の度を有するように配置されている、請求項6記載のシステム。
  12. 前記ビューイング領域の面は湾曲する、請求項に記載のシステム。
  13. 前記数のプロセッサは、前記複数のプロジェクタの前記3Dオブジェクトのプロジェクタ透視投影と前記レンダリングされた像のビューイング領域における透視投影の間の差違を有する、プロジェクタ偏りを補償すべく構成されている、請求項に記載のシステム。
  14. さらに、前記数のプロセッサによって処理される前記像情報を提供すべく構成された複数のビデオカメラを含む、請求項13に記載のシステム。
  15. プロセッサが読み出し可能な命令を格納する記憶媒体であって、
    プロセッサによって前記命令が実行されると、前記命令は、当該プロセッサに、
    3Dオブジェクトの表現形式で、表示されるべき像情報を受けること、
    前記像情報の少なくとも部分をロジェクタアレイの各プロジェクタに分配すること、
    各プロジェクタの錐台中に分配された像を投影するために、前記像情報の異なる部分を前記各プロジェクタの位置における虚像生成用カメラを用いてレンダリングすること、及び
    異なる部分のレンダリングに先立ち、数の前記プロジェクタの前記3Dオブジェクトの透視投影と前記レンダリングされた像のビューイング領域における透視投影の間の差違を含む、前記プロジェクタごとのプロジェクタ偏りを補償すべく前記像情報を処理することを実行させ
    各プロジェクタは、それぞれに対応した異なる角度でクリーンを照らして、前記分配された像をビュー立体中の所定のオートステレオ像のビューに結合させ、
    前記3Dオブジェクトの前記スクリーンに比較的近い複数の部分は、透視投影プロジェクタを使って表示され、前記3Dオブジェクトの前記スクリーンから比較的遠い部分は、正投影のプロジェクタを使って表示される、
    記憶媒体。
  16. 前記分配された像のレンダリングのための虚像生成用カメラは、虚像生成ビューポイントに対応する、請求項15に記載の記憶媒体。
  17. 前記スクリーンは、各プロジェクタからの光が前記スクリーンを通り前記ビュー立体内に前記オートステレオ像を形成することを可能にすべく構成されている、請求項15に記載の記憶媒体。
  18. 前記像情報の処理は、前記プロジェクタの錐台からオフセットされ該錐台と共面の仮想錐台を作ることであり、前記分配された像が前記仮想錐台中で生じているように見える、請求項15に記載の記憶媒体。
  19. 光を散乱する手段と、
    前記光を散乱する手段に、ビューイング領域での表示のための三次元(3D)オブジェクトを形成する光を投影する手段と、
    前記3Dオブジェクトに関連した像情報を生成する手段と、
    前記光を投影する手段の位置における虚像生成ビューポイントからの前記3Dオブジェクトの像をレンダリングする手段とを含み、
    該像情報は前記3Dオブジェクトのディスプレイ透視投影をビューイング領域透視投影に変換すべく処理され
    前記3Dオブジェクトの前記光を散乱する手段に比較的近い複数の部分は、透視投影の光を投影する手段を使って表示され、前記3Dオブジェクトの前記光を散乱する手段から比較的遠い部分は、正投影の光を投影する手段を使って表示される、システム。
  20. さらに、前記光を散乱する手段の前記光を投影する手段と同じ側に配置された数の仮想カメラ含み、該仮想カメラは前記像情報を処理すべく構成されている、請求項19に記載のシステム。
  21. 前記像情報は、前記光を投影するための手段の数の位置的、方向的又は光学的な差違を含む歪曲を補償すべく矯正される、請求項19に記載のシステム。
  22. さらに、前記ビューイング領域のビュー立体サイズを増大させるために、前記光を散乱する手段に向けて前記光を反射するための手段を含む、請求項19に記載のシステム。
  23. 前記像情報を生成するための手段は、前記光を反射する手段の境界のいずれか一方の側に整列する2つのレンダリング像を生成する手段を含む、請求項22に記載のシステム。
  24. 前記投影するための手段は、別個のプロジェクタを含み、像情報を生成するための手段は、前記別個のプロジェクタのそれぞれと関連した歪曲を補償すべく構成された個別のプロセッサを含む、請求項19に記載のシステム。
  25. 前記光を投影するための手段は、前記像情報の少なくとも一部をプロジェクタ列の各プロジェクタに分配し、前記レンダリングのための手段は、各プロジェクタ錐台に分配された像情報の異なる部分を、各プロジェクタ錐台に投影するためにレンダリングする、請求項24に記載のシステム。
  26. 前記ビューイング領域は、水平分散角度を有し、前記数のプロジェクタのうち2つのプロジェクタ間の角度が前記水平分散角度以下である、請求項に記載のシステム。
JP2009539491A 2006-11-29 2007-11-29 三次元投影ディスプレイ Expired - Fee Related JP5340952B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US86143006P 2006-11-29 2006-11-29
US60/861,430 2006-11-29
PCT/US2007/085964 WO2008067482A2 (en) 2006-11-29 2007-11-29 Three dimensional projection display

Publications (2)

Publication Number Publication Date
JP2010511360A JP2010511360A (ja) 2010-04-08
JP5340952B2 true JP5340952B2 (ja) 2013-11-13

Family

ID=39468724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009539491A Expired - Fee Related JP5340952B2 (ja) 2006-11-29 2007-11-29 三次元投影ディスプレイ

Country Status (6)

Country Link
US (1) US20090009593A1 (ja)
EP (1) EP2087742A2 (ja)
JP (1) JP5340952B2 (ja)
KR (1) KR101094118B1 (ja)
CN (1) CN101558655A (ja)
WO (1) WO2008067482A2 (ja)

Families Citing this family (97)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101249988B1 (ko) * 2006-01-27 2013-04-01 삼성전자주식회사 사용자의 위치에 따른 영상을 디스플레이하는 장치 및 방법
CN101496387B (zh) * 2006-03-06 2012-09-05 思科技术公司 用于移动无线网络中的接入认证的系统和方法
CN103778635B (zh) * 2006-05-11 2016-09-28 苹果公司 用于处理数据的方法和装置
FR2913552B1 (fr) * 2007-03-09 2009-05-22 Renault Sas Systeme de projection d'images en trois dimensions sur un ecran en deux dimensions et procede correspondant
US8570373B2 (en) * 2007-06-08 2013-10-29 Cisco Technology, Inc. Tracking an object utilizing location information associated with a wireless device
GB2452508A (en) * 2007-09-05 2009-03-11 Sony Corp Generating a three-dimensional representation of a sports game
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US8797377B2 (en) * 2008-02-14 2014-08-05 Cisco Technology, Inc. Method and system for videoconference configuration
US8355041B2 (en) * 2008-02-14 2013-01-15 Cisco Technology, Inc. Telepresence system for 360 degree video conferencing
US8319819B2 (en) * 2008-03-26 2012-11-27 Cisco Technology, Inc. Virtual round-table videoconference
US8390667B2 (en) * 2008-04-15 2013-03-05 Cisco Technology, Inc. Pop-up PIP for people not in picture
US8694658B2 (en) * 2008-09-19 2014-04-08 Cisco Technology, Inc. System and method for enabling communication sessions in a network environment
US8659637B2 (en) * 2009-03-09 2014-02-25 Cisco Technology, Inc. System and method for providing three dimensional video conferencing in a network environment
US8477175B2 (en) * 2009-03-09 2013-07-02 Cisco Technology, Inc. System and method for providing three dimensional imaging in a network environment
US20100283829A1 (en) * 2009-05-11 2010-11-11 Cisco Technology, Inc. System and method for translating communications between participants in a conferencing environment
US8659639B2 (en) 2009-05-29 2014-02-25 Cisco Technology, Inc. System and method for extending communications between participants in a conferencing environment
US8390677B1 (en) * 2009-07-06 2013-03-05 Hewlett-Packard Development Company, L.P. Camera-based calibration of projectors in autostereoscopic displays
US9082297B2 (en) * 2009-08-11 2015-07-14 Cisco Technology, Inc. System and method for verifying parameters in an audiovisual environment
US8565479B2 (en) * 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
US9122066B2 (en) 2009-10-30 2015-09-01 Hewlett-Packard Development Company, L.P. Stereo display systems
US20110164032A1 (en) * 2010-01-07 2011-07-07 Prime Sense Ltd. Three-Dimensional User Interface
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
US9225916B2 (en) * 2010-03-18 2015-12-29 Cisco Technology, Inc. System and method for enhancing video images in a conferencing environment
USD626102S1 (en) 2010-03-21 2010-10-26 Cisco Tech Inc Video unit with integrated features
USD626103S1 (en) 2010-03-21 2010-10-26 Cisco Technology, Inc. Video unit with integrated features
US9313452B2 (en) 2010-05-17 2016-04-12 Cisco Technology, Inc. System and method for providing retracting optics in a video conferencing environment
US8842113B1 (en) * 2010-05-26 2014-09-23 Google Inc. Real-time view synchronization across multiple networked devices
US8594425B2 (en) 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
JP5791131B2 (ja) 2010-07-20 2015-10-07 アップル インコーポレイテッド 自然な相互作用のための相互作用的現実拡張
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
US8896655B2 (en) 2010-08-31 2014-11-25 Cisco Technology, Inc. System and method for providing depth adaptive video conferencing
US8599934B2 (en) 2010-09-08 2013-12-03 Cisco Technology, Inc. System and method for skip coding during video conferencing in a network environment
US8582867B2 (en) 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
US8599865B2 (en) 2010-10-26 2013-12-03 Cisco Technology, Inc. System and method for provisioning flows in a mobile network environment
US8699457B2 (en) 2010-11-03 2014-04-15 Cisco Technology, Inc. System and method for managing flows in a mobile network environment
US8902244B2 (en) 2010-11-15 2014-12-02 Cisco Technology, Inc. System and method for providing enhanced graphics in a video environment
US9338394B2 (en) 2010-11-15 2016-05-10 Cisco Technology, Inc. System and method for providing enhanced audio in a video environment
US9143725B2 (en) 2010-11-15 2015-09-22 Cisco Technology, Inc. System and method for providing enhanced graphics in a video environment
US8730297B2 (en) 2010-11-15 2014-05-20 Cisco Technology, Inc. System and method for providing camera functions in a video environment
US8542264B2 (en) 2010-11-18 2013-09-24 Cisco Technology, Inc. System and method for managing optics in a video environment
US8723914B2 (en) 2010-11-19 2014-05-13 Cisco Technology, Inc. System and method for providing enhanced video processing in a network environment
US9111138B2 (en) 2010-11-30 2015-08-18 Cisco Technology, Inc. System and method for gesture interface control
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
USD678307S1 (en) 2010-12-16 2013-03-19 Cisco Technology, Inc. Display screen with graphical user interface
USD678320S1 (en) 2010-12-16 2013-03-19 Cisco Technology, Inc. Display screen with graphical user interface
USD682854S1 (en) 2010-12-16 2013-05-21 Cisco Technology, Inc. Display screen for graphical user interface
USD678894S1 (en) 2010-12-16 2013-03-26 Cisco Technology, Inc. Display screen with graphical user interface
USD682294S1 (en) 2010-12-16 2013-05-14 Cisco Technology, Inc. Display screen with graphical user interface
USD682864S1 (en) 2010-12-16 2013-05-21 Cisco Technology, Inc. Display screen with graphical user interface
USD678308S1 (en) 2010-12-16 2013-03-19 Cisco Technology, Inc. Display screen with graphical user interface
USD682293S1 (en) 2010-12-16 2013-05-14 Cisco Technology, Inc. Display screen with graphical user interface
WO2012079249A1 (zh) * 2010-12-17 2012-06-21 海尔集团公司 投影显示系统
WO2012107892A2 (en) 2011-02-09 2012-08-16 Primesense Ltd. Gaze detection in a 3d mapping environment
US8692862B2 (en) 2011-02-28 2014-04-08 Cisco Technology, Inc. System and method for selection of video data in a video conference environment
US8670019B2 (en) 2011-04-28 2014-03-11 Cisco Technology, Inc. System and method for providing enhanced eye gaze in a video conferencing environment
US8786631B1 (en) 2011-04-30 2014-07-22 Cisco Technology, Inc. System and method for transferring transparency information in a video environment
US8934026B2 (en) 2011-05-12 2015-01-13 Cisco Technology, Inc. System and method for video coding in a dynamic environment
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
US8947493B2 (en) 2011-11-16 2015-02-03 Cisco Technology, Inc. System and method for alerting a participant in a video conference
FR2983330B1 (fr) * 2011-11-24 2014-06-20 Thales Sa Procede et dispositif de representation d'environnements synthetiques
US8682087B2 (en) 2011-12-19 2014-03-25 Cisco Technology, Inc. System and method for depth-guided image filtering in a video conference environment
GB2498184A (en) * 2012-01-03 2013-07-10 Liang Kong Interactive autostereoscopic three-dimensional display
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
CN104246682B (zh) 2012-03-26 2017-08-25 苹果公司 增强的虚拟触摸板和触摸屏
US9308439B2 (en) * 2012-04-10 2016-04-12 Bally Gaming, Inc. Controlling three-dimensional presentation of wagering game content
US9047507B2 (en) 2012-05-02 2015-06-02 Apple Inc. Upper-body skeleton extraction from depth maps
JP2014006674A (ja) * 2012-06-22 2014-01-16 Canon Inc 画像処理装置及びその制御方法、プログラム
US9311771B2 (en) * 2012-08-28 2016-04-12 Bally Gaming, Inc. Presenting autostereoscopic gaming content according to viewer position
US8890812B2 (en) 2012-10-25 2014-11-18 Jds Uniphase Corporation Graphical user interface adjusting to a change of user's disposition
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
US8988430B2 (en) 2012-12-19 2015-03-24 Honeywell International Inc. Single pass hogel rendering
KR102049456B1 (ko) * 2013-04-05 2019-11-27 삼성전자주식회사 광 필드 영상을 생성하는 방법 및 장치
US9843621B2 (en) 2013-05-17 2017-12-12 Cisco Technology, Inc. Calendaring activities based on communication processing
CN103458192B (zh) * 2013-09-04 2017-03-29 上海华凯展览展示工程有限公司 一种俯视剧场中透视变换的方法和系统
KR101586249B1 (ko) * 2013-12-24 2016-01-18 (주)에프엑스기어 광 시야각 영상 처리 장치 및 방법
CN103731622B (zh) * 2013-12-27 2017-02-15 合肥市艾塔器网络科技有限公司 一种单台投影仪三维表面投影呈现系统
US9182606B2 (en) * 2014-01-29 2015-11-10 Emine Goulanian Rear-projection autostereoscopic 3D display system
CN103888757A (zh) * 2014-03-24 2014-06-25 中国人民解放军国防科学技术大学 众视点裸视三维数字立体投影显示系统
US10095987B2 (en) 2014-04-25 2018-10-09 Ebay Inc. Integrating event-planning services into a payment system
JP2016001211A (ja) * 2014-06-11 2016-01-07 セイコーエプソン株式会社 表示装置
US10043279B1 (en) 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
US10136121B2 (en) * 2016-04-08 2018-11-20 Maxx Media Group, LLC System, method and software for producing virtual three dimensional images that appear to project forward of or above an electronic display
WO2017188714A1 (ko) * 2016-04-26 2017-11-02 엘지전자 주식회사 360도 비디오를 전송하는 방법, 360도 비디오를 수신하는 방법, 360도 비디오 전송 장치, 360도 비디오 수신 장치
CN105954960A (zh) * 2016-04-29 2016-09-21 广东美的制冷设备有限公司 球面投射显示方法、球面投射显示系统和家用电器
US10180614B2 (en) 2016-07-15 2019-01-15 Zspace, Inc. Pi-cell polarization switch for a three dimensional display system
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
CN106412556B (zh) 2016-10-21 2018-07-17 京东方科技集团股份有限公司 一种图像生成方法及装置
US10593100B1 (en) * 2018-09-07 2020-03-17 Verizon Patent And Licensing Inc. Methods and systems for representing a scene by combining perspective and orthographic projections

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL79822A (en) * 1985-12-19 1990-03-19 Gen Electric Method of comprehensive distortion correction for a computer image generation system
JP3323575B2 (ja) * 1993-03-16 2002-09-09 日本放送協会 眼鏡なし3次元画像表示装置
JP3157384B2 (ja) * 1994-06-20 2001-04-16 三洋電機株式会社 立体映像装置
GB9713658D0 (en) * 1997-06-28 1997-09-03 Travis Adrian R L View-sequential holographic display
JPH1138953A (ja) * 1997-07-16 1999-02-12 F F C:Kk 計算機システムの複数画面表示制御方法
JP2001339742A (ja) * 2000-03-21 2001-12-07 Olympus Optical Co Ltd 立体映像プロジェクション装置、及びその補正量演算装置
US7375728B2 (en) * 2001-10-01 2008-05-20 University Of Minnesota Virtual mirror
JP3497805B2 (ja) * 2000-08-29 2004-02-16 オリンパス株式会社 画像投影表示装置
JP2003035884A (ja) * 2001-07-24 2003-02-07 Hitachi Ltd 画像表示装置
US7068274B2 (en) * 2001-08-15 2006-06-27 Mitsubishi Electric Research Laboratories, Inc. System and method for animating real objects with projected images
US6729733B1 (en) * 2003-03-21 2004-05-04 Mitsubishi Electric Research Laboratories, Inc. Method for determining a largest inscribed rectangular image within a union of projected quadrilateral images
JP2005165236A (ja) * 2003-12-01 2005-06-23 Hidenori Kakeya 立体画像を表示する方法および装置
US7573491B2 (en) * 2004-04-02 2009-08-11 David Hartkop Method for formatting images for angle-specific viewing in a scanning aperture display device
GB0410551D0 (en) * 2004-05-12 2004-06-16 Ller Christian M 3d autostereoscopic display
JP2006050383A (ja) * 2004-08-06 2006-02-16 Toshiba Corp 立体画像表示装置およびその表示制御方法
JP4622570B2 (ja) * 2004-08-26 2011-02-02 パナソニック電工株式会社 仮想現実感生成装置およびそれに用いられるプログラム
JP4642443B2 (ja) * 2004-11-26 2011-03-02 オリンパスイメージング株式会社 マルチビジョンプロジェクターシステム
US7425070B2 (en) * 2005-05-13 2008-09-16 Microsoft Corporation Three-dimensional (3D) image projection

Also Published As

Publication number Publication date
KR20090094824A (ko) 2009-09-08
KR101094118B1 (ko) 2011-12-15
CN101558655A (zh) 2009-10-14
WO2008067482A2 (en) 2008-06-05
JP2010511360A (ja) 2010-04-08
WO2008067482A8 (en) 2009-07-30
US20090009593A1 (en) 2009-01-08
WO2008067482A3 (en) 2008-12-31
EP2087742A2 (en) 2009-08-12

Similar Documents

Publication Publication Date Title
JP5340952B2 (ja) 三次元投影ディスプレイ
US11269244B2 (en) System and method for calibrating a display system using manual and semi-manual techniques
US7643025B2 (en) Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
US9357206B2 (en) Systems and methods for alignment, calibration and rendering for an angular slice true-3D display
US8189035B2 (en) Method and apparatus for rendering virtual see-through scenes on single or tiled displays
US7973791B2 (en) Apparatus and method for generating CG image for 3-D display
US20120182403A1 (en) Stereoscopic imaging
US8212841B2 (en) Non-linear image mapping using a plurality of non-coplanar clipping planes
US8094148B2 (en) Texture processing apparatus, method and program
KR102222290B1 (ko) 혼합현실 환경의 동적인 3차원 현실데이터 구동을 위한 실사기반의 전방위 3d 모델 비디오 시퀀스 획득 방법
WO2012140397A2 (en) Three-dimensional display system
JP2014067372A (ja) 運動視差再現プログラムおよび装置ならびにその三次元モデル生成プログラムおよび装置
CA2540538A1 (en) Stereoscopic imaging
CN112970044A (zh) 根据广角图像的视差估计
KR20120119774A (ko) 곡면 투사를 이용한 입체 영상 생성 방법, 장치 및 시스템, 이를 위한 기록 매체
GB2444301A (en) Autostereoscopic projection display
JP7394566B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
Bourke Low Cost Projection Environment for Immersive Gaming.
Johnson et al. A personal surround environment: Projective display with correction for display surface geometry and extreme lens distortion
Katayama et al. A method for converting three-dimensional models into auto-stereoscopic images based on integral photography
Harish et al. A view-dependent, polyhedral 3D display
WO2022244131A1 (ja) 画像データ生成装置、表示装置、画像表示システム、画像データ生成方法、画像表示方法、および、画像データのデータ構造
Xue et al. Tile-Based 3D Display Using A Reconfigurable Display Matrix

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100604

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130807

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees