JP5396536B2 - マルチプロジェクタシステム及び方法 - Google Patents

マルチプロジェクタシステム及び方法 Download PDF

Info

Publication number
JP5396536B2
JP5396536B2 JP2012513027A JP2012513027A JP5396536B2 JP 5396536 B2 JP5396536 B2 JP 5396536B2 JP 2012513027 A JP2012513027 A JP 2012513027A JP 2012513027 A JP2012513027 A JP 2012513027A JP 5396536 B2 JP5396536 B2 JP 5396536B2
Authority
JP
Japan
Prior art keywords
projector
projection
viewpoint
image
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012513027A
Other languages
English (en)
Other versions
JP2012528519A (ja
Inventor
アン チャン,ネルソン,リン
ダメラー−ベンカタ,ニランジャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of JP2012528519A publication Critical patent/JP2012528519A/ja
Application granted granted Critical
Publication of JP5396536B2 publication Critical patent/JP5396536B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/54Accessories
    • G03B21/56Projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7475Constructional details of television projection apparatus
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/327Calibration thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/21Circuitry for suppressing or minimising disturbance, e.g. moiré or halo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Description

背景
マルチプロジェクタシステムが、合成表示をもたらすように、スクリーン又は壁のような共通の表示場所に複数のビデオ画像を投影するために開発された。合成表示は、単一の画像が複数のプロジェクタを用いて生成されるものであり、この場合、各プロジェクタが全体画像の一部または構成要素を生成する。これら表示システムは、複数のサブフレームが完全に重なる、全く重ならない、又はそれらの間でいくらか重なることを可能にするように、或いは複数の別個の合成画像を提供することを可能にするように構成され得る。マルチプロジェクタシステムの更に別の応用形態は、三次元(「3D」)立体画像の生成である。
継ぎ目のない(シームレス)画像を形成するために、適切な補償パラメータ(例えば、幾何学的な形態、色、輝度など)を測定するためにカメラを使用するマルチプロジェクタディスプレイが開発された。補償パラメータは、一般的に1つの視点だけで取得されたカメラの測定値から推定される。しかしながら、過度の補償の形での顕著なアーティファクトが、非ランベルト面(例えば、ゲイン>1)であるスクリーンに対して、及びカメラの位置と異なる視角に対して現れる可能性があり、それにより感知される画質および係るディスプレイの有用性が減少する。この所見は、前面投影型、背面投影型、及び立体3Dディスプレイを含む多くの種類のマルチプロジェクタディスプレイに当てはまる可能性がある。
本開示の様々な特徴および利点は、本開示の特徴を一例として示す添付図面に関連してなされる以下の詳細な説明から明らかになるであろう。
複数のプロジェクタを用いて合成画像を生成するように構成された画像表示システムの一実施形態のブロック図である。 真正面から見られた場合の合成表示スクリーンの相対的輝度(明るさ)を示す図である。 或る角度から見られた場合の合成表示の相対的輝度を示し、ホットスポット及びより暗い領域を示す図である。 マルチプロジェクタシステムの実施形態、及びその実施形態により生成される合成表示の図である。 マルチプロジェクタシステムの実施形態、及びプロジェクタが複数のサブグループに分割されて単一の3D立体合成画像を生成するディスプレイの図である。 マルチプロジェクタシステムにおいて、ホットスポット及び視点に依存するアーティファクトを低減するための方法の実施形態におけるステップを概説する流れ図である。 頭部/凝視追跡を用いて、マルチプロジェクタシステムにおいてホットスポット及び視点に依存するアーティファクトを低減するための方法の代替の実施形態におけるステップを概説する流れ図である。 ディスプレイの補償のために視聴位置を求めるための頭部および/または凝視追跡システムを有する投影システムのディスプレイを示す図である。
詳細な説明
ここで、図面に示された例示的な実施形態を参照し、本明細書において特定の用語が係る実施形態を説明するために使用される。それにも関わらず、それによって本開示の範囲の制限が意図されていないことは理解されるであろう。当業者および本開示の所有者に想起される、本明細書で示された特徴要素の代替および更なる変更、並びに本明細書で示された原理の更なる応用形態は、本開示の範囲内にあると考えられるべきである。
本明細書で使用される限り、「上」、「下」、「前」、「後」、「前部にある」、「後部にある」などの方向性の用語は、記載されている図面の向きを基準にして使用される。本明細書で開示された様々な実施形態のコンポーネントが多数の異なる向きに配置され得るので、方向性の用語は例示のためだけに使用されており、制限することは意図されていない。
本明細書で使用される限り、用語「サブフレーム」は、単一のプロジェクタにより生成された表示画像のその一部を意味する。複数のプロジェクタからの複数のサブフレームにより生成された完全な表示画像は、「合成画像」と呼ばれる。理解されるべきは、合成画像は、マルチプロジェクタシステムにおけるプロジェクタのサブグループ(即ち、プロジェクタの全てより少ない)により生成され得る。
図1は、従来技術のマルチプロジェクタ画像表示システム100の実施形態を示すブロック図である。画像表示システム100は、画像データ102を処理し、対応する表示画像114を生成する。表示画像114は、任意の絵のような文字、図式的な記号、又はテクスチャ文字、記号、イラスト、又は他の情報の表現を含むように定義される。
一実施形態において、画像表示システム100は、画像フレームバッファ104、サブフレーム生成器108、プロジェクタ112A〜112C(まとめてプロジェクタ112と呼ぶ)、カメラ122、及び較正ユニット124を含む。画像フレームバッファ104は、画像データ102を受け取ってバッファリングし、画像フレーム106を形成する。サブフレーム生成器108は、画像フレーム106を処理して、対応する画像サブフレーム110A〜110C(まとめてサブフレーム110と呼ぶ)を画定する。一実施形態において、各画像フレーム106について、サブフレーム生成器108は、プロジェクタ112A用の1つのサブフレーム110A、プロジェクタ112B用の1つのサブフレーム110B、及びプロジェクタ112C用の1つのサブフレーム110Cを生成する。サブフレーム110A〜110Cは、それぞれプロジェクタ112A〜112Cにより受け取られ、それぞれ画像フレームバッファ113A〜113C(まとめて画像フレームバッファ113と呼ぶ)に格納される。プロジェクタ112A〜112Cはそれぞれ、サブフレーム110A〜110Cを目標表面116上に投影し、ユーザにより視聴するための表示画像114を生成する。
画像フレームバッファ104は、1つ又は複数の画像フレーム106の画像データ102を格納するためのメモリを含む。かくして、画像フレームバッファ104は、1つ又は複数の画像フレーム106のデータベースを構成する。また、画像フレームバッファ113も、サブフレーム110を格納するためのメモリを含む。画像フレームバッファ104及び113の例は、不揮発性メモリ(例えば、ハードディスクドライブ又は他の永続的な記憶装置)を含み、揮発性メモリ(例えば、ランダムアクセスメモリ(RAM))を含んでもよい。
サブフレーム生成器108は、画像フレーム106を受け取って処理し、複数の画像サブフレーム110を画定する。サブフレーム生成器108は、画像フレーム106の画像データに基づいてサブフレーム110を生成する。一実施形態において、サブフレーム生成器108は、一実施形態において画像フレーム106の解像度より低い、プロジェクタ112の解像度に一致する解像度を有する画像サブフレーム110を生成する。サブフレーム110はそれぞれ、画像フレーム106のサブセットを表す個々の画素からなる複数の列と複数の行を含む。
プロジェクタ112は、サブフレーム生成器108から画像サブフレーム110を受け取り、一実施形態において、画像サブフレーム110を目標表面116上に、重なる位置に及び/又は空間的にオフセットした位置に同時に投影して、表示画像114を生成する。一実施形態において、表示システム100は、複数のプロジェクタ112からのより低い解像度のサブフレーム110を重ねて表示することにより、高い解像度の表示画像114が人間の眼に見えるように構成される。これらの重なるサブフレームは、互いに対して空間的にシフトされ得るか又は任意の幾何学的変換を有することができる。一実施形態において、重なるサブフレーム110の投影は、強化された解像度(即ち、サブフレーム110自体より高い解像度)に見える。別の実施形態において、プロジェクタのサブフレームは、タイリング(即ち、隣接するプロジェクタの画像を最小限に重ねる)を通じて、効果的により高い解像度の表示を提供する。更に別の実施形態において、プロジェクタのサブフレームは、任意に組み合わされて、重なる及びタイリングされた構成を形成する。投影されたサブフレーム110により生成された結果としての表示画像114が、サブフレーム110が導出された高い解像度の画像(例えば、画像フレーム106)が直接的に表示された場合にどんなふうに見えるかという様相に近づくように、サブフレーム110の適切な値を求めるための手法が開発された。
当業者には理解されるように、サブフレーム生成器108により実行される機能は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組合せで実現され得る。具現化形態は、マイクロプロセッサ、プログラム可能論理回路、又はステートマシンを介して行われ得る。システムのコンポーネントは、1つ又は複数のコンピュータ可読媒体デバイス上のソフトウェアに存在することができる。本明細書で使用されるような用語「コンピュータ可読媒体」は、フロッピー(登録商標)ディスク、ハードディスク、CD−ROM、フラッシュメモリ、読み出し専用メモリ、及びランダムアクセスメモリのような揮発性または不揮発性の、任意の種類のメモリを含むように定義される。
また、図1には、画像フレームバッファ120を有する基準プロジェクタ118も示される。基準プロジェクタ118は図1において隠れ線で示され、その理由は一実施形態において、プロジェクタ118が実際のプロジェクタではなく、むしろ最適なサブフレーム110を生成するために画像形成モデルで使用される仮想の高解像度基準プロジェクタであるからである。一実施形態において、1つの実際のプロジェクタ112の場所は、基準プロジェクタ118の場所であるように定義され得る。また、表示システム100は、各プロジェクタ112と基準プロジェクタ118との間の幾何学的マッピングを自動的に求めるために使用され得るカメラ122と較正ユニット124も含むことができる。
画像表示システム100は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの組合せを含むことができる。一実施形態において、画像表示システム100の1つ又は複数のコンポーネント(例えば、フレームバッファ104、サブフレーム生成器108、及び較正ユニット124)は、コンピュータ、コンピュータサーバ、又は一連の論理演算を行うことができ、システムメモリを有するマイクロプロセッサを用いる他のシステムに含まれる。係るシステムは一般に、本明細書において、マルチプロジェクタシステムの「コントローラ」と呼ばれる。更に、処理はシステムの全体にわたって分散されることができ、この場合、個々の部分は、ネットワーク化された環境または複数の計算ユニット環境(例えば、クラスタ化されたコンピュータ)においてのような、別個のシステムコンポーネントで実現される。
上述したように、カメラ122は、較正ユニット124に結合され、継ぎ目のない画像を形成するために、幾何学的な形態、色、輝度などの補償パラメータを求めるために使用される。補償パラメータは、一般的に1つの視点だけで取得されたカメラの測定値から推定される。ランベルト面のスクリーン(例えば、ゲイン≦1、又は視角に関係なく等しい反射率)の場合、この単一のサンプルは、全ての視角の標本とすることができ、かくして感知される画質の劣化はない。
しかしながら、過度の補償の形での顕著なアーティファクトが、非ランベルト面であるスクリーンに対して、及びカメラの位置と異なる視角に対して現れる可能性があり、それにより係るディスプレイの感知される画質が減少する。これは特に、異なる光路を有する複数のプロジェクタを用いる場合に明らかであり、それにより表示面に対するそれらの異なる入射角は、ホットスポット生成につながる。この所見は、相補的な偏光眼鏡(一般に非ランベルト面のスクリーンを使用する)又は能動的シャッター眼鏡を介することに関わらず、前面投影型、背面投影型(視点に依存するホットスポット生成の深刻な問題を有する可能性がある)、多視点ディスプレイ、及び立体3Dを含む任意の種類のマルチプロジェクタディスプレイに当てはまる。また、相互反射する非平面の表面で係る影響を認めることもできる。
図2には、実質的に真正面から見られた場合、又は較正カメラの視点と実質的に同じである見通しの利く地点から見られた場合のマルチプロジェクタシステムの表示スクリーン200の図が示される。ワイドスクリーンの合成画像204の中央領域202は、ほぼ視覚的に均一である。人間の目はゆっくり変化する変化にあまり敏感ではないので、画像204の端部206a、206bの方へのような、僅かなけられ又は輝度の変化は許容され得る。
しかしながら、表示画像が、真正面とは大幅に異なる、又は較正カメラの見通しの利く地点とは異なる或る角度から見られた場合、ホットスポット及び視点に依存するアーティファクトが現れる可能性がある。図3には、スクリーン302が或る角度から見られた場合の合成表示画像300の相対的輝度の図が示される。この観点から考えると、画像の多くの部分304が所望の輝度をほぼ有することが看取され得る。しかしながら、画像の最も右側および左側の端部に幾つかの僅かに暗くなった領域306a、306bに加えて、画像は、右側の近くに極めて明るい領域またはホットスポット308、及び画像にわたる幾つかの他の暗くなった領域310を含む。
有利には、マルチプロジェクタシステムにおいてホットスポット及び視点に依存するアーティファクトを低減するためのシステム及び方法が開発された。本明細書で開示されたシステム及び方法は、較正カメラの視点から最も継ぎ目のない表示を達成する代わりに、マルチプロジェクタディスプレイの複数の視点からのカメラ測定値を使用し、より広い視角にわたってより最適な表示結果を形成するために当該測定値を自動的に統合する(integrate:積分する)。かくして、プロジェクタのホットスポット生成および視点に依存するアーティファクトの出現は、所望の視角の範囲にわたって軽減され得る。
図4には、表示面406に単一の合成画像404を生成するように全て向きを設定された12個のプロジェクタ402a〜402lを含むマルチプロジェクタシステム400の実施形態が示される。理解されるべきは、図4に示された実施形態は12個のプロジェクタを含むが、本明細書で開示されたシステム及び方法は、2つ以上のプロジェクタを有する任意のマルチプロジェクタシステムに適用される。この例に示されるように、12個のプロジェクタは408a〜408lと表記された12個のサブフレームを生成し、当該サブフレームは、この図において互いに組み合わされて、単一の大判の合成画像404を提供する。図4において、重ね合わされたサブフレーム408が互いから空間的にオフセットして示されているが、これは説明のためであり、合成画像404を生成するためにサブフレームの実際の配置に必ずしも対応しない。また、理解されるべきは、マルチプロジェクタシステムにおけるプロジェクタの実際の物理的場所またはグループ化は変更できる。例えば、図4のプロジェクタ402は4個からなる3つのグループに物理的に構成され、ディスプレイ上のサブフレームは概して4つからなる3つのグループになっているが、プロジェクタは異なる物理的位置に構成されることができ、12個のプロジェクタ402a〜402lの何れかが、12個のサブフレーム408a〜408lの任意の1つを生成するように構成され得る。
12個のプロジェクタ402はコントローラシステムにより制御され、当該コントローラシステムは、コンピュータ、コンピュータサーバ、又は上述したような合成画像を生成するためにプロジェクタを駆動することができ、プロセッサ及びシステムメモリを有するマイクロプロセッサを用いた他のシステムとすることができる。コントローラは概して410で示される。しかしながら、上述したように、コントローラシステムは、第1のコントローラコンピュータ410、及び第1のコントローラコンピュータとネットワーク相互接続された又はクラスタ化された、第2のコントローラ装置412のような複数の計算装置を含むことができる。
図1及び図4のマルチプロジェクタシステムは、全ての使用可能なプロジェクタを用いて単一の合成画像を生成するように示される。しかしながら、看取されるように、マルチプロジェクタシステムのプロジェクタのグループをサブグループに分割することが望ましいかもしれない。係るシステムは、立体/3D表示を提供するために使用され得る。サブグループに分割されたプロジェクタを含むマルチプロジェクタシステムの一実施形態が図5に示される。この実施形態は、2つの視覚チャネルが同じ物理的な表示面502に重ね合わされた立体/3Dディスプレイ500を提供する。特に、このシステムは、2つのサブグループ506a、506bに分割された12個のプロジェクタ504を含む。第1のサブグループ506aは「左」チャネルに対応し、視聴者の左目に送られるべき内容を投影するが、第2のサブグループ506bは「右」目のチャネルに対応する。双方のチャネルが共通のディスプレイ502上で互いに重ね合わされ、左目の合成表示508、及び右目の合成表示510を提供し、これら合成表示のそれぞれは、マルチプロジェクタシステムのプロジェクタ504の半分からの画像により生成されている。プロジェクタはコントローラシステム512により駆動され、当該コントローラシステム512は、上述したように少なくとも1つの較正カメラ514からフィードバックを受け取る。各サブグループ506に対する任意の様々な利用可能な3D表示技術(例えば、偏光眼鏡など)を用いて、結果としてのシステムは、高い画質を備えた大判の立体表示を提供するが、複数の比較的安価なプロジェクタを用いている。他の実施形態は、複数の別個のスクリーンを含むことができ、これらは、重ね合わされた画像、タイル状の画像、立体画像などを提供することができ、輝度(明るさ)、コントラスト、色などのような様々な特性に最適化され得る。
有利には、図4のシステム400は、コントローラ410又はクラスタ化されたコントローラのグループの制御下でのプロジェクタ402の調整を可能にするために、較正ユニット(図1の124)へのフィードバックのための複数の較正カメラ位置414、416、418を含む。同様に、図5に示されたシステム500は、複数の較正カメラ位置514、516、及び518を含む。これらカメラは異なる視点に配置される。例えば、中央のカメラは、実質的に真正面の視点からそれぞれの表示を見るために配置され、第2のカメラはスクリーンに対して右側に25°の視点に配置され、第3のカメラは左側に40°に配置される。理解されるべきは、これらの位置は単なる例示である。任意の数のカメラ位置/向きを使用することができ、当該位置/向きは任意とすることができる。本明細書で開示されたシステム及び方法は、マルチプロジェクタディスプレイの複数の視点からのカメラ測定値を使用し、当該測定値を自動的に統合して、より広い視角にわたるより最適な表示結果を形成する。これにより、プロジェクタのホットスポット生成および視点に依存するアーティファクトの出現は、所望の視角の範囲にわたって軽減される。
図6には、マルチプロジェクタシステムにおいてホットスポット及び視点に依存するアーティファクトを低減するための方法に関する一実施形態のステップを概説する流れ図が示される。この方法において、表示システムは、プロジェクタの集合、複数のグラフィックスカード、互いにクラスタ化された1つ又は複数のPC、複数の較正カメラ位置、及び1つ又は複数の表示面からなる図1、図4、又は図5の何れかに示されて説明されたようなマルチプロジェクタ表示システムであると仮定される。方法は、3つの大まかな段階、即ち、測定段階、モデル化段階、及びレンダリング段階を有する。
最初のステップは、測定段階の部分であり、複数の視点から投影特性を測定すること(ステップ600)を含む。任意の数のカメラ視点について(これは、複数の較正カメラで同時に、又は異なる視点に移動する単一のカメラで逐次的に、又はそれらの組み合わせで行われ得る)、各プロジェクタは、様々なパラメータ(幾何学的な形態、色、輝度などを含む)を符号化するために1つ又は複数のパターンを投影する。マイクロプロセッサ制御システムは、各プロジェクタについて及び各カメラ視点について測定値を記録する。
次のステップは、モデル化段階の部分である。最初に、各プロジェクタについて、全てのカメラ視点からの測定されたプロジェクタのパラメータが、共通の座標系(例えば、基準としてのカメラの1つに対する位置の座標、又は何らかの他の基準点)に再マッピングされる(ステップ602)。そして、結果は、視点に依存する投影パラメータを推定するために、測定されたパラメータの関数として表される(ステップ604)。例えば、全ての測定された輝度のプロファイル(特性)は、視角に対するパラメータ化を介して所与のプロジェクタの共通の座標系に再マッピングされる。次いで、1つの手法は、視点に依存する影響の大部分を除去する単一の代表的な輝度プロファイルを形成するために、画素位置毎に重み付けされた平均値または中央値(メジアン)をとることである。別の実施形態は、視角に依存するプロジェクタパラメータの重み付けされた反射率関数を画像形成モデルへ組み込む。結局、非ランベルト面スクリーンの視点に依存する影響およびホットスポット生成の影響を低減するプロジェクタパラメータのより多くの代表的なセットが推定される。
このステップの1つの拡張は、3D位置およびカメラの視点とプロジェクタの位置関係を推定することである。この場合、測定されたパラメータの実際の3Dの幾何学的形態を因数化し、測定されたプロジェクタパラメータのパラメータ化関数を形成することができる(例えば、視角の関数としての輝度プロファイル)。この手法は、表示面の面法線およびより一般的な伝達関数(例えば、双方向反射関数(BRDF)、反射フィールド)の推定につながることができる。
ひとたびプロジェクタパラメータが推定されれば、マルチプロジェクタディスプレイの追加の補償パラメータが、当業者に知られているステップを用いて推定またはモデル化され得る(ステップ606)。これらモデル化および測定ステップの例は、各プロジェクタ又はサブグループの投影輝度をできる限り均一にするように較正することを含む。1つの手法において、マルチプロジェクタシステムの画像パイプラインは、高性能画像形成モデル、並びに根本要素および他の補正箇所を含むプロジェクタ間の幾何学的配置、輝度、色、黒色オフセットなどを測定することを含む、較正カメラ(単数または複数)を通じたフィードバックを介した自動測定ステップを使用する。これらのモデル化および測定ステップの実施形態は、N. Damera-Venkata、N.L. Chang、J.M. DiCarlo著、「A Unified Paradigm for Scalable Multi-Projector Displays」、IEEE Transactions on Visualization and computer Graphics、2007年11月〜12月、並びに米国特許第7,306,341号及び米国特許第7,443,364号、米国特許出願公開第2007/0091277号、米国特許出願公開第2007/0097334号、米国特許出願公開第2008/0002160号、米国特許出願公開第2008/0024469号、米国特許出願公開第2008/0024683号、及び米国特許出願公開第2008/0143978号に概説されており、それらの開示内容は、参照により本明細書に組み込まれる。
最適化中、より多くの視点において因数化することも可能である。例えば、一実施形態において、複数の測定値を用いて、重み付けされた反射率関数(パラメトリック又はノンパラメトリックとするこができ、必要に応じて補間される)を推定し、それにより最終表示の所望の視角がより重く重み付けされて、これらの視角にわたる補償パラメータのより最適なセットが得られる。この重み付けされた反射率関数を用いて、全ての関連した画像の補償/レンダリングパラメータの値を直接的に求めることができる。別の実施形態において、各プロジェクタの特性測定値を用いて、各視角に対する対応する補償パラメータを計算し、これらの補償パラメータは視角の重み付けされた関数に組み合わされる。また、複数の視点のパラメータを組み合わせることは、値の中央値をとることにより、又は何らかの他の順位統計により行われ得る。要するに、反射率関数が、重み付けされた平均値、中央値、切り捨て平均値、又は本明細書で説明された任意の他のタイプの組み合わせ、又は当業者に知られているものにより求められることに関わらず、システムは、複数の視点からの反射率の値の確固たる組み合わせである当該反射率関数を生じさせる。
最後のステップは、レンダリング段階の部分である。推定された補償またはレンダリングパラメータは、各プロジェクタについて計算および/または更新され(ステップ608)、当該推定された補償パラメータは、上記で挙げられた文献で説明されるように、後続の画像のためにリアルタイムで各プロジェクタに表示内容を送るために適用される(ステップ610)。言い換えれば、何らかの内容を表示することが望まれる場合、計算されたレンダリングパラメータは、結果としての画像がホットスポット及び視点に依存するアーティファクトの低減と共に所望の特性を達成するように、各プロジェクタの画像を如何にして調整するかを決定するために全ての所望のフレームに適用される。矢印612により示されるように、プロセスは次いで、繰り返してレンダリングパラメータを計算して表示データを各プロジェクタに送るために、ステップ608と610を繰り返すことができる。代案として、矢印614により示されるように、プロセスは、必要に応じて再較正するために、ステップ600に戻ることができる。この方法の結果として、結果としての表示は、以前に比べてより少ない視点に依存するアーティファクト及びより少ないホットスポット生成を有することができる。
別の実施形態において、本明細書で開示された方法は、凝視/頭部追跡能力を組み込むように拡張され得る。この方法の一実施形態におけるステップが図7に示される。図6に関して概説され説明された方法と同様に、この実施形態も、測定段階、モデル化段階、及びレンダリング段階を含む。最初のステップは、測定段階の部分であり、上述したのと同じように、複数の視点から投影特性を測定すること(ステップ700)を含む。やはり、これは、複数の較正カメラで同時に、又は異なる視点に移動する単一のカメラで逐次的に、又はそれらの組み合わせで行われ得る。各プロジェクタは、様々なパラメータを符号化するために1つ又は複数のパターンを投影し、マイクロプロセッサ制御システムは、各プロジェクタについて及び各カメラ視点について測定値を記録する。
次のステップは上述したモデル化段階を開始し、測定されたパラメータの関数としての結果を生成するために共通の座標系に投影パラメータをマッピングすることにより投影パラメータを最初にモデル化し(ステップ702)、視点に依存する投影パラメータを推定する(ステップ704)ことを含む。一実施形態において、これらのステップは上記で概説されたように行われ、例えば、各プロジェクタについて測定された輝度プロファイルの全てを共通の座標系に再マッピングし、視点に依存する影響を除去する単一の代表的な輝度プロファイルを形成するために、画素位置毎に重み付けされた平均値または中央値をとることにより行われる。代案として、測定された輝度プロファイルを用いて、画像形成モデルにおいて視角に依存する重み付けされた反射率関数を形成することができる。この重み付けされた反射率関数を用いて、全ての関連した画像の補償/レンダリングパラメータの値を直接的に求めることができる。代案として、システムは、各視角について投影パラメータを推定し、それらを組み合わせることができる(例えば、重み付けされた平均値として)。また、複数の視点のパラメータを組み合わせることは、値の中央値をとることにより、又は何らかの他の順位統計により行われ得る。やはり、重み付けされた平均値、中央値、切り捨て平均値、又は本明細書で説明された任意の他のタイプの組み合わせ、又は当業者に知られているものによることに関わらず、システムは、複数の視点からの反射率の値の確固たる組み合わせである反射率関数を生じさせる。ひとたびプロジェクタパラメータが推定されれば、マルチプロジェクタディスプレイの追加の補償パラメータも、上述したステップを用いて推定またはモデル化され得る。
最後のステップは、レンダリング段階の部分である。レンダリング段階の間、推定された補償またはレンダリングパラメータは、各プロジェクタについて計算および/または更新され(ステップ708)、当該推定された補償パラメータは、上述されたように、後続の画像のためにリアルタイムで各プロジェクタに表示内容を送るために適用される(ステップ710)。理解されるべきは、補償パラメータは、オンザフライで計算され得るか、又はそれらは予め計算されて、視角に基づいてルックアップテーブルに格納され得る。しかしながら、頭部または凝視の追跡に関する追加のステップ(ステップ706)がこの実施形態に追加される。このように、レンダリングステップは、複数の視角に対して較正し、且つ視角の関数として学習(training:トレーニング)パラメータを推定するために変更される。レンダリング中、頭部追跡装置は、ユーザの視角を推定し、その視点からの最良の結果につながる適切な補償パラメータを更新する(内容も、運動視差補正表示を生成するために更新され得る)。補償パラメータは予め計算され得るか、さもなければユーザの視角を受け取る際にオンザフライで計算され得る。代案として、複数の別個の視点に対する投影パラメータが予め計算されてメモリに格納され得る。次いで、所与の検出された場所に対する投影パラメータは、中間の画像の格納された値の間を補間することにより取得され得る。この手法は、全ての視点についてパラメータを格納する必要性を取り除く。
頭部追跡または凝視追跡は、当業者により知られた様々な技術を使用することができ、当該技術は、人の目の動きを追跡するために赤外線(IR)を用いたカメラ、姿勢および向きを求めるために信号を三角法で測ることにより動作する頭部装着型器具などを含む。係る追跡システムは、例えば、任天堂により製作された、よく知られたWii(登録商標)ゲームシステムで使用されるコンポーネントのタイプを用いて構成され得る。視聴者の顔の位置と向き、及び目の視線の方向も検出する顔検出システムのような、凝視追跡に対する他の手法が使用されてもよい。
頭部追跡システムを有するディスプレイの一実施形態が、図8に示される。表示画像800が表示スクリーン802に投影される。表示スクリーンの上には、頭部追跡センサ804がある。マルチプロジェクタシステムがこの図で示されていないが、マルチプロジェクタシステムを用いて、表示画像800を生成することができる。図5に示されたマルチプロジェクタシステム500は、頭部または凝視追跡センサ520を含む。
図8に戻ると、典型的な視聴者806は、一対の光源(ライト)810a、810bを保持するヘッドバンド808(又は、帽子、眼鏡などのような他の装置)を装着している。光源は、赤外線光源とすることができ、カメラ804は、光源から発する光を検出することができる赤外線カメラとすることができる。ヘッドバンド808を装着することにより、視聴者806の場所および頭部の向きは、強度(より近い光源がより大きな強度を提供する)、サイズ、位置(右、左、上、下)、相対的間隔(互いにより近い一対の光源は、視聴者がより遠い、又は回転した頭部を示すことができる)、及び光源810の相対的角度(傾いた頭部を表す)に基づいて、求められ得る。かくして、視聴者806aの位置は、頭部に装着された光源からカメラ804までの、視聴者806bの位置とは異なる光路(波線812aにより表される)を提供し、視聴者806bの位置は異なる光路(波線812bにより表される)を提供する。
この頭部追跡システムにより、関連した制御システムが、カメラ804及びディスプレイ802に対する視聴者の位置を推定することが可能になる。理解されるべきは、図8に示された凝視/頭部追跡構成は、本明細書で開示されたシステム及び方法と共に使用され得る多くの考えられる凝視または頭部追跡システムの1つに過ぎないことである。図7に戻って参照すると、較正技術は、ステップ706で検出された視聴者の位置に基づいて推定された視角に対する較正データ(即ち、マルチプロジェクタ測定およびモデル化ステップ702、704)を記録する。また、視角をパラメータ化し、且つ視角の関数としてこれら結果をパラメータ化することも可能であり、さもなければ推定された視角に最も近い較正データに単にロードすることができる。
矢印712により示されるように、プロセスは、視聴者の位置および/または凝視の方向を繰り返し検出して、レンダリングパラメータを計算し、各プロジェクタに表示データを送るために、ステップ706〜710を繰り返すことができる。代案として、矢印714により示されるように、プロセスは、必要に応じて再較正するためにステップ700に戻ることができる。この方法の結果として、結果としての表示は、以前に比べてより少ない視点に依存するアーティファクト及びより少ないホットスポット生成を有することができる。
このシステム及び方法は、非ランベルト面のマルチプロジェクタディスプレイで現れる可能性がある、視点に依存するアーティファクト及びホットスポット生成を軽減するために、複数の場所からのカメラ測定値を利用する。それは、偏光3Dディスプレイ及び背面投影型マルチプロジェクタディスプレイに特に望ましい、視角のより広い範囲にわたる表示の改善された結果を提供する。更に、このシステム及び方法は、表示を改善するための自動測定および較正技術を容易にする。
理解されるべきは、上述された構成は、本明細書で開示された原理の応用形態の実例である。当業者には明らかなように、多くの変更を、特許請求の範囲に記載されたような本開示の原理と概念から逸脱せずに行うことができる。

Claims (15)

  1. マルチプロジェクタシステムにおいて、視点に依存するアーティファクトを低減するための方法であって、その方法が、プロセッサ及びシステムメモリを有するコンピュータ装置により実行されるものにおいて、
    a)前記マルチプロジェクタシステムの複数のプロジェクタのそれぞれの投影特性に関するデータを、複数の視点から測定し、前記コンピュータに入力するステップであって、前記複数のプロジェクタが画像フレームの合成画像を生成する、ステップと、
    b)前記コンピュータが、各プロジェクタについて、前記複数の視点からの前記投影特性を共通座標系にマッピングするステップと、
    c)前記再マッピングされた投影特性に基づいて、各プロジェクタについて視点に依存する投影パラメータを、コンピュータが推定するステップと、
    d)前記視点に依存するアーティファクトを低減するように、前記推定された視点に依存する投影パラメータに基づいて、各プロジェクタのレンダリングパラメータをコンピュータが計算するステップとを含む、方法。
  2. 前記複数の視点から前記投影特性を測定するステップが、異なる場所に配置された複数のカメラを用いて、前記投影特性を測定することを含む、請求項1に記載の方法。
  3. 前記複数の視点から前記投影特性を測定するステップが、異なる場所の間で逐次的に移動する単一のカメラを用いて、前記投影特性を測定することを含む、請求項1に記載の方法。
  4. 前記各プロジェクタのレンダリングパラメータを計算するステップが、複数の視点からの測定された輝度プロファイルを組み合わせて、視角に依存する反射率関数を形成することを含む、請求項1から3の何れかに記載の方法。
  5. 前記推定された視点に依存する投影パラメータを用いて、前記ステップ(d)を繰り返して実行するステップを更に含む、請求項1から4の何れかに記載の方法。
  6. 前記ステップ(a)〜(d)を周期的に繰り返すステップを更に含む、請求項1から4の何れかに記載の方法。
  7. e)前記画像に関して視聴者の見る/凝視方向を追跡するステップを更に含み、
    前記ステップ(d)が、
    記見る/凝視方向に基づいて、前記視点に依存するアーティファクトを低減するように各プロジェクタのレンダリングパラメータを計算するステップを更に含む、請求項1から3の何れかに記載の方法。
  8. 前記推定された視点に依存する投影パラメータを格納し、前記推定された視点に依存する投影パラメータに基づいて前記レンダリングパラメータを周期的に更新するステップを更に含む、請求項1からの何れかに記載の方法。
  9. プロセッサ及びシステムメモリを含む計算装置に以下のステップ、即ち
    a)画像フレームの合成画像を生成する複数のプロジェクタの投影特性の、複数の視点からの測定値を表すデータを受け取るステップと、
    b)各プロジェクタについて、前記複数の視点からの前記投影特性を共通座標系にマッピングするステップと、
    c)前記再マッピングされた投影特性に基づいて、各プロジェクタについて、視点に依存する投影パラメータを推定するステップと、
    d)プロジェクタへの投影データストリームを変換して視点に依存するアーティファクトを低減するように、前記推定された視点に依存する投影パラメータに基づいて各プロジェクタのレンダリングパラメータを計算するステップ
    を実行させるためのコンピュータプログラム。
  10. 前記複数の視点から前記投影特性を測定するステップが、(i)異なる場所に配置された複数のカメラを用いて、前記投影特性を測定すること、及び(ii)異なる場所の間で逐次的に移動する単一のカメラを用いて、前記投影特性を測定することからなるグループから選択されたステップを含む、請求項9に記載のコンピュータプログラム。
  11. 計算装置に以下のステップ、即ち
    e)前記画像に関して視聴者の見る/凝視方向を追跡するステップ
    を実行させることを更に含み、
    前記ステップ(d)が、
    記見る/凝視方向に基づいて、前記視点に依存するアーティファクトを低減するように各プロジェクタのレンダリングパラメータを計算するステップを更に含む、請求項9又は10に記載のコンピュータプログラム。
  12. 前記レンダリングパラメータを計算するステップが、複数の視点からの測定された輝度プロファイルを組み合わせて、視角に依存する反射率関数を形成することを含む、請求項9又は10に記載のコンピュータプログラム。
  13. 投影システムであって、
    画像フレームの合成画像を生成するために、それぞれが表示場所に画像を投影するように向きを設定された複数のプロジェクタと、
    カメラが複数の見通しの利く地点から前記表示場所の画像を取得することを可能にするように選択される複数のカメラ場所と、
    コンピュータプロセッサ及びシステムメモリを含み、前記プロジェクタに結合されたコントローラとを含み、前記コントローラが、各カメラ場所でのカメラからの画像データを受け取り、各プロジェクタの前記データにより表された投影特性を測定し、各プロジェクタについて前記複数の見通しの利く地点からの前記投影特性を共通座標系に再マッピングし、前記再マッピングされた投影特性に基づいて、各プロジェクタについて視点に依存する投影パラメータを推定し、視点に依存するアーティファクトを低減するために、前記推定された視点に依存する投影パラメータに基づいて、各プロジェクタの投影データストリームのレンダリングパラメータを計算するように構成されている、投影システム。
  14. 各カメラ場所においてフィードバックカメラを更に含む、請求項13に記載の投影システム。
  15. 前記表示場所が複数の表示場所からなり、プロジェクタの別個のグループのそれぞれが、前記複数の表示場所の1つにサブ画像を投影するように向きを設定されている、請求項13又は14に記載の投影システム。
JP2012513027A 2009-05-29 2009-05-29 マルチプロジェクタシステム及び方法 Expired - Fee Related JP5396536B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2009/045711 WO2010138128A1 (en) 2009-05-29 2009-05-29 Multi-projector system and method

Publications (2)

Publication Number Publication Date
JP2012528519A JP2012528519A (ja) 2012-11-12
JP5396536B2 true JP5396536B2 (ja) 2014-01-22

Family

ID=43222984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012513027A Expired - Fee Related JP5396536B2 (ja) 2009-05-29 2009-05-29 マルチプロジェクタシステム及び方法

Country Status (6)

Country Link
US (1) US8477241B2 (ja)
EP (1) EP2436182B1 (ja)
JP (1) JP5396536B2 (ja)
KR (1) KR101647536B1 (ja)
CN (1) CN102450001B (ja)
WO (1) WO2010138128A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050259424A1 (en) * 2004-05-18 2005-11-24 Zampini Thomas L Ii Collimating and controlling light produced by light emitting diodes
US7729941B2 (en) 2006-11-17 2010-06-01 Integrated Illumination Systems, Inc. Apparatus and method of using lighting systems to enhance brand recognition
US8013538B2 (en) 2007-01-26 2011-09-06 Integrated Illumination Systems, Inc. TRI-light
US8742686B2 (en) * 2007-09-24 2014-06-03 Integrated Illumination Systems, Inc. Systems and methods for providing an OEM level networked lighting system
CA2714492C (en) 2008-02-08 2014-07-15 Google, Inc. Panoramic camera with multiple image sensors using timed shutters
US8255487B2 (en) * 2008-05-16 2012-08-28 Integrated Illumination Systems, Inc. Systems and methods for communicating in a lighting network
US8585245B2 (en) 2009-04-23 2013-11-19 Integrated Illumination Systems, Inc. Systems and methods for sealing a lighting fixture
JP5565258B2 (ja) * 2010-10-12 2014-08-06 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US9066381B2 (en) 2011-03-16 2015-06-23 Integrated Illumination Systems, Inc. System and method for low level dimming
US9967940B2 (en) 2011-05-05 2018-05-08 Integrated Illumination Systems, Inc. Systems and methods for active thermal management
CN102970502A (zh) * 2011-08-31 2013-03-13 中强光电股份有限公司 投影系统及其更新方法
US20130201305A1 (en) * 2012-02-06 2013-08-08 Research In Motion Corporation Division of a graphical display into regions
US20150062311A1 (en) * 2012-04-29 2015-03-05 Hewlett-Packard Development Company, L.P. View weighting for multiview displays
US8894437B2 (en) 2012-07-19 2014-11-25 Integrated Illumination Systems, Inc. Systems and methods for connector enabling vertical removal
US9154763B2 (en) * 2012-10-11 2015-10-06 Sony Corporation System and method for reducing artifacts caused by view-dependent lighting components
US9379578B2 (en) 2012-11-19 2016-06-28 Integrated Illumination Systems, Inc. Systems and methods for multi-state power management
US9420665B2 (en) 2012-12-28 2016-08-16 Integration Illumination Systems, Inc. Systems and methods for continuous adjustment of reference signal to control chip
US9485814B2 (en) 2013-01-04 2016-11-01 Integrated Illumination Systems, Inc. Systems and methods for a hysteresis based driver using a LED as a voltage reference
US9052186B2 (en) 2013-01-31 2015-06-09 Hewlett-Packard Development Company, L.P. Correspondence mapping between an imaging system and a directional rendering system
CN105308503A (zh) * 2013-03-15 2016-02-03 斯加勒宝展示技术有限公司 利用短程相机校准显示系统的系统和方法
US9588408B1 (en) 2014-05-15 2017-03-07 Autofuss Methods and systems for projecting a target portion of an image at a higher resolution
US10030844B2 (en) 2015-05-29 2018-07-24 Integrated Illumination Systems, Inc. Systems, methods and apparatus for illumination using asymmetrical optics
US10060599B2 (en) 2015-05-29 2018-08-28 Integrated Illumination Systems, Inc. Systems, methods and apparatus for programmable light fixtures
CN105141876B (zh) * 2015-09-24 2019-02-22 京东方科技集团股份有限公司 视频信号转换方法、视频信号转换装置以及显示系统
US9659371B2 (en) * 2015-10-08 2017-05-23 Christie Digital Systems Usa, Inc. System and method for online projector-camera calibration from one or more images
US10120187B2 (en) * 2016-02-18 2018-11-06 Nvidia Corporation Sub-frame scanout for latency reduction in virtual reality applications
US10303414B2 (en) 2016-07-15 2019-05-28 Panasonic Intellectual Property Management Co., Ltd. Device, system, and method of controlling projection image
US9992464B1 (en) * 2016-11-11 2018-06-05 Christie Digital Systems Usa, Inc. Method and system for screen correction
WO2018163875A1 (ja) * 2017-03-09 2018-09-13 ソニー株式会社 画像処理装置および方法
CN108804975A (zh) * 2017-04-27 2018-11-13 丽宝大数据股份有限公司 唇彩指引装置及方法
JP2019008015A (ja) * 2017-06-21 2019-01-17 カシオ計算機株式会社 投影装置、投影方法及びプログラム
CN110392248A (zh) * 2018-04-23 2019-10-29 德州仪器公司 线性致动的显示器及其实施方法
WO2020013513A1 (ko) * 2018-07-09 2020-01-16 엘지전자 주식회사 비디오 송신 방법, 비디오 송신 장치, 비디오 수신 방법 및 비디오 수신 장치
US10964058B2 (en) 2019-06-21 2021-03-30 Nortek Security & Control Llc Camera auto-calibration system
JP6919685B2 (ja) * 2019-07-29 2021-08-18 セイコーエプソン株式会社 画面投射システムの制御方法、及び画面投射システム

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5384912A (en) * 1987-10-30 1995-01-24 New Microtime Inc. Real time video image processing system
US6778150B1 (en) 1993-09-14 2004-08-17 Francis J. Maguire, Jr. Method and apparatus for eye tracking
BE1011580A5 (nl) * 1997-12-01 1999-11-09 Barco Naamloze Vennootschap Werkwijze en inrichting voor het regelen van een of meer projectoren.
US6310650B1 (en) * 1998-09-23 2001-10-30 Honeywell International Inc. Method and apparatus for calibrating a tiled display
US6570623B1 (en) * 1999-05-21 2003-05-27 Princeton University Optical blending for multi-projector display wall systems
JP2002116500A (ja) * 2000-10-05 2002-04-19 Olympus Optical Co Ltd 画像投影表示装置
US7154515B2 (en) * 2001-06-15 2006-12-26 Perkinelmer, Inc. Method and apparatus for reducing printing artifacts of stitched images
FR2837056B1 (fr) * 2002-03-07 2004-09-17 France Telecom Procede et systeme d'uniformisation du rendu colorimetrique d'une juxtaposition de surfaces d'affichage
US7038727B2 (en) 2002-10-30 2006-05-02 The University Of Chicago Method to smooth photometric variations across multi-projector displays
US6834965B2 (en) * 2003-03-21 2004-12-28 Mitsubishi Electric Research Laboratories, Inc. Self-configurable ad-hoc projector cluster
US7663640B2 (en) * 2003-07-02 2010-02-16 The Trustees Of Columbia University In The City Of New York Methods and systems for compensating an image projected onto a surface having spatially varying photometric properties
JP2005099150A (ja) * 2003-09-22 2005-04-14 Olympus Corp 画像表示装置の画像補正データ算出方法
US7090358B2 (en) * 2004-03-04 2006-08-15 International Business Machines Corporation System, apparatus and method of displaying information for foveal vision and peripheral vision
WO2005119376A2 (en) * 2004-06-01 2005-12-15 Vesely Michael A Horizontal perspective display
ATE488091T1 (de) * 2004-08-30 2010-11-15 Univ Weimar Bauhaus Verfahren und vorrichtung zur darstellung eines digitalen bildes auf einer geometrisch und photometrisch nicht-trivialen oberfläche
JP2006349791A (ja) 2005-06-14 2006-12-28 Seiko Epson Corp マルチディスプレイ装置
JP3908255B2 (ja) 2005-07-25 2007-04-25 オリンパス株式会社 画像投影システム
WO2007049263A1 (en) * 2005-10-27 2007-05-03 Optyka Limited An image projection display system
US7866832B2 (en) * 2006-02-15 2011-01-11 Mersive Technologies, Llc Multi-projector intensity blending system
US9137504B2 (en) * 2006-06-16 2015-09-15 Hewlett-Packard Development Company, L.P. System and method for projecting multiple image streams
US7907792B2 (en) * 2006-06-16 2011-03-15 Hewlett-Packard Development Company, L.P. Blend maps for rendering an image frame
US8228371B2 (en) 2006-07-31 2012-07-24 Hewlett-Packard Development Company, L.P. Projection screen and camera array
US8994757B2 (en) * 2007-03-15 2015-03-31 Scalable Display Technologies, Inc. System and method for providing improved display quality by display adjustment and image processing using optical feedback
US8031271B2 (en) * 2007-07-02 2011-10-04 Hewlett-Packard Development Company, L.P. Calibrating a projection system
CN101344707A (zh) * 2008-01-09 2009-01-14 上海海事大学 自动多投影仪非线性几何校正与边缘融合方法
JP5217497B2 (ja) * 2008-02-26 2013-06-19 ソニー株式会社 画像投影システム、制御装置、画像投影方法、プログラム及び記録媒体

Also Published As

Publication number Publication date
US8477241B2 (en) 2013-07-02
US20120019670A1 (en) 2012-01-26
CN102450001A (zh) 2012-05-09
KR101647536B1 (ko) 2016-08-10
KR20140001258A (ko) 2014-01-07
WO2010138128A1 (en) 2010-12-02
EP2436182B1 (en) 2019-07-24
EP2436182A4 (en) 2013-09-25
CN102450001B (zh) 2015-08-12
EP2436182A1 (en) 2012-04-04
JP2012528519A (ja) 2012-11-12

Similar Documents

Publication Publication Date Title
JP5396536B2 (ja) マルチプロジェクタシステム及び方法
JP7467437B2 (ja) ポストレンダリング処理用ディスプレイエンジン
US11474597B2 (en) Light field displays incorporating eye trackers and methods for generating views for a light field display using eye tracking information
US8189035B2 (en) Method and apparatus for rendering virtual see-through scenes on single or tiled displays
US10187635B2 (en) Method and system for displaying three-dimensional objects
WO2017212679A1 (ja) 画像生成装置および画像生成方法
TWI594018B (zh) 廣視角裸眼立體圖像顯示方法、裸眼立體顯示設備以及其操作方法
US8564647B2 (en) Color management of autostereoscopic 3D displays
TW201244459A (en) Immersive display experience
JP2014522591A (ja) 角スライス実像3dディスプレイのためのアライメント、キャリブレーション、およびレンダリングのシステムおよび方法
KR20120119905A (ko) 3d 디스플레이에서의 누화 보상 방법
US9325960B2 (en) Maintenance of three dimensional stereoscopic effect through compensation for parallax setting
JP2023514796A (ja) 物理物体による拡張現実内の仮想物体のオクルージョン
US20180374258A1 (en) Image generating method, device and computer executable non-volatile storage medium
WO2012140397A2 (en) Three-dimensional display system
US11050993B2 (en) Image generating apparatus and image generating method
JP3955497B2 (ja) 立体映像表示装置及び立体映像表示方法
US11636578B1 (en) Partial image completion
JP4121313B2 (ja) 立体映像表示設備
US10999567B2 (en) Image generating apparatus and image generating method
CN112802131A (zh) 一种图像处理方法及装置
TW202338431A (zh) 顯示器非均勻性校正
TW202343089A (zh) 顯示非均勻性的校正
Domonkos et al. Volume Rendering in an Optical Tracking based Virtual Environment

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130627

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131015

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131021

R150 Certificate of patent or registration of utility model

Ref document number: 5396536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees