JP2020513699A - 自動校正投射システムおよび方法 - Google Patents

自動校正投射システムおよび方法 Download PDF

Info

Publication number
JP2020513699A
JP2020513699A JP2019527313A JP2019527313A JP2020513699A JP 2020513699 A JP2020513699 A JP 2020513699A JP 2019527313 A JP2019527313 A JP 2019527313A JP 2019527313 A JP2019527313 A JP 2019527313A JP 2020513699 A JP2020513699 A JP 2020513699A
Authority
JP
Japan
Prior art keywords
projector
mapping
correction function
pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019527313A
Other languages
English (en)
Other versions
JP2020513699A5 (ja
Inventor
ローンプレ,セバスティアン
ラボンテ,ダニエル
ブージュ−ブルグン,ヒューゴ
Original Assignee
レアリザシオンズ インコーポレイテッド モントリオール
レアリザシオンズ インコーポレイテッド モントリオール
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by レアリザシオンズ インコーポレイテッド モントリオール, レアリザシオンズ インコーポレイテッド モントリオール filed Critical レアリザシオンズ インコーポレイテッド モントリオール
Publication of JP2020513699A publication Critical patent/JP2020513699A/ja
Publication of JP2020513699A5 publication Critical patent/JP2020513699A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3182Colour adjustment, e.g. white balance, shading or gamut
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

画像を表示するためのプロジェクタのシステムを自動的に校正するための方法であって、方法は、プロジェクタから投射面に画素を選択的に投射するステップと、投射面にわたり投射された画素を感知するステップと、選択的に投射された画素および感知された画素に基づいてプロジェクタ/スクリーンマッピングを導出するステップと、プロジェクタ/スクリーンマッピングに基づいて画素補正関数を導出するステップと、グラフィックプロセッサユニット(GPU)のグラフィカルパイプライン内のマッピングメッシュにテクスチャマップを適用することによって画素補正関数を格納するステップと、少なくともミスアライメントを補正する補正画素データを生成するために入力画像画素データに画素補正関数を適用するステップと、補正画素データを用いてプロジェクタを駆動するステップとを備える。【選択図】図1A

Description

本発明は、複数のプロジェクタ自動校正システムおよび方法に関する。
水平方向に360度かつ垂直方向に180度まで投射することが可能でなくてはならない、建物の壁または大勢の人を収容することができる大型膨張式ドームにおけるような非常に大型の投射システムは、現在の投射技術に関する大きな課題である。そのような設備に関して、様々なプロジェクタからの重複するディスプレイを結合することが一般的である。米国特許第6,377,306号、6,525,772号において、Johnson氏他は、非ランバーシアン面において重複は25%以上でなくてはならないことを決定した。プロジェクタのレンダリング、アライメント、およびマッチングの品質を達成するために、システムの複数の校正態様を実現することが必須であり、これは、熟練者にとっても時間のかかる作業である。
投射面において高精度で配置された単一のシームレスで均一かつ大きな画像を実現するためのプロジェクタのグループに関して、克服すべき数々の問題が存在する。本明細書で一般に意図される補正の種類は、複数のプロジェクタによって重複された領域の合計強度が残りの投射面と同様の強度であるようにするプロジェクタ間でのブレンディング画像補正を含む(Harville、2006)。さらに、スクリーン、または建物の床、壁、および天井などの複雑な静止面に、あるいはたとえば膨張式ドームなどの一時的なものにおいて投射される画像の幾何学的校正を行わなければならない。手動の幾何学的校正の場合、最新技術は一般に、成し遂げるために手のかかる相当な精度の適用を伴う。米国特許第8,777,418号において、Wright氏他は、自動校正方法を提示したが、この方法は、複数回反復して動作すること、およびスクリーン上のマーカを必要とする。米国特許第9,369,683号において、Timoner氏他は、マーカを用いる手動および半自動両方の校正方法を提示した。
投射ベースのディスプレイは、場合によっては、多くの場合プロジェクタの不完全な光学部品の結果生じる色ごとのチャネルにおける、幾何学的歪みに悩まされる。またこれらは、プロジェクタ内およびプロジェクタ間での強度のばらつき、色の光沢、プロジェクタ間での色の不一致、変化する黒レベル、様々な入力出力曲線などにも悩まされる。複数プロジェクタ構成における様々な種類のプロジェクタの使用または古いプロジェクタと真新しいプロジェクタとを組み合わせることにより、投射面における著しい強度および色の不一致が生じ得る。米国特許第7,038,727号において、Majumder氏他は、プロジェクタ間の強度のばらつきを補正する方法を提示した。
プロジェクタ間での、また特に各ユニットに関する色および強度の変化は、複数の投射ユニットの使用に関する補償を実現するために補正されなければならない(Pagani、2007)。米国特許第6,456,339号において、Surati氏他は、カメラの使用、および変更されたジオメトリ、色、および明るさを有する修正画像を処理後に提供することによってプロジェクタのアライニングおよびマッチングプロセスを単純化するための画素補正関数およびルックアップテーブルによる画像処理を開示した。各プロジェクタの投射画素からのフィードバックを取得するために、たとえば校正されたカラーカメラなどの光学センサの1つまたはアレイを用いることは、投射面に単一のシームレスで均一な校正画像を実現するために投射画素の各々を見当合わせ、校正、および補正することを可能にする。高品質の色再現、均一性、および強度を有するシームレスな単一画像を生成するために複数のプロジェクタシステムを校正(見当合わせ、ブレンディング、強度、色)するための方法が存在するが、プロセスを完了するために、いくつかの手動または半手動動作を行うことが必要である。これは特に、たとえば複数の投射ショーが次々に提供されるドーム内での巡回投射の場合など、急速に移動および再設置される必要がある設備の場合、問題となる。投射システムの要素(プロジェクタ、カメラ、レンズなど)が変更され、移動され、または単にわずかに非整列である場合、2つのショーの間で急速に再校正が行われなければならない。
校正プロセス中、環境条件または妨害が、誤ったまたは誤ラベル付きの検出点を生成することにより、問題を手動で補正し、または校正プロセスを再開する人間の介入なしでは校正が不可能になり得る。米国特許第7,893,393号において、Webb氏他は、そのような誤検出されたまたは誤ラベル付きの点のための方法を提示するが、この方法は、動作するためにパラメトリック局面方程式を必要とする。
上記欠点に対処するために、所望の方法は、臨時または定期のプロジェクタおよびカメラの配置または変更の後に行われる、投射面における補正された合成画像のモーフィング、ブレンディング、色、明るさ、および高精度の配置を含む急速自動校正機能を提供しなければならない。
以下の米国特許は、本発明に関連する他のシステムを開示するものである。Sukthankar氏他によるUS6,618,076号、Chang氏によるUS7,306,341号、およびSajadi氏他によるUS9,195,121号。
他の参照文献
コンピュータグラフィックスおよびアプリケーションに関する第10回太平洋会議(2002)の議事録における、Brown, M.S.,Seales, W.B.,“A Practical and Flexible Tiled Display System”
Harville, M., Culbertson, B. Sobel, I., Gelc, D., Fitzhugh, A., Tanguay, D., “Practical Methods for Geometric and Photometric Correction of Tiled Projector Displays on Curved Surfaces,” Conference on Computer Vision and Pattern Recognition Workshop(2006)
Pagani, A., Stricker, D.,“Spatially uniform colors for projectors and tiled displays,” Journal of the Society for Information Display, Vol. 15, no. 9, pp. 679−689(2007)
Billot, A., Gilboa, I., Schmeidler, D., “Axiomatization of an Exponential Similarity Function,” Mathematical Social Sciences, Vol. 55, Issue 2, pp. 107−115,(2008)
1つの態様において、本発明は、投射面に適切に配置されたシームレスな単一画像を生成するために必要な校正プロセス全体を統合することによって、複数の2Dプロジェクタ合成画像の手動または半手動校正および配置の欠点を克服するものである。画像の配置は、投射面においてアクティブ発光ダイオード(LED)ビジュアルタグを用いることによって実現される。
本発明によると、複数の2Dビデオプロジェクタからのシームレス画像を自動的に校正および配置するためのシステムおよび方法が提供される。このプロセスは、3つのサブプロセスに副分割され得る。第1のサブプロセスは、プロジェクタの画素を少なくとも1つのカメラの画素に見当合わせすることによるカメラ/プロジェクタシステムの校正に関する。提案される見当合わせの方法は、従来技術よりも堅固であり表面の均一化を必要としない校正プロセスを提供するために、機械学習アルゴリズムによって誤検出されたまたは誤ラベル付きの点を除去するための投射された校正試験パターンの新規の整合性チェックを含む。この第1のサブプロセスは、1または複数のプロジェクタが動かされる度、または1または複数のカメラが移動されると、繰り返される。
第2のサブプロセスは、各カメラの画素に関してLEDアクティブマーカの位置を見当合わせすることによる、投射面を用いるカメラの校正に関する。各LEDマーカは、プロジェクタによって表示される最終画像の座標に関連する。したがって、最終画像のジオメトリは、LEDマーカの位置およびそれらのアクティブ化順序に依存する。第2のサブプロセスは、少なくとも1つのカメラまたはLEDマーカが移動された場合のみ、繰り返される。
第3のサブプロセスは、プロジェクタの全体が単一プロジェクタのみである印象を与えるためにプロジェクタの画素の画素マトリックスおよび画素の明るさを変更するために、プロジェクタの画素にマッピングおよびブレンディングパラメータを適用することに関する。画素のマトリックスおよび画素の明るさの修正は、最初の2つの校正ステップまたはサブプロセスの間に情報を収集することによって実現される。マッピングおよびブレンディングは、グラフィック処理ユニット(GPU)のグラフィカルパイプライン内のマッピングメッシュにテクスチャマップを適用することによって実現され、これは、たとえばリアルタイムでブレンディングパラメータを補正するためまたは最終画像のジオメトリを修正するために追加の再計算を必要とする画素対応表の使用などによる他の既知の方法よりも高速である。これらの再計算ステップに要する追加の時間は、使用されているプロジェクタの数および必要な画像解像度に基づいて増加する。また、たとえばプロジェクタ間でホワイトバランスを維持することに着目する色域ブレンディングなどの他の既知の方法よりも良好な色均一性を得るために、幾何学的色ブレンディングの前にホワイトバランスが行われる。
本発明によって提案されるマッピングおよびブレンディング方法は、「幾何学的ワープ」に基づき、2つのパスしか必要としない。第1のパスにおいて、補正対象の画像はメッシュにレンダリングまたはワープされる。メッシュの各頂点の座標は、校正中に投射された構造化光点の座標に対応する。メッシュの各頂点は、2つの関連UV座標を有する。これらは、補正対象の画像のレポジトリにおける座標である。メッシュの各頂点は、補正対象の画像内の点に関連する。これらのUV座標は、校正カメラのセンサにおける構造化光点の検出位置に対応する。画像ワーピングは、リアルタイムで行われ、非常に高い解像度のために最適化される。したがって、UV座標を単純に修正することによって最終画像のジオメトリをリアルタイムで修正するために本発明を使用することが全体として可能であり、これは、そのような過去の方法に必要であるようなルックアップテーブルの追加の再計算を必要としない。アンチエイリアシングフィルタリングとともに第2のパスにおいてブレンディングが起こる過去の方法とは異なり、本発明は、画素の幾何学的補正と同時にフラグメントシェーダにおいてブレンディングを実行することにより、少ない計算時間しか要さない。
本発明によると、画像を表示するためのプロジェクタのシステムを自動的に校正するための方法が提供され、この方法は、プロジェクタから投射面に画素を選択的に投射するステップと、投射面にわたり投射された画素を感知するステップと、選択的に投射された画素および感知された画素に基づいてプロジェクタ/スクリーンマッピングを導出するステップと、プロジェクタ/スクリーンマッピングに基づいて画素補正関数を導出するステップと、グラフィックプロセッサユニット(GPU)のグラフィカルパイプライン内のマッピングメッシュにテクスチャマップを適用することによって画素補正関数を格納するステップと、少なくともミスアライメントを補正する補正画素データを生成するために、入力画像画素データに画素補正関数を適用するステップと、補正画素データを用いてプロジェクタを駆動するステップとを備える。
実施形態において、画素補正関数は、共通領域における複数の投射のミスアライメントを補正する。
実施形態において、画素補正関数は、投射画像にわたる強度のばらつきを補正する。
実施形態において、画素補正関数は、投射画像にわたる欠陥を補正する。
実施形態において、画素補正関数は、色収差を補正する。
実施形態において、画素補正関数は、回転歪みを補正する。
実施形態において、画素補正関数は、入力画像の滑らかなワーピングを実行する。
実施形態において、テクスチャマップは、画素補正関数がグラフィカルパイプラインとプロジェクタとの間で画素データに適用されるように、グラフィックプロセッサユニット(GPU)のグラフィカルパイプライン内のマッピングメッシュに適用される。
実施形態において、テクスチャマップは、プロジェクタが、グラフィカルパイプライン内の補正画素データから駆動されるように、グラフィックプロセッサユニット(GPU)のグラフィカルパイプライン内のマッピングメッシュに適用される。
実施形態において、複数のプロジェクタが提供され、プロジェクタの各々は、プロジェクタのグラフィカルパイプラインの各々にテクスチャマップの一部を備える。
実施形態において、画素補正関数は、重複する画素アレイのミスアライメントを補正する。
実施形態において、画素補正関数は、重複する投射領域をブレンドする。
実施形態において、各複数色に個別のテクスチャマップが提供される。
実施形態において、プロジェクタ出力は、投射面からずれた位置にある光学センサによって感知される。
実施形態において、光学センサは、少なくとも1つのカメラを備える。
実施形態において、プロジェクタ/スクリーンマッピングを導出するステップは、センサ/スクリーンマッピングを導出するステップと、プロジェクタ/センサマッピングを導出するステップと、センサ/スクリーンマッピングとプロジェクタ/センサマッピングとを構成することによってプロジェクタ/スクリーンマッピングを導出するステップとを備える。
実施形態において、センサ/スクリーンマッピングを導出するステップは、投射面に校正パターンを投射するステップと、光学センサで投射された校正パターンを見ることによってセンサ空間内の画素と投射面位置とのマッピングを作成するステップとを備える。
実施形態において、プロジェクタ/センサマッピングを導出するステップは、プロジェクタ出力を感知する間にプロジェクタ画素を選択的に駆動するステップを備える。
実施形態において、プロジェクタ出力は、平坦面に投射される。
実施形態において、プロジェクタ出力は、曲面に投射される。
実施形態において、プロジェクタ出力は、不規則面に投射される。
実施形態において、方法は更に、観察者の位置を測定するステップと、観察者の位置に応答して画像画素データにリアルタイム視差補正を実行するステップとを備える。
実施形態において、方法は更に、観察者の目の各々に異なる画像を提供するステップを備える。
実施形態において、方法は更に、観察者の目の各々にフレームトリガシャッタを提供するステップを備える。
実施形態において、方法は更に、投射偏光制御を提供するステップを備える。
実施形態において、方法は更に、赤/青色付きグラスを提供するステップを備える。
実施形態において、方法は更に、複数色を投射するステップと、観察者の目の各々に個別の狭帯域色フィルタを用いるステップとを備える。
また、画像を表示するためのプロジェクタのセットを自動的に校正するためのシステムも提供され、システムは、投射面にプロジェクタ出力を投射するためのプロジェクタと、投射面にわたり投射されたプロジェクタ出力を感知するための、投射面に対して動かすことが可能な少なくとも1つのセンサと、表示するための最終画像の投射面における位置を感知するための少なくとも2つのアクティブLEDマーカと、プロジェクタ画素を選択的に駆動し、少なくとも1つのセンサからの感知されたプロジェクタ出力を読み取ることによって、プロジェクタ/スクリーンマッピングを決定し、少なくともミスアライメントを補正するために入力画像画素データに画素補正関数を適用するために構成された少なくとも1つのプロセッサであって、少なくとも1つのプロセッサは、補正画素データを用いてプロジェクタを駆動し、画素補正関数は、プロジェクタ/スクリーンマッピングに基づいてプロジェクタ座標空間とスクリーン座標空間との間でマッピングする。
実施形態において、少なくとも2つのアクティブLEDマーカは、少なくとも2つのLEDマーカを順にオンにすることと、センサ/マーカ位置を導出することと、マーカ/画像マッピングを導出することと、センサ/マーカ位置とマーカ/画像マッピングとを構成することとによって、表示するための最終画像の投射面における正しい位置を感知する。
また、画像を表示するためのプロジェクタのシステムを自動的に校正するための方法も提供され、方法は、プロジェクタから投射面に画素を選択的に投射するステップと、投射面にわたって投射された画素を感知するステップと、誤検出されたまたは誤ラベル付きの構造化光符号化点を除去するステップと、選択的に投射された画素および感知された画素に基づいて、プロジェクタ/スクリーンマッピングを導出するステップと、プロジェクタ/スクリーンマッピングに基づいて、画素補正関数を導出するステップと、画素補正関数を格納するステップと、少なくともミスアライメントを補正する補正画素データを生成するために、入力画像画素データに画素補正関数を適用するステップと、補正画素データを用いてプロジェクタを駆動するステップとを備える。
実施形態において、誤検出されたまたは誤ラベル付きの構造化光符号化点は、機械学習プロセスによって除去される。
実施形態において、誤検出されたまたは誤ラベル付きの構造化光符号化点を除去するステップは、プロジェクタから投射面に校正パターン画素を選択的に投射するステップと、投射面にわたり投射された上記パターン画素を感知するステップと、機械学習プロセスによって、誤ったまたは誤ラベル付きの構造化光符号化点を検出するステップと、検出された校正パターンにおける誤ったまたは誤ラベル付きの校正パターン点を補正または削除するステップとを備える。
本発明の例示的な実施形態に係る、カメラ/プロジェクタ見当合わせアルゴリズムのブロック図である。 本発明の例示的な実施形態に係る、構造化光プロセスのブロック図である。 本発明の例示的な実施形態に係る、LEDマーカ見当合わせプロセスのブロック図である。 本発明の例示的な実施形態に係る、プロジェクタ補正プロセスのブロック図である。 本発明の例示的な実施形態に係る、投射補正プロセスのためのGPUシェーダのブロック図である。 本発明の例示的な実施形態に係る、校正モードでプロジェクタ校正プロセスにおいて用いられるハードウェアのブロック図である。 本発明の例示的な実施形態に係る、レンダリングモードでプロジェクタ校正プロセスにおいて用いられるハードウェアのブロック図である。
図1Aを参照すると、プロジェクタ見当合わせプロセスのブロック図が示される。図は、プロジェクタを見当合わせするプロセスを開始する「開始」ブロック100で始まる。「構造化光プロセス」ブロック101において、プロセスは、投射および構造化光検出を開始する。使用されるアルゴリズムに関わらず、目的は、カメラの基準フレーム画素(ブロック102を参照)においてプロジェクタの画素にわたる既知の基準点(ブロック103を参照)を見つけ出すことである。「点格子(カメラ座標)」ブロック102において、プロセスは、カメラの座標系によって検出された点の座標を含む表を用いる。各ペア(カメラ、プロジェクタ)に1つの表が存在する。N個のプロジェクタおよびM個のカメラが存在する場合、N×M個の表が存在する。「点格子(プロジェクタ座標)」ブロック103において、プロセスは、プロジェクタの座標系における既知の点の座標を含む表を用いる。各プロジェクタに1つの表が存在する。「点格子整合性チェック」ブロック104において、プロセスは、機械学習アルゴリズムを用いて、誤検出されたまたは誤ラベル付きの点を除去する。基準カメラ105は、ステッチングのための基準として用いられる。「ステッチングモデルを算出する」ブロック106において、プロセスは、検出された点の座標(ブロック102を参照)を用いてカメラのステッチングモデルを計算する。ブロック106の出力は、基準カメラ105に関してカメラのステッチングのためのモデル(ホモグラフィマトリックス)を格納するために「カメラステッチングモデル」ブロック107へ送信される。基準カメラ105を除き、各カメラに関するホモグラフィマトリックスが用いられる。「プロジェクタごとに」ブロック108において、各プロジェクタついてループが開始される。「点格子(カメラ座標)をマージする」ブロック109において、プロセスは、基準カメラ105の平面において特定のプロジェクタのカメラによって検出された点(ブロック102を参照)と、カメラステッチングモデル107とをマージする。「マージされた点格子(カメラ座標)」ブロック110において、ブロック109からの結果が受信される。ブロック110は、基準カメラ105によって検出された点の座標を含む表を含む。(ブロック112における、ループの終点において)各プロジェクタに1つの表が存在する。「マッピング」ブロック111において、プロジェクタのマッピング動作が実行される。各プロジェクタについて点の2D格子が構成される(ブロック112を参照)。格子点は、プロジェクタの座標系における既知の点である(ブロック103を参照)。検出されなかった点が除去される。その後、メッシュの面を形成するために、この点のセットにドローネ三角形分割が実行される。各メッシュ点に関連するテクスチャUV座標は、基準カメラの座標系(ブロック110を参照)におけるこの点の座標である。「マッピングメッシュ」ブロック112において、取得されたブロック110のプロセス結果は、プロジェクタをマッピングするために必要な情報を含む点の2Dメッシュである。ループの終点において、プロジェクタと同じ数の2Dメッシュが存在する。「更なるプロジェクタ」ブロック113において、プロセスは、プロジェクタが更に存在するかを確認し、存在する場合、ブロック108へ戻る。そうでない場合、プロセスは、「ブレンディング」ブロック114へ続き、プロジェクタのブレンディング動作を進める。ブロック103および110から取得された情報を用いて、プロジェクタ間の重複がモデル化される。このように各プロジェクタに関する幾何学的ブレンディング画像を作成することができ、画像の各画素は、プロジェクタの対応する画素の光強度を決定する。カメラを用いてプロジェクタの3色型色覚を測定することによって、プロジェクタのホワイトバランスおよび色域(「測定されたプロジェクタ色域」ブロック119)が計算され得る。ホワイトバランスに対する補正は、「プロジェクタホワイトバランス補正」ブロック117において計算され、幾何学的ブレンディング画像は、「ブレンディングマップテクスチャ」ブロック115において算出される。「測定されたプロジェクタ強度伝達関数」ブロック118においてプロジェクタの強度伝達関数を構成するために、各プロジェクタの白色点の明るさは、様々なレベルの強度において測定される。各プロジェクタの各画素の最大強度の測定は、明るさ減衰画像を計算するために用いられ、この画像の各画素は、「輝度減衰マップテクスチャ」ブロック116におけるプロジェクタの画素の明るさの減衰レベルに対応する。画素の減衰は、プロジェクタのセットにおける最下画素の最大強度レベルに従って計算される。ブロック120における「ターゲット色域」は、プロジェクタセットの共通の実現可能な色域を定義する。これは、ブロック119における「測定されたプロジェクタ色域」全体を用いて算出される。「ブレンディングマップテクスチャ」ブロック115において、プロセスは、各プロジェクタに、そのプロジェクタの解像度の画像を用いる。画像の各画素は、プロジェクタに対応する画素の明るさを決定する。「輝度減衰マップテクスチャ」ブロック116において、プロセスは、各プロジェクタに、そのプロジェクタの解像度の画像を用いる。画像の各画素は、プロジェクタに対応する画素の明るさの減衰を決定する。「プロジェクタホワイトバランス補正」ブロック117において、プロセスは、各プロジェクタに、1つが赤色レベルに関し、1つが緑色レベルに関し、1つが青色レベルに関する3つの係数を用いる。「測定されたプロジェクタ強度伝達関数」ブロック118は、輝度入力値に関してプロジェクタ輝度応答を格納するために表を用いる。「測定されたプロジェクタ色域」ブロック119は、プロジェクタ色域および強度を特徴付けるために、CIE−XYZ色空間における、1つが赤色に関し、1つが緑色に関し、1つが青色に関し、1つが黒色に関し、1つが白色に関する5つの比色測定値を用いる。「ターゲット色域」ブロック120は、共通の実現可能なターゲット色空間の色域を特徴付けるために、利得に関連するCIE−xy値のセットを用いる。プロジェクタごとに異なり得る利得値を除き、CIE−xy値は、全てのプロジェクタに関して同じである。
図1Bを参照すると、本発明の例示的な実施形態に係る、(図1Aにも示される)構造化光プロセス101が示される。構造化光を生成および検出するためのプロセスは、「全てのプロジェクタを用いて黒枠を表示する」第1のステップ101bを伴う「開始」ステップ101aで始まる。プロセスは、ステップ101cにおける「プロジェクタごとの」反復を伴うステップ101cにおいて継続する。プロセスは、プロジェクタの画素のマーキングにおいて点格子を生成することによって「点格子を生成する」ステップ101dにおいて継続する。プロセスは、「点格子プロジェクタ座標」ブロック103(図1Aを参照)において継続する。プロセスは、点格子を符号化するために構造化光パターンを生成することによって「構造化光パターンを生成する」ステップ101eにおいて継続する。プロセスは、各構造化光パターンについて以下のステップを反復することによって「構造化光パターンごとに」ステップ101fにおいて継続する。プロセスは、プロジェクタにパターンを投射することによって「パターンを投射する」ステップ101gにおけるステップにおいて継続する。プロセスは、各カメラについて以下のステップを反復することによって「カメラごとに」ステップ101hにおいて継続する。プロセスは、カメラによってピクチャを捕捉することによって「ピクチャを捕捉する」ステップ101iにおいて継続する。プロセスは、カメラによって構造化光パターンを検出することによって「構造化光パターンを検出する」ステップ101jにおいて継続する。プロセスは、更なるカメラがあるか否かを確認することによって「更なるカメラ?」ブロック101kにおいて継続する。ある場合、プロセスはステップ101hへ折り返す。ない場合、プロセスは、更なるパターンがあるか否かを確認することによって「更なるパターン?」ブロック101lへ続く。ある場合、プロセスはステップ101fへ折り返す。ない場合、プロセスは、「点格子カメラ座標」ブロック102(図1Aを参照)へ続く。プロセスは、プロジェクタに黒枠を表示することによって「黒枠を表示する」ステップ101mにおいて継続する。プロセスは、更なるプロジェクタがあるか否かを確認することによる「更なるプロジェクタ?」ブロック101nにおいて継続する。ある場合、プロセスはステップ101cへ折り返す。ない場合、構造化光を生成および検出するためのプロセスは、「終了」ステップ101oで終わる。
図2Aを参照すると、本発明の例示的な実施形態に係る、基準カメラ105(図1Aを参照)の座標系におけるLEDマーカ見当合わせプロセスのブロック図が示される。プロセスは、「全てのLEDマーカをオンにする」ステップ201において、「開始」ステップ200で始まる。プロセスは、各カメラを用いて画像を捕捉すること、および基準カメラ105(図1Aを参照)の視点からの単一画像を取得するためにステッチングモデル107(図1Aを参照)を適用することによって、「捕捉およびステッチする」ステップ202において継続する。プロセスは、ステップ202で捕捉された画像における各LEDマーカの位置を検出することによって「LEDマーカ位置を検出する」ステップ203において継続する。LEDマーカの位置は、「LEDマーカROI」ブロック204において関心領域(ROI)として表される。プロセスのこの段階において、偽陽性および偽陰性が存在し得る。「LEDマーカROI」ブロック204は、ステップ202における画像捕捉における各LEDマーカの位置である、ステップ203の結果を受信する。プロセスは、光信号によって最終的に伝送されるLEDマーカIDを符号化することによって「LEDマーカIDを符号化する」ステップ205において継続する。プロセスは、ステップ205で識別されたLEDマーカIDを符号化する各ビットについて反復することによって「LEDマーカIDを符号化するビットごとに」ステップ206において継続する。プロセスは、各LEDマーカについて反復することによって「LEDマーカごとに」ステップ207において継続する。プロセスは、現在のIDビットが1であるかを確認することによって「現在のIDビットは1か?」ブロック208において継続する。1である場合、プロセスは、LEDマーカをオンにすることによって「LEDをオンにする」ステップ209において継続する。1でない場合、プロセスは、LEDマーカをオフにすることによって「LEDをオフにする」ステップ210において継続する。プロセスは、更なるLEDマーカが存在するか否かを確認することによって「更なるLED?」ブロック211において継続する。ある場合、プロセスはステップ207へ折り返す。ない場合、プロセスは「捕捉およびステッチする」ステップ202へ続く。プロセスは、ROI内の各LEDマーカについて反復することによって「LED ROIごとに」ステップ212において継続する。プロセスは、ROI内の白画素対黒画素の比が閾値より上か下かを確認することによって「閾値」ブロック213において継続する。閾値より上である場合、プロセスは、ステップ212においてLEDマーカIDレジスタへビット1を押し進めることによって「1を押す」ステップ214において継続する。閾値より下である場合、プロセスは、ステップ212においてLEDマーカIDレジスタへビット0を押し進めることによって「0を押す」ステップ215において継続する。プロセスは、LEDマーカIDの伝送中に検出されたビットをレジスタに格納することによって「検出されたLED IDレジスタ」ブロック216において継続する。ブロック204に対応する関心領域(ROI)ごとにレジスタが存在する。プロセスは、ROI内に更なるLEDマーカが存在するかを確認することによって「更なるLED ROI?」ブロック217において継続する。ある場合、プロセスはステップ212へ折り返す。ない場合、プロセスは、更なるビットが存在するか否かを確認することによって「更なるビット?」ブロック218へと続く。ある場合、プロセスはステップ206へ折り返す。ない場合、プロセスは、LEDマーカIDを復号することによって「LEDマーカIDを復号する」ステップ219へ続く。有り得ないまたは怪しいIDを有するROIが削除される。プロセスは、(対応する関心領域の中心にある)LEDマーカの位置を含むステップ219の結果を受信する、「復号された位置付きLEDマーカID」ブロック220において継続する。LEDマーカを見当合わせするためのプロセスは、「終了」ステップ221で終わる。
次に図2Bを参照すると、本発明の実施形態に係る、「捕捉およびステッチプロセス」202が示される。プロセスは、各カメラについて以下のステップを反復することによって「カメラごとに」ステップ202aで始まる。プロセスは、現在の反復を有するカメラを用いて画像を捕捉することによって「フレームを捕捉する」ステップ202bにおいて継続する。プロセスは、更なるカメラが存在するか否かを確認することによって「更なるカメラ?」ブロック202cにおいて継続する。ある場合、プロセスは、ステップ202aへ折り返す。ない場合、プロセスは、基準カメラ105(図1Aを参照)の視点からの単一画像を取得するために、ステップ202bからの捕捉画像にステッチングモデル107(図1Aを参照)を適用することによって「フレームをステッチする」ステップ202dにおいて継続する。プロセスは、ステップ202dの結果を受信する、「ステッチされたフレーム」ブロック202eにおいて継続する。
次に図2Cを参照すると、本発明の実施形態に係る、「LEDマーカIDを符号化する」プロセス205が示される。プロセスは、各LEDマーカについて以下のステップを反復することによって「LEDマーカごとに」ステップ205aで始まる。プロセスは、LEDマーカIDを識別することによって「LEDマーカID」ステップ205bにおいて継続する。プロセスは、「1」ブロック205dによってLEDマーカIDを1ずつインクリメントすることによってステップ205cにおいて継続する。プロセスは並行して、校正のために用いられるLEDマーカの数を有する「LEDマーカの数」ブロック205eにおいて継続する。プロセスは、「2」ブロック205gによってLEDマーカの数を2ずつインクリメントすることによってステップ205fにおいて継続する。プロセスは、ステップ205fの結果を符号化するために必要なビット数を計算することによって「2」ステップ205hにおいて継続する。プロセスは、ステップ205hの結果を受信することによって「LEDマーカIDを符号化するためのビット数」ステップ205iにおいて継続する。プロセスは、ステップ205iによって決定されたビット数でステップ205cからの結果を符号化することによって「符号化する」ステップ205jにおいて継続する。プロセスは、ステップ205jの結果を受信し、符号化されたLEDマーカIDを格納する、「符号化されたLEDマーカID」ブロック205kにおいて継続する。プロセスは、更なるLEDマーカが存在するかを確認することによって「更なるLED?」ブロック205lにおいて継続する。ある場合、プロセスはステップ205aへ折り返す。ない場合、プロセスはステップ206(図2Aを参照)へ続く。
次に図2Dを参照すると、本発明の実施形態に係る、「LEDマーカIDを復号する」プロセス219が示される。プロセスは、各LEDマーカについて以下のステップを反復することによって「LEDマーカごとに」ステップ219aで始まる。プロセスは、「検出されたLED IDレジスタ」ブロック216(図2Aを参照)において継続する。プロセスは、「1」ブロック219cによってステップ205bから取得されたLEDマーカの数を1ずつデクリメントすることによってステップ219bにおいて継続する。プロセスは、ステップ219bの結果を受信し、復号されたLEDマーカIDを格納する、「復号されたLEDマーカID」ステップ219dにおいて継続する。プロセスは、更なるLEDマーカが存在するかを確認することによって「更なるLED?」ブロック219eにおいて継続する。ある場合、プロセスはステップ219aへ折り返す。ない場合、プロセスはステップ220(図2Aを参照)へ続く。
図3を参照すると、本発明の例示的な実施形態に係る、プロジェクタ補正プロセスが示される。プロセスは、プロセッサの画像の補正に必要なパラメータを入力として取得することによって「開始」ステップ300で始まる。パラメータ301は、入力フレームに適用された強度伝達関数の逆関数である「ソース強度伝達関数」ブロック301aにおいてソース関数から取得され得る。パラメータ301は、補正フレームに適用される強度伝達関数である「ターゲット強度伝達関数」ブロック301bから取得され得る。パラメータ301は、プロジェクタ115(図1Aを参照)のブレンディング画像に適用されたパラメータである、「ブレンディングマップパラメータ」ブロック301cから取得され得る。パラメータ301は、「測定されたプロジェクタ強度伝達関数」ブロック118、「測定されたプロジェクタ色域」ブロック119、「ターゲット色域」ブロック120、「プロジェクタホワイトバランス補正」ブロック117、「マッピングメッシュ」ブロック112、「ブレンディングマップテクスチャ」ブロック115、「輝度減衰」ブロック116、および「復号された位置付きLEDマーカID」ブロック220から取得され得る。プロセスは、パラメータ301を入力として受信し補正パラメータをグラフィックカードに格納する「GPUメモリアップロード」ブロック302において継続する。プロセスは、各フレームについて以下のステップを反復することによって「フレームごとに」ステップ303において継続する。プロセスは、補正するための入力フレームである「入力フレーム」ブロック304において継続する。プロセスは、ブロック304からの補正するためのフレームを格納する「GPUメモリアップロード」ブロック305において継続する。このステップは、補正するためのフレームが既にグラフィックカードに格納されてあり得る場合、任意選択である。プロセスは、各プロジェクタについて以下のステップを反復することによって「プロジェクタごとに」ステップ306において継続する。プロセスは、プロジェクタのフレームを補正するためにグラフィックカードにインストールされたプログラムである「GPUシェーダ」ブロック307において継続する。プロセスは、プロジェクタのための補正フレームを受信する「補正プロジェクタ画像」ブロック308において継続する。プロセスは、更なるプロジェクタが存在するかを確認することによって「更なるプロジェクタ?」ブロック309において継続する。ある場合、プロセスはステップ306へ折り返す。ない場合、プロセスは、補正プロジェクタ画像をプロジェクタに投射することによって「補正プロジェクタ画像を投射する」ステップ310へ続く。プロセスは、更なるフレームが存在するか否かを確認することによって「更なるフレーム?」ブロック311において継続する。ある場合、プロセスはステップ306へ折り返す。ない場合、プロセスは「終了」ステップ312で終わる。
次に図4を参照すると、本発明の例示的な実施形態に係る、プロジェクタの画像を補正するためにグラフィックカードに実装される投射補正プロセスのためのGPUシェーダが示される。プロセスは、「各メッシュ頂点の入力フレームテクスチャUV座標を算出する」ための第1のステップ401を伴う「開始」ステップ400で始まる。ステップ401は、「復号された位置付きLEDマーカID」ブロック220(図2Aを参照)からのLEDマーカ座標の関数として、「マッピングメッシュ」ブロック112(図1Aを参照)からのマッピングされたメッシュ頂点に関連するUV座標を更新する。プロセスは、プロジェクタの各画素について以下のステップを反復することによって「プロジェクタ画素ごとに」ステップ402を継続する。プロセスは、「入力フレーム」ブロック304から取得された現在のプロジェクタ画素UV座標における入力画素値を算出することによって、「現在のプロジェクタ画素UV座標における入力画素を算出する」ステップ403において継続する。プロセスは、入力フレーム画素(RGB−赤色緑色青色)を線形化することによって「線形化する」ステップ404において継続する。このステップ404は、「ソース強度伝達関数」ブロック301aを入力として受信し、強度伝達関数を逆強度伝達関数で相殺する。プロセスは、「プロジェクタホワイトバランス補正」ブロック117(図1Aを参照)からの三原色RGBの補正係数でホワイトバランス補正を適用することによって「ホワイトバランス補正」ステップ405において継続する。色補正機能が組み込まれたプロジェクタの場合、シェーダにおいてホワイトバランス補正は適用されない。プロセスは、ターゲット色域を用いて、RGB(赤色緑色青色)色空間の画素の値をCIE−xyY 1930色空間に変換することによって「RGBからxyY CIE 1930へ」のステップ406において継続する。色補正機能が組み込まれたプロジェクタの場合、ターゲット色域はプロジェクタ設定において直接設定され、シェーダは、色空間変換のためにデフォルト色域(たとえばsRGB、Rec.709、Rec.2020、SMPTE−Cなど)を用いる。プロセスは、ブロック301c(図3を参照)のブレンディングパラメータの関数として「プロジェクタ画素xy座標におけるブレンディングマップテクスチャ値」ブロック115の画素のブレンディングの値を適応させる、「ブレンディング値にブレンディングパラメータを適用する」ステップ407において継続する。プロセスは、ブロック116(図1Aを参照)からの画素の減衰の値およびステップ406からのフレーム内の画素の輝度の値で、ステップ407からのブレンディング画素の値を乗算することを伴う、「Yチャネルに輝度強度補正を適用する」ステップ408において継続する。プロセスは、測定されたプロジェクタ色域を用いて、CIE−xyY 1930色空間における画素の値をRGB(赤色青色緑色)色空間に変換することによって、「xyY CIE 1930からRGBへ」のステップ409において継続する。色補正機能が組み込まれたプロジェクタの場合、測定されたプロジェクタ色域はプロジェクタ設定において直接設定され、シェーダは、色空間変換のためにデフォルト色域(たとえばsRGB、Rec.709、Rec.2020、SMPTE−Cなど)を用いる。プロセスは、ステップ409からの結果を非線形化することによって「非線形化する」ステップ410において継続する。このステップ410は、ブロック301b(図3を参照)のターゲット強度伝達関数を画素のRGB(赤色緑色青色)成分に適用することによって実現される。またこのステップ410は、測定されたプロジェクタ強度伝達関数118(図1Aを参照)も入力として用いる。プロセスは、ステップ410の結果を受信および格納することによって「補正画素」ステップ411において継続する。補正画素の値RGBは、プロジェクタによって投射されるものである。プロセスは、更なる画素が存在するか否かを確認することによって「更なる画素?」ブロック412において継続する。ある場合、プロセスはステップ402へ折り返す。ない場合、プロセスは「補正プロジェクタ画像」ブロック308(図3を参照)へ続き、「終了」ステップ413で終わる。
図5Aを参照すると、本発明の例示的な実施形態に係る、校正モードで「プロジェクタ校正プロセス」ブロック500において用いられるハードウェアが示される。ハードウェアは、ブロック501における「プロジェクタ#1」、ブロック502における「プロジェクタ#2」、およびブロック503における「プロジェクタ#n」を含み、これらは全てブロック500における「投射校正プロセス」にリンクされる。またハードウェアは、ブロック504における「カメラ#1」、ブロック505における「カメラ#2」、およびブロック506における「カメラ#n」も含み、これらは全てブロック500における「投射校正プロセス」にリンクされる。またハードウェアは、ブロック507における「LEDマーカ#1」、ブロック508における「LEDマーカ#2」、およびブロック509における「LEDマーカ#n」も含み、これらは全てブロック500における「投射校正プロセス」にリンクされる。
図5Bを参照すると、本発明の例示的な実施形態に係る、レンダリングモードで「プロジェクタ校正プロセス」ブロック500において用いられるハードウェアが示される。ハードウェアは、ブロック501における「プロジェクタ#1」、ブロック502における「プロジェクタ#2」、およびブロック503における「プロジェクタ#n」を含み、これらは全てブロック500における「投射校正プロセス」にリンクされる。
静止2次元画像の表示は、上述した技術によって改善され得るが、これらと同じ技術が、リアルタイム3次元画像の表示にも同様に適用され得る。1つのアプローチは、観察者の位置を測定し、表示画像にリアルタイム視差補正を実行することである。この技術はたとえば、隣接した部屋または部屋の一部への窓として壁面ディスプレイを出現させる方法として用いられ得る。フル壁面ディスプレイは、単一の連続したより大きな空間の一部であるような幻影をもたらし得る。屋外で観察される半球状ディスプレイは、どの角度からも見ることができる3次元物体であるように見え得る。
両眼キューは、それぞれの目に異なる画像を供給することによって提供され得る。この問題への標準的なアプローチは、それぞれの目用のフレームトリガシャッタ、投射偏光制御、赤/青色付きグラスを含む。他のアプローチは、それぞれの目に個別の狭帯域色フィルタを用いて6色を投射することであってよい。
特許請求の範囲は、例に記載された好適な実施形態によって限定されてはならず、全体として説明と一致する最も広範囲の解釈を与えられなければならない。

Claims (32)

  1. 画像を表示するためのプロジェクタのシステムを自動的に校正するための方法であって、
    プロジェクタから投射面に画素を選択的に投射するステップと、
    前記投射面にわたり投射された前記画素を感知するステップと、
    前記選択的に投射された画素および前記感知された画素に基づいてプロジェクタ/スクリーンマッピングを導出するステップと、
    前記プロジェクタ/スクリーンマッピングに基づいて画素補正関数を導出するステップと、
    グラフィックプロセッサユニット(GPU)のグラフィカルパイプライン内のマッピングメッシュにテクスチャマップを適用することによって前記画素補正関数を格納するステップと、
    少なくともミスアライメントを補正する補正画素データを生成するために、入力画像画素データに前記画素補正関数を適用するステップと、
    前記補正画素データを用いて前記プロジェクタを駆動するステップと
    を備える方法。
  2. 前記画素補正関数は、共通領域における複数の投射のミスアライメントを補正する、請求項1に記載の方法。
  3. 前記画素補正関数は、投射画像にわたる強度のばらつきを補正する、請求項1に記載の方法。
  4. 前記画素補正関数は、投射画像にわたる欠陥を補正する、請求項1に記載の方法。
  5. 前記画素補正関数は、色収差を補正する、請求項1に記載の方法。
  6. 前記画素補正関数は、回転歪みを補正する、請求項1に記載の方法。
  7. 前記画素補正関数は、前記入力画像の滑らかなワーピングを実行する、請求項1に記載の方法。
  8. 前記テクスチャマップは、前記画素補正関数の一部が、前記グラフィカルパイプラインと前記プロジェクタとの間で、または前記プロジェクタ内で直接、前記画素データに適用されるように、前記グラフィックプロセッサユニット(GPU)の前記グラフィカルパイプライン内の前記マッピングメッシュに適用される、請求項1に記載の方法。
  9. 前記テクスチャマップは、前記プロジェクタが、前記グラフィカルパイプライン内の前記補正画素データから駆動されるように、前記グラフィックプロセッサユニット(GPU)の前記グラフィカルパイプライン内の前記マッピングメッシュに適用される、請求項1に記載の方法。
  10. 複数のプロジェクタが提供され、前記プロジェクタの各々は、前記プロジェクタの前記グラフィカルパイプラインの各々に前記テクスチャマップの一部を備える、請求項1に記載の方法。
  11. 前記画素補正関数は、重複する画素アレイのミスアライメントを補正する、請求項10に記載の方法。
  12. 前記画素補正関数は、重複する投射領域をブレンドする、請求項10に記載の方法。
  13. 各複数色に個別のテクスチャマップが提供される、請求項1に記載の方法。
  14. 前記プロジェクタ出力は、前記投射面からずれた位置にある光学センサによって感知される、請求項1に記載の方法。
  15. 前記光学センサは、少なくとも1つのカメラを備える、請求項14に記載の方法。
  16. 前記プロジェクタ/スクリーンマッピングを導出するステップは、
    センサ/スクリーンマッピングを導出するステップと、
    プロジェクタ/センサマッピングを導出するステップと、
    前記センサ/スクリーンマッピングと前記プロジェクタ/センサマッピングとを構成することによって前記プロジェクタ/スクリーンマッピングを導出するステップと
    を備える、請求項15に記載の方法。
  17. 前記センサ/スクリーンマッピングを導出するステップは、
    前記投射面に校正パターンを投射するステップと、
    前記光学センサで前記投射された校正パターンを見ることによってセンサ空間内の画素と投射面位置とのマッピングを作成するステップと
    を備える、請求項16に記載の方法。
  18. 前記プロジェクタ/センサマッピングを導出するステップは、前記プロジェクタ出力を感知する間にプロジェクタ画素を選択的に駆動するステップを備える、請求項17に記載の方法。
  19. 前記プロジェクタ出力は、平坦面に投射される、請求項1に記載の方法。
  20. 前記プロジェクタ出力は、曲面に投射される、請求項1に記載の方法。
  21. 前記プロジェクタ出力は、不規則面に投射される、請求項1に記載の方法。
  22. 観察者の位置を測定するステップと、
    前記観察者の位置に応答して画像画素データにリアルタイム視差補正を実行するステップと
    を更に備える、請求項1に記載の方法。
  23. 前記観察者の目の各々に異なる画像を提供するステップを更に備える、請求項22に記載の方法。
  24. 前記観察者の目の各々にフレームトリガシャッタを提供するステップを更に備える、請求項23に記載の方法。
  25. 投射偏光制御を提供するステップを更に備える、請求項23に記載の方法。
  26. 赤/青色付きグラスを提供するステップを更に備える、請求項23に記載の方法。
  27. 複数色を投射するステップと、
    前記観察者の目の各々に個別の狭帯域色フィルタを用いるステップと
    を更に備える、請求項23に記載の方法。
  28. 画像を表示するためのプロジェクタのセットを自動的に校正するためのシステムであって、
    投射面にプロジェクタ出力を投射するためのプロジェクタと、
    前記投射面にわたり投射された前記プロジェクタ出力を感知するための、前記投射面に対して動かすことが可能な少なくとも1つのセンサと、
    表示するための最終画像の前記投射面における位置を感知するための少なくとも2つのアクティブLEDマーカと、
    プロジェクタ画素を選択的に駆動し、前記少なくとも1つのセンサからの前記感知されたプロジェクタ出力を読み取ることによって、プロジェクタ/スクリーンマッピングを決定し、
    少なくともミスアライメントを補正するために入力画像画素データに画素補正関数を適用するために構成された少なくとも1つのプロセッサであって、前記少なくとも1つのプロセッサは、前記補正画素データを用いて前記プロジェクタを駆動し、前記画素補正関数は、前記プロジェクタ/スクリーンマッピングに基づいてプロジェクタ座標空間とスクリーン座標空間との間でマッピングする、少なくとも1つのプロセッサと
    を備えるシステム。
  29. 前記少なくとも2つのアクティブLEDマーカは、
    前記少なくとも2つのLEDマーカを順にオンにすることと、
    センサ/マーカ位置を導出することと、
    マーカ/画像マッピングを導出することと、
    前記センサ/マーカ位置と前記マーカ/画像マッピングとを構成することと
    によって、表示するための前記最終画像の前記投射面における正しい位置を感知する、請求項28に記載のシステム。
  30. 画像を表示するためのプロジェクタのシステムを自動的に校正するための方法であって、
    プロジェクタから投射面に画素を選択的に投射するステップと、
    前記投射面にわたって投射された前記画素を感知するステップと、
    誤検出されたまたは誤ラベル付きの構造化光符号化点を除去するステップと、
    前記選択的に投射された画素および前記感知された画素に基づいて、プロジェクタ/スクリーンマッピングを導出するステップと、
    前記プロジェクタ/スクリーンマッピングに基づいて、画素補正関数を導出するステップと、
    前記画素補正関数を格納するステップと、
    少なくともミスアライメントを補正する補正画素データを生成するために、入力画像画素データに前記画素補正関数を適用するステップと、
    前記補正画素データを用いて前記プロジェクタを駆動するステップと
    を備える方法。
  31. 前記誤検出されたまたは誤ラベル付きの構造化光符号化点は、機械学習プロセスによって除去される、請求項30に記載の方法。
  32. 前記誤検出されたまたは誤ラベル付きの構造化光符号化点を除去するステップは、
    前記プロジェクタから前記投射面に校正パターン画素を選択的に投射するステップと、
    前記投射面にわたり投射された前記パターン画素を感知するステップと、
    機械学習プロセスによって、誤ったまたは誤ラベル付きの構造化光符号化点を検出するステップと、
    前記検出された校正パターンにおける誤ったまたは誤ラベル付きの校正パターン点を補正または削除するステップと
    を備える、請求項30に記載の方法。
JP2019527313A 2016-11-23 2017-11-20 自動校正投射システムおよび方法 Pending JP2020513699A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662425947P 2016-11-23 2016-11-23
US62/425,947 2016-11-23
PCT/CA2017/051382 WO2018094513A1 (en) 2016-11-23 2017-11-20 Automatic calibration projection system and method

Publications (2)

Publication Number Publication Date
JP2020513699A true JP2020513699A (ja) 2020-05-14
JP2020513699A5 JP2020513699A5 (ja) 2021-01-07

Family

ID=62194613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019527313A Pending JP2020513699A (ja) 2016-11-23 2017-11-20 自動校正投射システムおよび方法

Country Status (6)

Country Link
US (1) US10750141B2 (ja)
EP (1) EP3545676A4 (ja)
JP (1) JP2020513699A (ja)
CA (1) CA3041135C (ja)
IL (1) IL266813B (ja)
WO (1) WO2018094513A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110663249B (zh) * 2017-05-26 2022-04-15 索尼公司 用于图像处理的装置和方法
JP2019012424A (ja) * 2017-06-30 2019-01-24 ブラザー工業株式会社 画像処理装置、および、コンピュータプログラム
US10861230B2 (en) * 2018-08-01 2020-12-08 Nvidia Corporation System-generated stable barycentric coordinates and direct plane equation access
WO2020028826A1 (en) * 2018-08-02 2020-02-06 Firefly Dimension, Inc. System and method for human interaction with virtual objects
US20200202798A1 (en) * 2018-12-24 2020-06-25 Lincoln Technology Solutions, Inc. Video Pipeline Pixel Analysis for Full Array Local Dimming
JP2020150303A (ja) * 2019-03-11 2020-09-17 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
WO2021108913A1 (en) * 2019-12-04 2021-06-10 Studio Thinkwell Montréal Inc. Video system, method for calibrating the video system and method for capturing an image using the video system
CN111062873B (zh) 2019-12-17 2021-09-24 大连理工大学 一种基于多对双目相机的视差图像拼接与可视化方法
CN111047510B (zh) * 2019-12-17 2023-02-14 大连理工大学 一种基于标定的大视场角图像实时拼接方法
CN111754436B (zh) * 2020-06-24 2024-05-03 上海联影医疗科技股份有限公司 医学图像伪影校正的加速方法、计算机设备和存储介质
CN111966235A (zh) * 2020-07-28 2020-11-20 锐达互动科技股份有限公司 触控投影产品无需重定位实现方法、装置、设备及介质
CN112837368B (zh) * 2021-01-28 2023-03-24 中南大学 提高料面成像面积的高炉内窥镜安装位姿配置方法及系统
CN113298886B (zh) * 2021-07-27 2021-10-08 光量信息科技(宁波)有限公司 一种投影仪的标定方法
US20230127730A1 (en) * 2021-10-26 2023-04-27 Scalable Display Technologies, Inc. System and method for projection mapping

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002072359A (ja) * 2000-08-29 2002-03-12 Olympus Optical Co Ltd 画像投影表示装置
JP2003280785A (ja) * 2002-03-26 2003-10-02 Sony Corp 画像表示処理装置、および画像表示処理方法、並びにコンピュータ・プログラム
JP2004015205A (ja) * 2002-06-04 2004-01-15 Olympus Corp マルチプロジェクションシステム及びマルチプロジェクションシステムにおける補正データ取得方法
JP2004054890A (ja) * 2002-05-29 2004-02-19 Sony Corp 画像表示装置および方法、送信装置および方法、画像表示システム、記録媒体、並びにプログラム
JP2009033366A (ja) * 2007-07-25 2009-02-12 Advanced Telecommunication Research Institute International 光学マーカシステム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10218839A (ja) 1997-02-06 1998-08-18 Mitsubishi Chem Corp フェノキシ酢酸誘導体並びにそれを含有する農園芸用除草剤
US6456339B1 (en) * 1998-07-31 2002-09-24 Massachusetts Institute Of Technology Super-resolution display
US6310650B1 (en) 1998-09-23 2001-10-30 Honeywell International Inc. Method and apparatus for calibrating a tiled display
US6377306B1 (en) 1998-09-23 2002-04-23 Honeywell International Inc. Method and apparatus for providing a seamless tiled display
US6618076B1 (en) 1999-12-23 2003-09-09 Justsystem Corporation Method and apparatus for calibrating projector-camera system
US7038727B2 (en) 2002-10-30 2006-05-02 The University Of Chicago Method to smooth photometric variations across multi-projector displays
US7306341B2 (en) 2005-02-28 2007-12-11 Hewlett-Packard Development Company, L.P. Multi-projector geometric calibration
CA2615228A1 (en) * 2005-04-11 2006-10-19 Polyvision Corporation Automatic projection calibration
DE102006002602A1 (de) * 2006-01-13 2007-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kalibrierungsverfahren und Kalibrierungssystem
US8777418B2 (en) 2006-01-26 2014-07-15 Christie Digital Systems Usa, Inc. Calibration of a super-resolution display
US7893393B2 (en) 2006-04-21 2011-02-22 Mersive Technologies, Inc. System and method for calibrating an image projection system
US7800628B2 (en) * 2006-06-16 2010-09-21 Hewlett-Packard Development Company, L.P. System and method for generating scale maps
US8994757B2 (en) * 2007-03-15 2015-03-31 Scalable Display Technologies, Inc. System and method for providing improved display quality by display adjustment and image processing using optical feedback
WO2010129363A2 (en) * 2009-04-28 2010-11-11 The Regents Of The University Of California Markerless geometric registration of multiple projectors on extruded surfaces using an uncalibrated camera
KR20140048073A (ko) 2010-11-15 2014-04-23 스케일러블 디스플레이 테크놀로지스, 인크. 수동 및 반자동 기법을 사용하여 디스플레이 시스템을 교정하는 시스템 및 방법
US9557813B2 (en) * 2013-06-28 2017-01-31 Tactus Technology, Inc. Method for reducing perceived optical distortion

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002072359A (ja) * 2000-08-29 2002-03-12 Olympus Optical Co Ltd 画像投影表示装置
JP2003280785A (ja) * 2002-03-26 2003-10-02 Sony Corp 画像表示処理装置、および画像表示処理方法、並びにコンピュータ・プログラム
JP2004054890A (ja) * 2002-05-29 2004-02-19 Sony Corp 画像表示装置および方法、送信装置および方法、画像表示システム、記録媒体、並びにプログラム
JP2004015205A (ja) * 2002-06-04 2004-01-15 Olympus Corp マルチプロジェクションシステム及びマルチプロジェクションシステムにおける補正データ取得方法
JP2009033366A (ja) * 2007-07-25 2009-02-12 Advanced Telecommunication Research Institute International 光学マーカシステム

Also Published As

Publication number Publication date
EP3545676A4 (en) 2021-02-17
US20190313070A1 (en) 2019-10-10
WO2018094513A1 (en) 2018-05-31
IL266813B (en) 2021-04-29
EP3545676A1 (en) 2019-10-02
US10750141B2 (en) 2020-08-18
IL266813A (en) 2019-07-31
CA3041135A1 (en) 2018-05-31
CA3041135C (en) 2020-01-14

Similar Documents

Publication Publication Date Title
CA3041135C (en) Automatic calibration projection system and method
US11269244B2 (en) System and method for calibrating a display system using manual and semi-manual techniques
US7901095B2 (en) Resolution scalable view projection
US8310525B2 (en) One-touch projector alignment for 3D stereo display
US8042954B2 (en) Mosaicing of view projections
US6558006B2 (en) Image projection display apparatus using plural projectors and projected image compensation apparatus
US20100245591A1 (en) Small Memory Footprint Light Transport Matrix Capture
CN110300294A (zh) 投影控制装置、投影控制方法以及存储介质
US20090190046A1 (en) Output correction for visual projection devices
CN104424538B (zh) 剧院参数管理设备和方法
WO2006025191A1 (ja) マルチプロジェクションシステムにおける幾何補正方法
KR20160034847A (ko) 단초점 카메라를 이용하여 디스플레이 시스템을 캘리브레이팅하기 위한 시스템 및 방법
US10663291B2 (en) Method and system for reproducing visual content
EP1861748A1 (en) Method of and apparatus for automatically adjusting alignement of a projector with respect to a projection screen
CN109495729A (zh) 投影画面校正方法和系统
CN109996048A (zh) 一种基于结构光的投影校正方法及其系统
US20090195758A1 (en) Meshes for separately mapping color bands
KR101099844B1 (ko) 이미지 캡쳐 시스템
JP2020182127A (ja) キャリブレーション装置、キャリブレーションシステム、および表示装置のキャリブレーション方法
US20230127730A1 (en) System and method for projection mapping
CN117275433B (zh) 一种屏幕校色方法和系统
WO2024134935A1 (ja) 三次元情報補正装置及び三次元情報補正方法
JP6373221B2 (ja) 画像投影装置、方法、及びプログラム
JP2024539320A (ja) プロジェクション・マッピング用のシステムと方法
JP6291382B2 (ja) Lt行列生成装置、方法、プログラム、及び記録媒体

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20190705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201118

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201118

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211227

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220621

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20221018