JP4584246B2 - 物体上に出力画像を表示する方法 - Google Patents

物体上に出力画像を表示する方法 Download PDF

Info

Publication number
JP4584246B2
JP4584246B2 JP2006507713A JP2006507713A JP4584246B2 JP 4584246 B2 JP4584246 B2 JP 4584246B2 JP 2006507713 A JP2006507713 A JP 2006507713A JP 2006507713 A JP2006507713 A JP 2006507713A JP 4584246 B2 JP4584246 B2 JP 4584246B2
Authority
JP
Japan
Prior art keywords
markers
projector
output image
attitude
unique
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2006507713A
Other languages
English (en)
Other versions
JP2006523067A (ja
Inventor
ラスカー、ラメッシュ
フォーラインズ、クリフトン・エル
ベアズリィー、ポール・エイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2006523067A publication Critical patent/JP2006523067A/ja
Application granted granted Critical
Publication of JP4584246B2 publication Critical patent/JP4584246B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Projection Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Description

本発明は、包括的にはデジタルプロジェクタに関し、より詳細には、強化現実のために用いられるプロジェクタに関する。
強化現実の分野は、物理的世界において我々の周りで見えるものおよび聞こえるものを拡張することに関係する。この分野の研究者は、実世界物体の我々のビューの上にコンピュータグラフィクスを重畳する。これは、我々の知覚、および、我々と実世界との相互作用の両方を拡張する。これにより、実世界作業のパフォーマンスを改善することが可能となる。
強化現実を達成するための複数の方法がある。世界の強化ビューを提供する1つの方法として、LCD画面方式の個人情報端末(PDA)を用いるものがある。この技法は、いくつかの欠点を有する。PDAの物理的サイズは、ピクセル解像度の将来の向上にもかかわらず、ユーザに提示することが可能な情報を制限する。PDAに表示される情報は、カメラの座標枠内にあり、ユーザ自身の視点にはない。PDAを使用することは、ユーザに対して、物理的環境とディスプレイとの間のコンテクスト切替を要求する。PDAは、ユーザが携帯し続けるか、または近くで、ただし容易に見えるところに保持しなければならない。PDAが強化を提供するのは、個人に対して、またはせいぜい、非常に小さい装置の周りに集まった少人数のグループに対してに過ぎない。
世界の強化ビューを提供するもう1つの方法として、「シースルー」方式のビデオマイクロディスプレイ眼鏡を用いるものがある。1つの欠点として、ユーザの目の座標枠と表示画像座標枠との間の結合が密であるため、ユーザ頭部の動きの非常に正確な処理を必要とすることがある。例えば、ユーザ頭部の回転を、表示画像における相補的な回転と正確に合わせなければならない。また、ビデオマイクロディスプレイ眼鏡は、個人用に限られ、共用はできない。ディスプレイは、目から1センチメートル程度しか離れていないため、ユーザの手のような他の物体が強化を遮り易く、強化された物体を扱うのは不便である。挙げ句の果てには、目に装着するディスプレイの疲労因子が知られている。
プロジェクタ方式の強化現実は、物理的シーン上に直接に強化を投影する。これは、ユーザ座標枠を、プロジェクタと物理的物体との間の関係から分離する。この方式の1つの利点は、投影される情報を表示する時に、ユーザ頭部の回転を決定する困難な作業が不要なことである。
家具で一杯の居間と人物との映画を撮るために、回転式映画カメラが用いられている。その場合、居間および家具をニュートラルホワイトに塗り、もとのカメラと正確に位置合わせした回転式プロジェクタを用いて映画を壁面および家具の上に再投影する。Naimark、「Displacements」(1984年、米国カリフォルニア州サンフランシスコのサンフランシスコ近代美術館での展示)を参照されたい。このように、撮影カメラと表示プロジェクタとを同じ場所に配置することが決定的であるのは、あらかじめ録画された画像、または物理的物体を照明するための画像シーケンスを使用するほとんどのシステムに共通である。
現実の水晶球内部の架空の占い師の頭部を動かすために、プロジェクタおよび光ファイバ束が用いられている。1990年12月18日にLiljegren他に交付された米国特許第4,978,216号、「Figure with back projected image using fiber optics」を参照されたい。非常に大きな建築的スケールで画像をレンダリングするために、精細なディテールを強化した修正写真のスライドが、非常に高輝度のプロジェクタとともに用いられている。このアイデアの既知の最近の実現は、フランスのロワール谷にあるブロワ城での「音と光のショー」である。また、現在では、この手段は、橋のような大規模構造物を照明するために、他にも世界各地で用いられている。
「Luminous Room」プロジェクトは、部屋または指定されたワークスペースの現実の物理的環境内の平坦面上で画像を検知し投影するためのI/Oバルブとして、同じ場所に配置されたカメラとプロジェクタとの対を扱う。Underkoffler等著「Emancipated pixels: Real-world graphics in the luminous room」(SIGGRAPH '99, pp.385-392, 1999)を参照されたい。彼らの主な着目点は、発光する有形のインタフェースを通じての情報との相互作用である。これは、同一平面上の2Dの物理的物体を認識し、平面内での2D位置および向きを追跡し、適切な太陽の光の陰影を再現するために頭上から光を投影した。
これらすべてのシステムは、有力なビジュアライゼーションを提供している。しかし、面倒なアラインメントプロセスには、単一のプロジェクタの場合でも数時間かかることがある。多くの同様のシステムでは、1つまたは複数の環境センサがプロセッサを支援し、このプロセッサがプロジェクタとディスプレイとの間のユークリッド関係またはアフィン関係を計算することができるという考えに基づいている。集中化されたセンサがなければ、プロジェクタは、目標物体を強化することができない。それらのシステムは、プロジェクタと、強化される物体との間に、固定された特別な関係を要求する。いずれかの一方の部分が移動すれば、システムを再較正しなければならない。また、それらのシステムでは、プロジェクタが固定されていることから、物体のある特定の部分しか強化できないことになる。
したがって、従来技術のシステムの制限および問題のない、状況検知プロジェクタを提供することが望ましい。
本発明は、目標物体を一意に識別する方法を提供する。さらに、本発明は、プロジェクタと物体との間の物理的関係を求める方法を提供する。物体の一意の識別およびプロジェクタと物体との相対位置を知ることにより、その物体に関連する較正された画像の投影が可能となる。
本発明は、物体を、その物体に固有の投影画像と強化することが望ましいさまざまなシステムに適用可能である。例として、物体上の情報ディスプレイがある。例えば、プリンタのための情報ディスプレイとしては、プリントキューやジョブが完了するまでの予想時間が挙げられる。書籍のための情報ディスプレイとしては、欄外に現れる注釈を挙げることができる。トレーニング用途では、教示が既知の物体上に表示される。物理的インデクシングでは、例えば、地面に投影された矢印によって、また、保管エリアやワークスペース内の特定のエリアの強調表示によって、ユーザが、必要とする対象物のほうへ誘導される。環境に取り付けられた電子データ項目が回復および投影される。「マジックレンズ」は、不透明表面の透過をシミュレートする。所定の対象物に関する言語固有情報が観光客のために投影される。
本発明は、さらに、相互作用の履歴、プロジェクタの位置および動き、ならびに他の類似装置の存在等のいくつかのファクタに従って、投影コンテンツを適応させる手段を提供する。
幾何学的検知プロジェクタ
図1は、本発明による状況検知プロジェクタ100を示している。なお、プロジェクタ100は、単独で使用しても、他の類似のプロジェクタと協調的に組み合わせて使用してもよいことに留意すべきである。
本プロジェクタ100は、バス140で接続されたマイクロプロセッサ110、メモリ120、およびI/Oインタフェース130、包括的には処理ユニット103を含む。処理ユニットは、その電子機器的構成に関しては従来通りであるが、本明細書に記載される方法ステップを実行する際のその動作に関しては、従来とは異なる。
また、プロジェクタは、出力画像102を表示するためのプロジェクタサブシステム150、および一意に識別された物体を含むシーンの入力画像101を取得するためのカメラサブシステム160も含む。
ネットワークサブシステム170により、プロジェクタは、ローカルかリモートかを問わず、他の類似装置、または他のコンピューティング装置と通信することが可能となる。したがって、ネットワークシステムは、通信媒体に応じて、アンテナまたは赤外線トランシーバ180に接続されることが可能である。
ユーザインタフェース190は、プロジェクタの動作を容易にするための入力および出力データを提供することができる。例えば、インタフェースは、入力用マウスに通常見られるような左、中央、および右ボタンを含むことができる。また、インタフェースは、当技術分野で既知のような「スクロール」ホイールを含むこともできる。
内部センサ195、例えば傾斜センサまたは加速度計は、プロジェクタの向きを求めることができる。なお、センサは、内部センサのみであり、プロジェクタの外部の環境を検知しないことに留意すべきである。また、センサは、最適であることに留意すべきである。
プロジェクタの動作
プロジェクタ100は、スマートキーストン補正、向き補償画像強度、自動輝度、ズームおよびフォーカス、ジオメトリおよびテクスチャのキャプチャのための3Dスキャニング、ならびにカメラサブシステム160のためのスマートフラッシュ等のいくつもの機能を実行することができる。この最後の機能では、プロジェクタ機能は、カメラ機能に対して副次的である。この場合、プロジェクタは、カメラによって観測されるシーン内の特定のエリアを単に照明するだけである。以下で、いくつかのさらなる適応的機能について、より詳細に説明する。
システム構成および方法
図2に示すように、本発明の較正されたプロジェクタ−カメラシステム100を用いることにより、物体201を一意に識別し、物体固有の情報220を投影する。プロジェクタ100に対する物体の相対位置が、物体201に取り付けられた一意の可視マーカ211〜214から求められる。本明細書において、姿勢とは、物体と同じ座標枠におけるプロジェクタの(x,y,z)位置、およびプロジェクタの向きを意味する。本明細書において、向きとは、3つの主軸のいずれかの周りの回転量を意味する。
好ましい実施の形態では、マーカは、円形(拡大図参照)であり、複数(例えば4〜6個)の色付きのセグメントを有する。色のパターンは、異なる一意の識別を規定する。2000年7月31日に出願された米国特許出願第09/628,461号「Badge Identification System」を参照されたい。この米国特許出願は、参照により本明細書に援用される。
色コーディングは、一意の識別をエンコードする。なお、他の類似のマーカも使用可能であることに留意すべきである。以下で詳細に説明するように、1つまたは複数のマーカを使用可能である。
較正されたカメラサブシステム160によるカメラ姿勢の一意の解を得るために、物体201上の4個以上の点が用いられる。これらの点は、長距離で取得された複数のマーカの画像から、またはより短距離では単一のマーカの形状から得られる。
カメラ姿勢を求めた後、プロジェクタ姿勢は、システム較正によって分かる。プロジェクタの位置および向きが分かった後、メモリ120から読み出された、またはネットワーク210を通じてダウンロードされた強化情報を表示することができる。画像が表示される際の形状、サイズ、および位置は、あらかじめ決めることができる。
コンテクストベースの強化を用いることができる重要なアプリケーションとしては、物体上の情報ディスプレイ(パッシブディスプレイでも、教示220が一連のステップの一部として表示されるトレーニング用途でもよい)、ユーザが必要とする対象物の方へ誘導される物理的インデクシング、環境に取り付けられた電子データ項目の存在識別および投影がある。
コンテクストベースの強化においては、強化される情報の位置決めにおける小さいずれは、通常は重要でないため、精度は、あまり厳格に要求されない。しかし、使用形態は、より重視される。例えば、物体からの距離は、投影される強化220におけるディテールのレベルを調整するために使用可能である。
システムは、以下の情報、すなわち、プロジェクタの固有パラメータ、カメラの固有パラメータ、プロジェクタとカメラとの間の相対的な位置および向きが分かるように較正される。この較正は、システムが動作する前の事前較正ステップとして行うことも可能であり、あるいはシステムの動作開始時に起動処理として行うことも可能である。既知のカメラ較正技法のいずれを用いてもよい。
カメラの目的は、シーン内の所定面に対するシステムの姿勢を取得することである。ここで、「姿勢」は、(x,y,z)位置、および向きを意味するために用いられている。これは、物体の入力画像を処理することによりカメラの姿勢を求めてから、較正情報を用いてプロジェクタの姿勢を推論することによって達成される。プロジェクタの姿勢が分かった後、強化情報220を所定面上の所望の位置に投影することができる。
図3に示すように、本方法300は、まず、シーンの入力画像(I)301を取得する。シーンは、少なくとも4個の可視マーカを含む。これらの可視マーカは、色コーディングされ、その色コーディングが識別を指定する。マーカは、バーコードに類似しているとみなすこともできるが、縞模様ではなく色に基づいている。
次に、入力画像301の中から、マーカを検出する(315)。マーカを用いて、データベースレコード(R)321を索引付けする(320)。データベースレコード(R)321は、おそらくはメモリ120に、またはネットワークを通じてアクセス可能な他のメモリ120に記憶される。
レコードは、適当な座標枠、例えばそれが取り付けられた所定面の座標枠におけるマーカの位置情報を含む。位置情報は、実世界におけるマーカの(x,y,z)位置と、それらの外観およびジオメトリ(例えば色、形状およびサイズ)を含む。
レコード321の位置情報を用いて、マーカに対する、したがって所定面に対するカメラの姿勢(CP)331を求める(330)。カメラ姿勢を用いて、プロジェクタの姿勢(PP)336を推論する(335)。この計算は、既知の画像処理技法である既知のホモグラフィを用いて実行される。
次に、出力画像(I)341をメモリから読み出す(340)。出力画像は、レコード321に記憶しても、他の場所に記憶してもよい。どの特定の画像が読み出されるかは、一意の識別、相互作用の履歴、プロジェクタの位置および動き、ならびに他の類似装置の存在に依存し得る。
次に、出力画像を、プロジェクタの位置および向きに従って歪み補正する(345)。次に、本方法300は、歪み補正した画像346を投影することにより、情報220を表示する。歪み補正は、プロジェクタ100の任意の姿勢に対して、出力画像内の画素が、シーンの座標枠と、縦方向および横方向に位置合わせされて現れるように、出力画像内の画素を調整する。その結果、物理的物体の表面上に表示された情報の外観に歪みがなくなる。コンテンツを歪み補正する手段は、2001年8月14日に出願された米国特許出願第08/930,426号「Simulating Motion of Static Objects in Scenes」に詳細に記載されている。この米国特許出願は、参照により本明細書に援用される。
強化の履歴
基本形態の変形として、強化の履歴を利用することができる。ステップ320で、データベースは、特定のレコードがアクセスされたことを記録することができる。その後、ステップ340で、データベースは、現在見られているマーカの識別だけでなく、そのマーカが過去に見られた回数にも基づいて、代替コンテンツを返すことができる。
4個のマーカを用いることの別法
動作の基本形態の別法として、ターゲット上に見える可視マーカの個数を少なくすることによるものがある。動作の基本形態のステップ315で、本方法は、4個のマーカを検出する。その理由は、カメラの姿勢を求めるために用いられるホモグラフィは、4個の既知の点に基づくからである。このステップは、各マーカの中心を既知の点として用いる。各マーカに対するレコードは、その中心の(x,y,z)位置だけでなく、その半径も記憶しているので、単一のマーカが、複数の既知の点を提供することができる。この付加的な幾何情報を用いれば、本方法は、ステップ315で、少なくとも1つのマーカを正しく検出し識別するだけでよい。
可視マーカの別法
動作の基本形態の別法として、可視マーカの出現をなくすことができる。可視マーカは、レコード321内の記述に従って出力画像において可視マーカを打ち消すことによって、または入力画像におけるその出現を打ち消すことによって、人間の目にとって不可視にすることができる。
プロジェクタの位置に基づく代替コンテンツ
動作の基本形態の変形として、強化されている物体に対するプロジェクタの位置をさらに利用することができる。動作の基本形態では、ステップ345で、プロジェクタの姿勢を用いて、投影されているコンテンツを歪み補正しているが、姿勢を用いて、データベースから姿勢固有のコンテンツを読み出すこともできる。
この変形の一使用例では、強化されている物体からユーザが遠く離れている時には高レベルの意味情報を投影し、同じ物体にユーザが近づいた時には低レベルの詳細情報を投影する。
プロジェクタの動きに基づく代替コンテンツ
動作の基本形態の変形として、プロジェクタの動きを利用することができる。プロジェクタの位置を求めるステップ335において、この位置をデータベースに記録することができる。その後、ステップ340で、データベースからコンテンツを読み出す時に、プロジェクタの過去の位置の履歴を調べることによって、プロジェクタの動きに基づいてコンテンツを読み出すことができる。
この変形の一使用例では、ユーザが素早く動くことにより投影画像が物体を横切る時には、精細度の低い画像を投影し、ユーザがゆっくりと動いている時、または静止している時には、精細度の高い画像を投影する。
類似装置の存在に基づく代替コンテンツ
動作の基本形態の変形として、類似装置の存在を利用することができる。ステップ340で、データベースからコンテンツを読み出す時に、データベースは、コンテンツがアクセスされていることを記録し、レコードにアクセスしている装置の識別を記録することができる。複数の装置がレコードにアクセスしている場合、この情報に基づいてコンテンツを変更することができる。
この変形の一使用例では、複数の装置から投影されている画像が互いに重なり合ったり互いを不明瞭にしたりしないように、物体の表面上でコンテンツを再配置する。複数の人々が、待ち行列に入っているプリントジョブのリストをプリンタの表面上に投影している場合、装置は、それらが互いに重なり合わないようにこれらのリストを再配置することができる。
投影時刻に基づく代替コンテンツ
ステップにおいてデータベースから読み出されるコンテンツは、読み出し時刻によって影響を受けてもよい。
画像投影の別法
また、動作の基本形態の変形として、静止画像の代わりにビデオコンテンツを歪み補正し投影することもできる。
以上、好ましい実施形態を例として本発明を説明したが、本発明の精神および範囲内で、種々の他の適応および修正を行うことが可能であることが理解されるべきである。したがって、添付の特許請求の範囲の目的は、本発明の真の精神および範囲内に入るすべてのそのような変形および修正を包含することである。
本発明によるプロジェクタのブロック図である。 図1のプロジェクタによって表示される画像によって強化された物体のブロック図である。 本発明による物体上に画像を表示する方法のブロック図である。

Claims (15)

  1. 物体上に出力画像を表示する方法であって、
    所定位置において前記物体に一意のマーカのセットを固定することと、
    プロジェクタと固定的な物理的関係にあるカメラを用いて前記物体および前記複数のマーカの入力画像を取得することと、
    前記マーカのセットに対する前記プロジェクタの姿勢を求めることと、
    前記プロジェクタの姿勢および前記一意のマーカのセットに従って前記物体上に出力画像を投影することと
    を含む物体上に出力画像を表示する方法において、
    前記セット内の各マーカは、円形であり、複数の異なる色のセグメントを有する方法。
  2. 物体上に出力画像を表示する方法であって、
    所定位置において前記物体に一意のマーカのセットを固定することと、
    プロジェクタと固定的な物理的関係にあるカメラを用いて前記物体および前記複数のマーカの入力画像を取得することと、
    前記マーカのセットに対する前記プロジェクタの姿勢を求めることと、
    前記プロジェクタの姿勢および前記一意のマーカのセットに従って前記物体上に出力画像を投影することと
    を含む物体上に出力画像を表示する方法において、
    前記出力画像は、前記プロジェクタと前記物体との相互作用の履歴に依存する方法。
  3. 物体上に出力画像を表示する方法であって、
    所定位置において前記物体に一意のマーカのセットを固定することと、
    プロジェクタと固定的な物理的関係にあるカメラを用いて前記物体および前記複数のマーカの入力画像を取得することと、
    前記マーカのセットに対する前記プロジェクタの姿勢を求めることと、
    前記プロジェクタの姿勢および前記一意のマーカのセットに従って前記物体上に出力画像を投影することと
    を含む物体上に出力画像を表示する方法において、
    前記出力画像は、前記プロジェクタの姿勢に依存する方法。
  4. 物体上に出力画像を表示する方法であって、
    所定位置において前記物体に一意のマーカのセットを固定することと、
    プロジェクタと固定的な物理的関係にあるカメラを用いて前記物体および前記複数のマーカの入力画像を取得することと、
    前記マーカのセットに対する前記プロジェクタの姿勢を求めることと、
    前記プロジェクタの姿勢および前記一意のマーカのセットに従って前記物体上に出力画像を投影することと
    を含む物体上に出力画像を表示する方法において、
    前記マーカのセットを不可視にするために、前記出力画像における前記マーカのセットの出現を打ち消すことをさらに含む方法。
  5. 物体上に出力画像を表示する方法であって、
    所定位置において前記物体に一意のマーカのセットを固定することと、
    プロジェクタと固定的な物理的関係にあるカメラを用いて前記物体および前記複数のマーカの入力画像を取得することと、
    前記マーカのセットに対する前記プロジェクタの姿勢を求めることと、
    前記プロジェクタの姿勢および前記一意のマーカのセットに従って前記物体上に出力画像を投影することと
    を含む物体上に出力画像を表示する方法において、
    前記姿勢から前記プロジェクタの動きを求めることと、
    前記動きに応じて前記出力画像を選択することと
    をさらに含む方法。
  6. 物体上に出力画像を表示する方法であって、
    所定位置において前記物体に一意のマーカのセットを固定することと、
    プロジェクタと固定的な物理的関係にあるカメラを用いて前記物体および前記複数のマーカの入力画像を取得することと、
    前記マーカのセットに対する前記プロジェクタの姿勢を求めることと、
    前記プロジェクタの姿勢および前記一意のマーカのセットに従って前記物体上に出力画像を投影することと
    を含む物体上に出力画像を表示する方法において、
    投影時刻に基づいて前記出力画像を選択することをさらに含む方法。
  7. 物体上に出力画像を表示する方法であって、
    所定位置において前記物体に一意のマーカのセットを固定することと、
    プロジェクタと固定的な物理的関係にあるカメラを用いて前記物体および前記複数のマーカの入力画像を取得することと、
    前記マーカのセットに対する前記プロジェクタの姿勢を求めることと、
    前記プロジェクタの姿勢および前記一意のマーカのセットに従って前記物体上に出力画像を投影することと
    を含む物体上に出力画像を表示する方法において、
    前記出力画像は、類似の装置の同時存在に依存する方法。
  8. 前記セット内に4個のマーカがある請求項1ないし7のいずれか1項に記載の方法。
  9. 前記マーカのジオメトリがあらかじめ求められ、前記セットは、1個のマーカを含む請求項1ないし7のいずれか1項に記載の方法。
  10. 各マーカのジオメトリがあらかじめ求められ、前記物体上での前記マーカの位置があらかじめ求められる請求項1ないし7のいずれか1項に記載の方法。
  11. 前記プロジェクタによってアクセス可能なメモリに前記ジオメトリおよび前記位置を記憶することをさらに含む請求項10に記載の方法。
  12. 前記姿勢は、前記プロジェクタの位置および向きを含む請求項1ないし7のいずれか1項に記載の方法。
  13. 前記出力画像を投影する前に前記プロジェクタの前記姿勢に従って前記出力画像を歪み補正することをさらに含む請求項1ないし7のいずれか1項に記載の方法。
  14. 前記歪み補正は、縦方向および横方向に、前記出力画像を前記物体の座標枠と位置合わせする請求項13に記載の方法。
  15. 前記出力画像は、所定の形状を有し、前記物体上の所定の位置に投影される請求項1ないし7のいずれか1項に記載の方法。
JP2006507713A 2003-04-11 2004-04-08 物体上に出力画像を表示する方法 Expired - Lifetime JP4584246B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/412,178 US7292269B2 (en) 2003-04-11 2003-04-11 Context aware projector
PCT/JP2004/005069 WO2004093444A1 (en) 2003-04-11 2004-04-08 Method for displaying an output image on an object

Publications (2)

Publication Number Publication Date
JP2006523067A JP2006523067A (ja) 2006-10-05
JP4584246B2 true JP4584246B2 (ja) 2010-11-17

Family

ID=33131159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006507713A Expired - Lifetime JP4584246B2 (ja) 2003-04-11 2004-04-08 物体上に出力画像を表示する方法

Country Status (5)

Country Link
US (1) US7292269B2 (ja)
EP (1) EP1504597B1 (ja)
JP (1) JP4584246B2 (ja)
CN (1) CN1698357B (ja)
WO (1) WO2004093444A1 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006513509A (ja) * 2003-02-03 2006-04-20 シーメンス アクチエンゲゼルシヤフト 合成情報の投影
JP2007206619A (ja) * 2006-02-06 2007-08-16 Olympus Corp 情報呈示装置及び情報呈示方法
JP2007206618A (ja) * 2006-02-06 2007-08-16 Olympus Corp 情報呈示装置
US7717569B2 (en) * 2006-04-13 2010-05-18 Nokia Corporation Projector screen with one or more markers
CA2668776C (en) * 2007-01-31 2010-05-04 Micromentis Inc. Head-mounted display apparatus for profiling system
US8994757B2 (en) 2007-03-15 2015-03-31 Scalable Display Technologies, Inc. System and method for providing improved display quality by display adjustment and image processing using optical feedback
JP2009008905A (ja) * 2007-06-28 2009-01-15 Ricoh Co Ltd 情報表示装置および情報表示システム
US7874681B2 (en) * 2007-10-05 2011-01-25 Huebner Kenneth J Interactive projector system and method
JP5286772B2 (ja) * 2007-12-18 2013-09-11 セイコーエプソン株式会社 画像表示装置
DE102008001629A1 (de) * 2008-05-07 2009-11-12 Robert Bosch Gmbh Projektionsmittel umfassende Vorrichtung
US9323422B2 (en) * 2008-10-27 2016-04-26 Autodesk, Inc. Spatially-aware projection pen display
JP2010166360A (ja) * 2009-01-16 2010-07-29 Seiko Epson Corp プロジェクタ、その制御方法、及びその制御プログラム
WO2010102288A2 (en) * 2009-03-06 2010-09-10 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for shader-lamps based physical avatars of real and virtual people
US8393740B2 (en) * 2009-03-12 2013-03-12 Canon Kabushiki Kaisha Image projection system with keystone correction
US8231233B2 (en) * 2009-06-17 2012-07-31 Motorola Mobility, Inc. Portable electronic device and method of power management for same to accommodate projector operation
US20100321382A1 (en) 2009-06-18 2010-12-23 Scalable Display Technologies, Inc. System and method for injection of mapping functions
JP5740822B2 (ja) 2010-03-04 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5573238B2 (ja) * 2010-03-04 2014-08-20 ソニー株式会社 情報処理装置、情報処理法方法およびプログラム
JP5598033B2 (ja) * 2010-03-15 2014-10-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US8922644B2 (en) 2010-10-07 2014-12-30 Sony Computer Entertainment Inc. Tracking head position and orientation
EP2609731B1 (en) * 2010-10-07 2017-03-29 Sony Interactive Entertainment Inc. Tracking head position and orientation
CN102652322A (zh) * 2010-10-12 2012-08-29 松下电器产业株式会社 显示处理装置、显示方法和程序
JP6198605B2 (ja) 2010-11-15 2017-09-20 スケーラブル ディスプレイ テクノロジーズ インコーポレイテッド 手動及び半自動技術を用いたディスプレイシステムを較正するためのシステム及び方法
US9111326B1 (en) 2010-12-21 2015-08-18 Rawles Llc Designation of zones of interest within an augmented reality environment
US8905551B1 (en) 2010-12-23 2014-12-09 Rawles Llc Unpowered augmented reality projection accessory display device
US9134593B1 (en) 2010-12-23 2015-09-15 Amazon Technologies, Inc. Generation and modulation of non-visible structured light for augmented reality projection system
US8845110B1 (en) 2010-12-23 2014-09-30 Rawles Llc Powered augmented reality projection accessory display device
US8845107B1 (en) 2010-12-23 2014-09-30 Rawles Llc Characterization of a scene with structured light
US9721386B1 (en) 2010-12-27 2017-08-01 Amazon Technologies, Inc. Integrated augmented reality environment
US9508194B1 (en) 2010-12-30 2016-11-29 Amazon Technologies, Inc. Utilizing content output devices in an augmented reality environment
US9607315B1 (en) 2010-12-30 2017-03-28 Amazon Technologies, Inc. Complementing operation of display devices in an augmented reality environment
US9658614B2 (en) 2011-02-11 2017-05-23 Ops Solutions Llc Light guided assembly system and method
DE102011015987A1 (de) * 2011-04-04 2012-10-04 EXTEND3D GmbH System und Verfahren zur visuellen Darstellung von Informationen auf realen Objekten
US9497447B2 (en) 2011-06-15 2016-11-15 Scalable Display Technologies, Inc. System and method for color and intensity calibrating of a display system for practical usage
US9118782B1 (en) 2011-09-19 2015-08-25 Amazon Technologies, Inc. Optical interference mitigation
WO2013048479A1 (en) * 2011-09-30 2013-04-04 Intel Corporation Mechanism for facilitating context-aware model-based image composition and rendering at computing devices
CN103106665A (zh) * 2011-11-11 2013-05-15 周建龙 一种空间增强现实系统中自动跟踪移动物体的方法
US9132346B2 (en) 2012-04-04 2015-09-15 Kenneth J. Huebner Connecting video objects and physical objects for handheld projectors
JP2015519601A (ja) 2012-04-19 2015-07-09 スケーラブル ディスプレイ テクノロジーズ インコーポレイテッド システム入力解像度の変動なくディスプレイシステムを校正するシステムおよび方法
US9792715B2 (en) 2012-05-17 2017-10-17 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for utilizing synthetic animatronics
CN103869961A (zh) * 2012-12-18 2014-06-18 联想(北京)有限公司 投影仪和摄像机交互的方法及系统
US9881383B2 (en) 2013-01-28 2018-01-30 Virtek Vision International Ulc Laser projection system with motion compensation and method
WO2014127836A1 (en) * 2013-02-25 2014-08-28 Abb Technology Ltd Method and device for monitoring and controlling an industrial process
WO2014144828A1 (en) 2013-03-15 2014-09-18 Scalable Display Technologies, Inc. System and method for calibrating a display system using a short throw camera
KR101465497B1 (ko) 2013-07-09 2014-11-26 성균관대학교산학협력단 동적 프로젝션 매핑 장치 및 시스템과 그 방법
US10321107B2 (en) 2013-11-11 2019-06-11 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for improved illumination of spatial augmented reality objects
US9473913B2 (en) 2013-11-12 2016-10-18 At&T Intellectual Property I, L.P. System and method for small cell based augmented reality
US20170026636A1 (en) * 2013-12-12 2017-01-26 Testo Ag Method for the positionally accurate projection of a mark onto an object, and projection apparatus
WO2016103204A1 (en) 2014-12-24 2016-06-30 Verity Studios Ag Flexibly supported movable platform
US11062383B2 (en) * 2016-05-10 2021-07-13 Lowe's Companies, Inc. Systems and methods for displaying a simulated room and portions thereof
US20190222890A1 (en) * 2016-06-23 2019-07-18 Outernets, Inc. Interactive content management
US10009586B2 (en) * 2016-11-11 2018-06-26 Christie Digital Systems Usa, Inc. System and method for projecting images on a marked surface
JP6773609B2 (ja) * 2017-06-23 2020-10-21 ウエストユニティス株式会社 遠隔支援システム、情報提示システム、表示システムおよび手術支援システム
US20190052851A1 (en) * 2017-08-11 2019-02-14 Hilti Aktiengesellschaft System and Method for Recalibrating a Projector System
KR102014095B1 (ko) * 2017-09-29 2019-08-27 대한민국 인지 보조 시스템 및 방법
CN109788262A (zh) * 2017-11-15 2019-05-21 中强光电股份有限公司 投影系统及其影像投影方法
DE102017010683B4 (de) * 2017-11-17 2019-08-14 domeprojection.com GmbH Verfahren zur automatischen Wiederherstellung eines eingemessenen Zustands eines Projektionssystems
US11188154B2 (en) * 2018-05-30 2021-11-30 International Business Machines Corporation Context dependent projection of holographic objects
FR3086383B1 (fr) 2018-09-21 2020-08-28 Diotasoft Procede, module et systeme de projection sur une piece d’une image calculee a partir d’une maquette numerique
US20220295025A1 (en) * 2019-04-12 2022-09-15 Daniel Seidel Projection system with interactive exclusion zones and topological adjustment
JP7099497B2 (ja) * 2020-07-28 2022-07-12 セイコーエプソン株式会社 画像生成方法、画像生成システム、及びプログラム
CN112991467B (zh) * 2021-05-08 2021-07-20 光量信息科技(宁波)有限公司 基于相机的激光投影标识自动引导定位与实时校正方法
JP2022185342A (ja) * 2021-06-02 2022-12-14 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4978216A (en) * 1989-10-30 1990-12-18 Walt Disney Company Figure with back projected image using fiber optics
JP3382045B2 (ja) * 1995-01-24 2003-03-04 富士通株式会社 イメージ投影システム
DE19502459A1 (de) * 1995-01-28 1996-08-01 Wolf Henning Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten
SE510810C2 (sv) * 1997-01-13 1999-06-28 Qualisys Ab Rörelseanalyssystem
US6191812B1 (en) * 1997-04-01 2001-02-20 Rt-Set Ltd. Method of providing background patterns for camera tracking
JP2000241874A (ja) * 1999-02-19 2000-09-08 Nec Corp プロジェクタの自動画面位置調整方法及び装置
US6554431B1 (en) * 1999-06-10 2003-04-29 Sony Corporation Method and apparatus for image projection, and apparatus controlling image projection
JP3509652B2 (ja) * 1999-08-23 2004-03-22 日本電気株式会社 プロジェクタ装置
US6520647B2 (en) * 2000-08-17 2003-02-18 Mitsubishi Electric Research Laboratories Inc. Automatic keystone correction for projectors with arbitrary orientation
JP3497805B2 (ja) * 2000-08-29 2004-02-16 オリンパス株式会社 画像投影表示装置
US6697761B2 (en) * 2000-09-19 2004-02-24 Olympus Optical Co., Ltd. Three-dimensional position/orientation sensing apparatus, information presenting system, and model error detecting system
JP2002247614A (ja) * 2001-02-15 2002-08-30 Ricoh Co Ltd プロゼェクタ
JP2003015218A (ja) * 2001-07-03 2003-01-15 Ricoh Co Ltd 投影型表示装置
US7075587B2 (en) * 2002-01-04 2006-07-11 Industry-Academic Cooperation Foundation Yonsei University Video display apparatus with separate display means for textual information
JP2004274283A (ja) * 2003-03-07 2004-09-30 Casio Comput Co Ltd 投影システム、及び投影装置、画像供給装置、プログラム

Also Published As

Publication number Publication date
CN1698357A (zh) 2005-11-16
US7292269B2 (en) 2007-11-06
CN1698357B (zh) 2010-04-28
EP1504597B1 (en) 2015-02-11
JP2006523067A (ja) 2006-10-05
EP1504597A1 (en) 2005-02-09
WO2004093444A1 (en) 2004-10-28
US20040201823A1 (en) 2004-10-14

Similar Documents

Publication Publication Date Title
JP4584246B2 (ja) 物体上に出力画像を表示する方法
CN108062776B (zh) 相机姿态跟踪方法和装置
KR102417177B1 (ko) 인사이드-아웃 위치, 사용자 신체 및 환경 추적을 갖는 가상 및 혼합 현실을 위한 머리 장착 디스플레이
CN106062862B (zh) 用于沉浸式和交互式多媒体生成的系统和方法
JP6153564B2 (ja) カメラとマーク出力とによるポインティング装置
US6633304B2 (en) Mixed reality presentation apparatus and control method thereof
JP7480882B2 (ja) 情報処理装置、認識支援方法およびコンピュータプログラム
KR20140144510A (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
JP2002268621A (ja) 画像合成装置
CN108388341B (zh) 一种基于红外摄像机-可见光投影仪的人机交互系统及装置
KR20230028532A (ko) 가상 현실 경험들을 위한 지상 실측값 데이터세트들의 생성
KR102209745B1 (ko) 광고 및 쇼핑 등 정보를 표시하기 위하여 사용자의 투영 영상 인식을 통한 미러 디스플레이의 정보 표시 장치 및 방법
KR102159767B1 (ko) 시선 추적을 이용한 시인성 개선 방법, 저장 매체 및 전자 장치
KR102183692B1 (ko) 투영 객체 인식을 통한 미러 디스플레이 기반 증강 현실 영상 서비스 장치 및 방법
CN112912936A (zh) 混合现实系统、程序、移动终端装置和方法
JP2003015218A (ja) 投影型表示装置
KR20230029923A (ko) 롤링 셔터 카메라들을 사용하는 시각적 관성 추적
CN108346178A (zh) 混合现实对象呈现
Zheng Spatio-temporal registration in augmented reality
CN111095348A (zh) 基于摄像头的透明显示器
McIlroy et al. Kinectrack: 3d pose estimation using a projected dense dot pattern
JP5337409B2 (ja) 情報提示装置
CN104850383A (zh) 一种信息处理方法和电子设备
JP4703744B2 (ja) コンテンツ表現制御装置、コンテンツ表現制御システム、コンテンツ表現制御用基準物体およびコンテンツ表現制御プログラム
US10403002B2 (en) Method and system for transforming between physical images and virtual images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070320

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100831

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100901

R150 Certificate of patent or registration of utility model

Ref document number: 4584246

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130910

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term