JP2014503923A - コンテキストアウェアな拡張相互作用 - Google Patents

コンテキストアウェアな拡張相互作用 Download PDF

Info

Publication number
JP2014503923A
JP2014503923A JP2013551432A JP2013551432A JP2014503923A JP 2014503923 A JP2014503923 A JP 2014503923A JP 2013551432 A JP2013551432 A JP 2013551432A JP 2013551432 A JP2013551432 A JP 2013551432A JP 2014503923 A JP2014503923 A JP 2014503923A
Authority
JP
Japan
Prior art keywords
spatial relationship
determining
processor
proximity
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013551432A
Other languages
English (en)
Other versions
JP5640161B2 (ja
Inventor
ロイ・ローレンス・アショク・イニゴ
Original Assignee
クアルコム,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クアルコム,インコーポレイテッド filed Critical クアルコム,インコーポレイテッド
Publication of JP2014503923A publication Critical patent/JP2014503923A/ja
Application granted granted Critical
Publication of JP5640161B2 publication Critical patent/JP5640161B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

モバイルプラットフォームは、現実世界のオブジェクト間の近接度および/または相対位置などの空間的関係に基づいて、様々な拡張現実のオブジェクトをレンダリングする。モバイルプラットフォームは、1つまたは複数の取得画像内の第1のオブジェクトおよび第2のオブジェクトを検出および追跡する。モバイルプラットフォームは、たとえばオブジェクト間の近接度もしくは距離、および/または、オブジェクト間の相対位置などの、オブジェクトの空間的関係を決定する。近接度は、オブジェクトが同じ画像内に現れるかどうか、またはオブジェクト間の距離に基づく可能性がある。たとえばデータベースを探索することにより、オブジェクトの空間的関係に基づいて、レンダリングされるべき拡張オブジェクトが決定される。選択された拡張オブジェクトは、レンダリングおよび表示される。

Description

本開示は、コンテキストアウェアな拡張相互作用に関する。
拡張現実(AR)のアプリケーションでは、現実世界のオブジェクトが撮像され、画像情報またはテキスト情報などのコンピュータ生成情報とともにスクリーン上に表示される。ARは、建築物または製品など、現実世界のオブジェクトについて、グラフィカルな、またはテキストの情報を与えるために使用され得る。典型的には、表示されるARオブジェクトは、撮像される現実世界のオブジェクトに依存する。しかしながら、ARオブジェクトをレンダリングするとき、たとえば位置または他の周囲のオブジェクトなど、その現実世界のオブジェクトのコンテキストは考慮されない。しかしながら、物理的環境または他の製品への近接度に対するコンテキストを有するARコンテンツを表示することができるのが望ましい。
モバイルプラットフォームは、現実世界のオブジェクト間の近接度および/または相対位置などの空間的関係に基づいて、様々な拡張現実のオブジェクトをレンダリングする。オブジェクトの近接度またはオブジェクトの相対位置であってもよい空間的関係は、現実世界のオブジェクトのコンテキストを与える。モバイルプラットフォームは、1つまたは複数の取得画像内の第1のオブジェクトおよび第2のオブジェクトを検出および追跡する。次いで、モバイルプラットフォームは、オブジェクト間の近接度(もしくは距離)および/または相対位置などの、オブジェクトの空間的関係を決定する。近接度は、オブジェクトが同じ画像内に現れるかどうか、または、たとえば姿勢情報に基づいて、もしくは画像処理を通して決定される、オブジェクト間の定量的距離に基づく可能性がある。たとえばデータベースを探索することにより、オブジェクトの空間的関係に基づいて、レンダリングされるべき拡張オブジェクトが決定される。選択された拡張オブジェクトは、レンダリングおよび表示される。
現実世界のオブジェクトの空間的関係に基づく拡張現実のアプリケーションを与えることができるモバイルプラットフォームの前面部を示す図である。 現実世界のオブジェクトの空間的関係に基づく拡張現実のアプリケーションを与えることができるモバイルプラットフォームの背面部を示す図である。 2つの現実世界のオブジェクト、および現実世界のオブジェクト間の空間的関係に基づいてレンダリングされた拡張オブジェクトの取得された画像を表示するモバイルプラットフォームの前面部を示す図である。 現実世界のオブジェクトの空間的関係に基づく拡張現実のアプリケーションを与えるフローチャートである。 3つの現実世界のオブジェクト、および現実世界のオブジェクト間の空間的関係に基づいてレンダリングされた異なる拡張オブジェクトの取得された画像を表示するモバイルプラットフォームの前面部を示す図である。 現実世界のオブジェクトを別個に撮像するモバイルプラットフォーム100の平面図である。 現実世界のオブジェクトを別個に撮像するモバイルプラットフォーム100の平面図である。 図5Aのオブジェクトを別個に撮像するとき、モバイルプラットフォームにより表示される画像を示す図である。 図5Bのオブジェクトを別個に撮像するとき、モバイルプラットフォームにより表示される画像を示す図である。 現実世界のオブジェクトの空間的関係に基づく拡張現実のアプリケーションを与えることができるモバイルプラットフォームのブロック図である。
図1Aおよび図1Bはそれぞれ、現実世界のオブジェクトの空間的関係に基づく拡張現実のアプリケーションを与えることができるモバイルプラットフォーム100の前面部および背面部を示す。図1Aおよび図1Bにおけるモバイルプラットフォーム100は、ハウジング101と、タッチスクリーンディスプレイでもよいディスプレイ102とを含むように示されている。また、モバイルプラットフォーム100は、たとえば携帯電話である場合には、スピーカ104およびマイクロフォン106を含み得る。さらに、モバイルプラットフォーム100は、ディスプレイ102に表示される周囲の物を撮像する前方カメラ108を含む。さらに、モバイルプラットフォーム100は、加速度計、ジャイロスコープなどのモーションセンサ110を含むことができ、このモーションセンサ110は、モバイルプラットフォーム100の姿勢を決定する際の補助に用いられてもよく、または同様の意味合いで、モーションセンサ110に対する、既知の/キャリブレーションされた位置関係を有し得るカメラ108の姿勢を決定する際の補助に用いられてもよい。モバイルプラットフォーム100の姿勢は、視覚ベースの追跡技術を用いて付加的または代替的に求められてもよい。モバイルプラットフォーム100は、携帯電話もしくは他のワイヤレス通信デバイス、パーソナル通信システム(PCS)デバイス、パーソナルナビゲーションデバイス(PND)、個人情報マネージャ(PIM)、携帯情報端末(PDA)、ラップトップ、カメラ、または、拡張現実(AR)に対応可能な他の好適なモバイルデバイスなどの、任意のポータブル電子デバイスであってもよいことを理解されたい。
図2は、ランドスケープモードにあるモバイルプラットフォーム100の前面部を示す。ディスプレイ102は、2つの現実世界のオブジェクト、すなわちオブジェクトA120およびオブジェクトB122の取得された画像を表示するように示されている。例として、オブジェクトA120およびオブジェクトB122は、食料品棚124上の互いに近接するシリアルの箱などの製品であってもよい。また、ディスプレイ102は、矢印の形態の、コンピュータレンダリングされたARオブジェクト126を表示するように示されている。現実世界のオブジェクト120、122の取得された画像は、カメラ108によって生成されるが、ARオブジェクト126は、コンピュータレンダリングされたオブジェクト(または情報)である。取得された画像は、たとえば写真などの単一の画像、または、カメラ108によって生成された、1つまたは複数のビデオフレームであってもよいことを理解されたい。
モバイルプラットフォーム100によってレンダリングおよび表示されるARオブジェクト126は、撮像された現実世界のオブジェクトにだけでなく、撮像されたオブジェクトの空間的関係にも依存する。例として、空間的関係は、他の撮像されたオブジェクトの近接度であってもよい。したがって、あるタイプのARオブジェクトは、現実世界のオブジェクトが別の相補的な現実世界のオブジェクトに近接するとき、レンダリングされ得るが、異なるARオブジェクトまたはARオブジェクトの異なる挙動は、オブジェクトが近接していないか、または適合しない現実世界のオブジェクトが近接しているとき、レンダリングされ得る。たとえば、あるタイプのARオブジェクトは、朝食製品が互いに近接して配置されるとき、レンダリングされ得るが、異なるARオブジェクトまたはARオブジェクトの異なる挙動は、朝食製品がアルコール飲料のボトルに近接して配置されるとき、レンダリングされ得る。現実世界のオブジェクトの空間的関係は、オブジェクトの相対位置などの他の要因、および時刻または地理的位置などの他の要因を含み得る。
図3は、現実世界のオブジェクトの空間的関係に基づく拡張現実のアプリケーションを与えるフローチャートである。図示するように、モバイルプラットフォームのカメラによって取得された画像内の第1のオブジェクトが検出および追跡される(202)。オブジェクトが検出されると、オブジェクトは、たとえば、オンボードデータベースを参照するか、またはリモートサーバにアクセスすることによって、識別され得る。オブジェクトの追跡は、オブジェクトに対する、モバイルプラットフォームの位置および方位(姿勢)情報を与える。オブジェクトは、2次元または3次元のオブジェクトであってもよい。例として、図2のモバイルプラットフォーム100によって撮像されたオブジェクトA120が検出および追跡される。
また、カメラによって取得された画像内の第2のオブジェクトが検出および追跡される(204)。ここでもまた、第2のオブジェクトは、検出されると、たとえば、オンボードデータベースを参照するか、またはリモートサーバにアクセスすることによって、識別され得る。例として、図2のモバイルプラットフォーム100によって撮像されたオブジェクトB122が検出および追跡される。第2のオブジェクトは、同じ画像フレームに近接して、および同じ画像フレーム内、すなわち第1のオブジェクトと同じ取得画像内に配置されるアイテムであってもよい。さらに、第2のオブジェクトは、別個の画像フレーム内にあるアイテムとすることができ、すなわち、第2のオブジェクトは、第1のオブジェクトと異なる取得画像内に現れる。したがって、たとえば、第1のオブジェクトは、撮像、検出、および追跡され得る。その場合、モバイルプラットフォームは、検出および追跡される第2のオブジェクトの画像を取得するために移動し得る。
次いで、オブジェクトのコンテキストを与えるために、オブジェクトの空間的関係が決定される(206)。必要に応じて、オブジェクトの空間的関係は、オブジェクトが、たとえばオンボードまたは外部のデータベースにアクセスすることによって決定され得る、関連のコンテキスト的に依存する拡張現実のオブジェクトを有するオブジェクトとして識別される場合のみ、決定され得る。空間的関係は、撮像されたオブジェクトの近接度であってもよい。第1のオブジェクトおよび第2のオブジェクトは、両オブジェクトの少なくとも一部分が同時にカメラの視野内にある場合、近接していると見なされ得る。そうでない場合、近接度は、第1のオブジェクトと第2のオブジェクトとの間の定量的な距離として決定され得る。たとえば、距離は、オブジェクト間の距離をオブジェクトのサイズと比較するか、または第1のオブジェクトおよび第2のオブジェクトの追跡からの姿勢情報を用いることによって、決定され得る。距離は、オブジェクトが近接していると見なされるかどうかを決定するために、1つまたは複数の閾値と比較され得る。さらに、第1のオブジェクトおよび第2のオブジェクトが同じ画像内に現れない場合、オブジェクトの近接度は、追跡情報と、モバイルプラットフォーム100内のモーションセンサ110からのデータとを用いて決定される、オブジェクト間の距離に基づいて決定され得る。付加的または代替的に、空間的関係は、たとえば第1のオブジェクトが第2のオブジェクトの前または上にあるかどうかなどの、第1のオブジェクトと第2のオブジェクトとの相対位置であってもよい。また、1つまたは複数の追加の現実世界のオブジェクトの存在(または不在)、時刻、周辺光、モバイルプラットフォームの地理的位置などの、追加のコンテキスト情報を用いることができる。
識別された第1のオブジェクトと識別された第2のオブジェクトとの間の、決定された空間的関係を用いて、レンダリングされるべきARオブジェクトが決定され得る(208)。たとえば、ARオブジェクトのデータベースは、特定の現実世界のオブジェクトの異なる空間的関係に関して維持され得る。現実世界のオブジェクトの空間的関係が決定されると、データベースは、レンダリングされるべきARオブジェクトを決定するためにアクセスされ得る。次いで、ARオブジェクトは、モバイルプラットフォーム100によってレンダリングおよび表示され得る(210)。
例として、図2は、識別されたオブジェクトA120と識別されたオブジェクトB122との空間的関係に基づいてレンダリングおよび表示されるARオブジェクト126を示す。ARオブジェクト126は、たとえばオブジェクトA120がオブジェクトB122と適合することを示す矢印の形態である。他方では、図4は、第3のオブジェクトが識別され、オブジェクトC123が検出および追跡されオブジェクトB122に近接することが決定されることを除いて、図2に示す画像と同様の画像を生成するモバイルプラットフォーム100を示す。貫通する線とともに矢印を含む、異なるARオブジェクト128は、たとえばオブジェクトB122と、適合しないオブジェクトC123との近接度などの、空間的関係に基づいてレンダリングされる。必要に応じて、ARオブジェクトは、アニメーション化され、アニメーション化されたARオブジェクトの挙動は、現実世界のオブジェクトの空間的関係に基づいて変化する可能性がある。さらに、必要に応じて、追加の現実世界のオブジェクトは、検出および追跡され、レンダリングされるべきARオブジェクトを決定するために用いられる可能性がある。
図5Aおよび図5Bはそれぞれ、オブジェクトA120とオブジェクトB122とを別個に撮像するモバイルプラットフォーム100の平面図を示す。図6Aおよび図6Bはそれぞれ、図5Aおよび図5Bに示すように、モバイルプラットフォーム100がオブジェクトA120とオブジェクトB122とを別個に撮像するとき、モバイルプラットフォーム100のディスプレイ102に表示される画像を示す。図5Aおよび図6Aに示すように、モバイルプラットフォーム100は、現実世界のオブジェクトA120を撮像および表示する。図3のステップ202で上述したように、オブジェクトA120が検出および追跡される。オブジェクト122は、図5Aのカメラの視野109の外側にあるので、図6Aに表示されない。図5Bに示すように、現実世界のオブジェクトB122を視野109内に配置するためにモバイルプラットフォーム100を移動させた後、オブジェクトB122は、図6Bに示すように、撮像および表示される。図3のステップ204で上述したように、オブジェクトB122が検出および追跡される。図5Bに示すように、オブジェクトA120とオブジェクトB122との空間的関係は、オブジェクトの近接度を決定することによって決定される(図3のステップ206)。たとえば、近接度は、破線矢印130によって示される、オブジェクトA120とオブジェクトB122との間の距離として、および/または、破線矢印132によって示される、オブジェクト120と122との間の角変位により、決定され得る。距離130および/または角変位132は、追跡情報と、モバイルプラットフォーム上のモーションセンサ110からのデータとを用いて決定され得る。所望のARオブジェクトは、決定された空間的関係、すなわちオブジェクトの近接度に基づいて決定され(図3のステップ208)、次いで、レンダリングおよび表示される(図3のステップ210)。たとえば、図6Bに示すように、オブジェクトA120のレンダリング画像およびオブジェクトA120の方向を指す矢印を含むARオブジェクト129が表示される。
図7は、現実世界のオブジェクトの空間的関係に基づく拡張現実のアプリケーションを与えることができるモバイルプラットフォーム100のブロック図である。モバイルプラットフォーム100は、カメラ108などの、現実世界のオブジェクトの画像を取得するための手段と、加速度計、ジャイロスコープ、電子コンパス、または他の同様のモーション検知素子などのモーションセンサ110とを含む。モバイルプラットフォーム100は、「コンピュータビジョン」技術を用いるオブジェクト認識などの、他の位置決定方法を含み得る。さらに、モバイルプラットフォームは、ディスプレイ102などの、取得された画像およびレンダリングされたARオブジェクトを表示するための手段を含むユーザインターフェース150を含む。また、ユーザインターフェース150は、キーパッド152、または、ユーザが情報をモバイルプラットフォーム100に入力することができる他の入力デバイスを含み得る。必要に応じて、キーパッド152は、タッチセンサを有するディスプレイ102に仮想キーパッドを組み込むことによって省かれてもよい。また、ユーザインターフェース150は、たとえばモバイルプラットフォームが携帯電話である場合、マイクロフォン106とスピーカ104を含み得る。もちろん、モバイルプラットフォーム100は、ワイヤレストランシーバなどの、本開示に関係しない他の要素を含み得る。
また、モバイルプラットフォーム100は、カメラ108、モーションセンサ110、およびユーザインターフェース150に接続され、それらと通信する制御ユニット160を含む。制御ユニット160は、カメラ108およびモーションセンサ110からデータを受けて処理し、それに応じてディスプレイ102を制御する。制御ユニット160は、プロセッサ161および関連するメモリ164、ハードウェア162、ソフトウェア165、ならびにファームウェア163によって与えられ得る。制御ユニット160は、現実世界のオブジェクトを検出するために、カメラ108からの画像を処理するための画像プロセッサ166を含み得る。また、制御ユニットは、たとえば、モーションセンサ110から受け取られたデータに基づいて、および/または、カメラ108によって取得された追加の画像を用いた、視覚ベースの追跡技術に基づいて、現実世界のオブジェクトに対するモバイルプラットフォーム100の姿勢を決定および追跡するための位置プロセッサ167を含み得る。また、位置プロセッサ167は、現実世界のオブジェクトの近接度と、オブジェクトの空間的関係とを決定し得る。さらに、制御ユニット160は、現実世界のオブジェクトの位置および空間的関係に対して所望のARオブジェクトをレンダリングするために、たとえばゲームエンジンなどでもよいグラフィックスエンジン168を含み得る。グラフィックスエンジン168は、オブジェクトの近接度および/または相対位置などの、現実世界のオブジェクトの空間的関係、ならびに、(クロック170に基づいて決定されてもよい)時刻および(任意の衛星位置システム(SPS)受信機172からのデータに基づいて決定されてもよい)地理的位置などの、任意の他の所望の要因に基づいて、メモリ164内にあってもよいデータベース169からARオブジェクトを検索し得る。画像プロセッサ166、位置プロセッサ167、およびグラフィックスエンジンは、説明を簡単にするためにプロセッサ161とは別に示されているが、これらはプロセッサ161の一部でもよく、または、プロセッサ161の中で動作するソフトウェア165の命令に基づいてプロセッサの中で実施されてもよい。本明細書に使用するように、プロセッサ161は、1つまたは複数のマイクロプロセッサ、組込み型プロセッサ、コントローラ
、特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)などを含み得るが、必ずしもそれらを含む必要はないことが理解されよう。プロセッサという用語は、特定のハードウェアではなく、システムによって実施される機能について説明することを意図する。さらに、本明細書に使用するように、「メモリ」という用語は、長期メモリ、短期メモリ、またはモバイルプラットフォームに関連する他のメモリを含む任意のタイプのコンピュータ記憶媒体を指し、いかなる特定のタイプのメモリ、もしくはメモリの数、またはメモリが記憶される媒体のタイプに限定されない。
本デバイスは、画像プロセッサ166、位置プロセッサ167、ならびに、必要に応じてモーションセンサ110を含み得る、1つまたは複数の画像内の第1のオブジェクトおよび第2のオブジェクトを検出および追跡するための手段を含む。さらに、本デバイスは、位置プロセッサ167を含み得る、第1のオブジェクトと第2のオブジェクトとの間の空間的関係を決定するための手段を含む。第1のオブジェクトと第2のオブジェクトとの間の空間的関係に基づいてレンダリングする拡張オブジェクトを決定するための手段は、データベース169にアクセスする、グラフィックスエンジン168を含み得る。さらに、本デバイスは、位置プロセッサ167およびモーションセンサ110を含み得る、異なるオブジェクトに関連付けられた姿勢(モバイルプラットフォームの位置および方位)を決定するための手段を含み得る。本デバイスは、画像プロセッサ166であってもよい、オブジェクト間の距離を決定するためにオブジェクトのサイズをオブジェクト間の間隔と比較するための手段を含み得る。
本明細書で説明される方法は、用途に応じて様々な手段によって実施されてもよい。たとえば、これらの方法は、ハードウェア162、ファームウェア163、ソフトウェア165、またはそれらの任意の組合せで実施されてもよい。ハードウェアの実装形態の場合、処理ユニットは、本明細書で説明された機能を実行するように設計された、1つもしくは複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号プロセッシングデバイス(DSPD)、プログラマブル論理デバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子デバイス、他の電子ユニット、またはそれらの組合せ内で実装されてもよい。
ファームウェアおよび/またはソフトウェアの実装形態の場合、これらの方法は、本明細書で説明された機能を実行するモジュール(たとえば、プロシージャ、関数など)によって実装されてもよい。本明細書で説明された方法を実施するとき、命令を有形に具現化する任意の機械可読媒体が用いられてもよい。たとえば、ソフトウェアコードがメモリ164に記憶され、プロセッサ161によって実行されてもよい。メモリは、プロセッサ161の内部に実装されてもよく、または、プロセッサ161の外部に実装されてもよい。
機能は、ファームウェアおよび/またはソフトウェアに実装される場合、コンピュータ可読媒体上に1つもしくは複数の命令またはコードとして記憶されてもよい。例には、データ構造で符号化された非一時的なコンピュータ可読媒体、およびコンピュータプログラムで符号化されたコンピュータ可読媒体を含める。たとえば、内部に記憶されたプログラムコードを含むコンピュータ可読媒体は、ディスプレイ上に第1のオブジェクトおよび第2のオブジェクトの画像を表示するためのプログラムコードと、第1のオブジェクトを検出および追跡し、第2のオブジェクトを検出および追跡するためのプログラムコードと、第1のオブジェクトと第2のオブジェクトとの間の空間的関係を決定するためのプログラムコードと、第1のオブジェクトと第2のオブジェクトとの間の空間的関係に基づいてレンダリングする拡張オブジェクトを決定するためのプログラムコードと、ディスプレイ上に拡張オブジェクトを表示するためのプログラムコードとを含み得る。さらに、コンピュータ可読媒体は、第1のオブジェクトに関する第1の姿勢および第2のオブジェクトに関する第2の姿勢を決定するためのプログラムコードを含んでもよく、第1のオブジェクトと第2のオブジェクトとの間の距離を決定するためのプログラムコードは、距離を決定するために第1の姿勢および第2の姿勢を用いる。さらに、コンピュータ可読媒体は、第1のオブジェクトと第2のオブジェクトとの間の距離を決定するために、第1のオブジェクトおよび第2のオブジェクトのうちの少なくとも1つのサイズを、第1のオブジェクトと第2のオブジェクトとの間の間隔と比較するためのプログラムコードを含み得る。コンピュータ可読媒体は、物理的なコンピュータ記憶媒体を含む。記憶媒体は、コンピュータによってアクセスされ得る任意の利用可能な媒体でもよい。限定ではなく、例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD-ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気記憶デバイス、または、所望のプログラムコードを命令もしくはデータ構造の形で記憶するのに用いることができ、コンピュータによってアクセスすることができる任意の他の媒体を含むことができ、本明細書で使用するディスク(diskおよびdisc)には、コンパクトディスク
(disc)(CD)、レーザディスク(disc)、光ディスク(disc)、デジタル多用途ディスク(disc)(DVD)、フレキシブルディスク(disk)、およびブルーレイディスク(disc)が含まれ、ディスク(disk)は通常、データを磁気的に再生するが、ディスク(disc)はデータをレーザによって光学的に再生する。上記の組合せも、コンピュータ可読媒体の範囲内に含まれるべきである。
たとえば、内部に記憶されたプログラムコードを含むコンピュータ可読媒体は、カメラによって取得された、3Dオブジェクトを伴う2D面の画像を表示するためのプログラムコードと、その画像の2D面を検出および追跡するためのプログラムコードと、2D面に関心領域として割り当てられた領域のオクルージョンを検出するためのプログラムコードと、3Dオブジェクトの形状を決定するためのプログラムコードと、3Dオブジェクトの形状に対してレンダリングされる、2D面上の関心領域の位置を基準にしたグラフィカルオブジェクトをレンダリングおよび表示するためのプログラムコードとを含み得る。
説明のために本発明を特定の実施形態に関連して示したが、本発明はそれらに限定されない。本発明の範囲から逸脱することなく様々な適合および改変がなされてもよい。したがって、添付の特許請求の範囲の趣旨および範囲は、上記の説明に限定されるべきではない。
100 モバイルプラットフォーム
101 ハウジング
102 ディスプレイ
104 スピーカ
106 マイクロフォン
108 カメラ
109 視野
110 モーションセンサ
120 現実世界のオブジェクトA
122 現実世界のオブジェクトB
123 現実世界のオブジェクトC
126 ARオブジェクト
128 ARオブジェクト
129 ARオブジェクト
130 現実世界のオブジェクト間の距離
132 現実世界のオブジェクト間の角変位
150 ユーザインターフェース
152 キーパッド
160 制御ユニット
161 プロセッサ
162 ハードウェア
163 ファームウェア
164 メモリ
165 ソフトウェア
166 画像プロセッサ
167 位置プロセッサ
168 グラフィックスエンジン
169 データベース
170 クロック
172 SPS受信機
説明のために本発明を特定の実施形態に関連して示したが、本発明はそれらに限定されない。本発明の範囲から逸脱することなく様々な適合および改変がなされてもよい。

Claims (38)

  1. 第1のオブジェクトおよび第2のオブジェクトの画像を取得および表示するステップと、
    前記第1のオブジェクトを検出および追跡するステップと、
    前記第2のオブジェクトを検出および追跡するステップと、
    前記第1のオブジェクトと前記第2のオブジェクトとの間の空間的関係を決定するステップと、
    前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係に基づいてレンダリングする拡張オブジェクトを決定するステップと、
    前記拡張オブジェクトを表示するステップと
    を含む、方法。
  2. 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの近接度に基づいている、請求項1に記載の方法。
  3. 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、互いに前記画像内にある、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも一部に基づいている、請求項2に記載の方法。
  4. 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、前記第1のオブジェクトと前記第2のオブジェクトとの間の距離に基づいている、請求項2に記載の方法。
  5. 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、前記距離を閾値と比較することによって決定される、請求項4に記載の方法。
  6. 前記第1のオブジェクトに関する第1の姿勢および前記第2のオブジェクトに関する第2の姿勢を決定するステップと、前記距離を決定するために前記第1の姿勢および前記第2の姿勢を用いるステップとをさらに含む、請求項4に記載の方法。
  7. 前記距離を決定するために、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも1つのサイズを、前記第1のオブジェクトと前記第2のオブジェクトとの間の間隔と比較するステップをさらに含む、請求項4に記載の方法。
  8. 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの相対位置に基づいている、請求項1に記載の方法。
  9. 前記第1のオブジェクトおよび前記第2のオブジェクトの前記画像を取得および表示するステップは、前記第1のオブジェクトの第1の画像を取得および表示するステップと、前記第2のオブジェクトの第2の画像を取得および表示するステップとを含み、前記第1のオブジェクトおよび前記第2のオブジェクトは、互いにカメラの視野内に現れない、請求項1に記載の方法。
  10. 第3のオブジェクトの画像を取得および表示するステップと、
    前記第3のオブジェクトを検出および追跡するステップと、
    前記第1のオブジェクトと前記第3のオブジェクトとの間の空間的関係を決定するステップと、
    前記第1のオブジェクトと前記第3のオブジェクトとの間の前記空間的関係に基づいてレンダリングする、異なる拡張オブジェクトを決定するステップと、
    前記異なる拡張オブジェクトを表示するステップと
    をさらに含む、請求項1に記載の方法。
  11. カメラと、
    前記カメラに接続されたプロセッサと、
    前記プロセッサに接続されたメモリと、
    前記メモリに接続されたディスプレイと、
    前記プロセッサに、前記ディスプレイ上に前記カメラによって取得された第1のオブジェクトおよび第2のオブジェクトの画像を表示させ、前記第1のオブジェクトを検出および追跡させ、前記第2のオブジェクトを検出および追跡させ、前記第1のオブジェクトと前記第2のオブジェクトとの間の空間的関係を決定させ、前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係に基づいてレンダリングする拡張オブジェクトを決定させ、前記ディスプレイ上に前記拡張オブジェクトを表示させるために、前記メモリ内に保持され、前記プロセッサ内で実行されるソフトウェアと
    を含む、モバイルプラットフォーム。
  12. 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの近接度に基づいている、請求項11に記載のモバイルプラットフォーム。
  13. 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、互いに前記カメラの視野内にある、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも一部に基づいている、請求項12に記載のモバイルプラットフォーム。
  14. 前記プロセッサ内で実行される前記ソフトウェアは、前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度を決定するために、前記プロセッサに、前記第1のオブジェクトと前記第2のオブジェクトとの間の距離を決定させる、請求項12に記載のモバイルプラットフォーム。
  15. 前記プロセッサ内で実行される前記ソフトウェアは、前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度を決定するために、前記プロセッサに、前記距離を閾値と比較させる、請求項14に記載のモバイルプラットフォーム。
  16. 前記プロセッサ内で実行される前記ソフトウェアは、前記プロセッサに、前記第1のオブジェクトに関する第1の姿勢および前記第2のオブジェクトに関する第2の姿勢を決定させ、前記第1のオブジェクトと前記第2のオブジェクトとの間の前記距離を決定するために前記第1の姿勢および前記第2の姿勢を使用させる、請求項14に記載のモバイルプラットフォーム。
  17. 前記プロセッサ内で実行される前記ソフトウェアは、前記第1のオブジェクトと前記第2のオブジェクトとの間の前記距離を決定するために、前記プロセッサに、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも1つのサイズを、前記第1のオブジェクトと前記第2のオブジェクトとの間の間隔と比較させる、請求項14に記載のモバイルプラットフォーム。
  18. 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの相対位置に基づいている、請求項11に記載のモバイルプラットフォーム。
  19. 前記プロセッサ内で実行される前記ソフトウェアは、前記プロセッサに、前記ディスプレイ上に前記第1のオブジェクトの第1の画像を表示させ、前記ディスプレイ上に前記第2のオブジェクトの第2の画像を表示させ、前記第1のオブジェクトおよび前記第2のオブジェクトは、互いに前記カメラの視野内に現れない、請求項11に記載のモバイルプラットフォーム。
  20. 前記プロセッサ内で実行される前記ソフトウェアは、前記プロセッサに、前記ディスプレイ上に第3のオブジェクトの画像を表示させ、前記第3のオブジェクトを検出および追跡させ、前記第1のオブジェクトと前記第3のオブジェクトとの間の空間的関係を決定させ、前記第1のオブジェクトと前記第3のオブジェクトとの間の前記空間的関係に基づいてレンダリングする異なる拡張オブジェクトを決定させ、前記ディスプレイ上に前記異なる拡張オブジェクトを表示させる、請求項11に記載のモバイルプラットフォーム。
  21. 前記プロセッサ内で実行される前記ソフトウェアは、モーションセンサからのデータを用いて、前記プロセッサに、前記第1のオブジェクトを検出および追跡させ、前記第2のオブジェクトを検出および追跡させる、モーションセンサをさらに含む、請求項11に記載のモバイルプラットフォーム。
  22. 前記プロセッサ内で実行される前記ソフトウェアは、前記カメラによって取得された画像を用いて、前記プロセッサに、前記第1のオブジェクトを検出および追跡させ、前記第2のオブジェクトを検出および追跡させる、請求項11に記載のモバイルプラットフォーム。
  23. 第1のオブジェクトおよび第2のオブジェクトの画像を取得するための手段と、
    前記第1のオブジェクトおよび前記第2のオブジェクトを検出および追跡するための手段と、
    前記第1のオブジェクトと前記第2のオブジェクトとの間の空間的関係を決定するための手段と、
    前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係に基づいてレンダリングする拡張オブジェクトを決定するための手段と、
    前記拡張オブジェクトと、前記第1のオブジェクトおよび前記第2のオブジェクトの前記画像とを表示するための手段と
    を含む、デバイス。
  24. 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの近接度に基づいている、請求項23に記載のデバイス。
  25. 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、互いに前記画像内にある、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも一部に基づいている、請求項24に記載のデバイス。
  26. 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、前記第1のオブジェクトと前記第2のオブジェクトとの間の距離に基づいている、請求項24に記載のデバイス。
  27. 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係を決定するための前記手段は、前記距離を閾値と比較する、請求項26に記載のデバイス。
  28. 前記第1のオブジェクトに関する第1の姿勢および前記第2のオブジェクトに関する第2の姿勢を決定するための手段であって、前記第1の姿勢および前記第2の姿勢は、前記距離を決定するために用いられる、手段をさらに含む、請求項26に記載のデバイス。
  29. 前記距離を決定するために、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも1つのサイズを、前記第1のオブジェクトと前記第2のオブジェクトとの間の間隔と比較するための手段をさらに含む、請求項26に記載のデバイス。
  30. 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの相対位置に基づいている、請求項23に記載のデバイス。
  31. プロセッサにより実行可能なプログラムコードを記録するコンピュータ可読記録媒体であって、
    ディスプレイ上に第1のオブジェクトおよび第2のオブジェクトの画像を表示するためのプログラムコードと、
    前記第1のオブジェクトを検出および追跡し、前記第2のオブジェクトを検出および追跡するためのプログラムコードと、
    前記第1のオブジェクトと前記第2のオブジェクトとの間の空間的関係を決定するためのプログラムコードと、
    前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係に基づいてレンダリングする拡張オブジェクトを決定するためのプログラムコードと、
    前記ディスプレイ上に前記拡張オブジェクトを表示するためのプログラムコードと
    を含む、コンピュータ可読記録媒体。
  32. 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの近接度に基づいている、請求項31に記載のコンピュータ可読記録媒体。
  33. 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度は、互いに前記画像内にある、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも一部に基づいている、請求項32に記載のコンピュータ可読記録媒体。
  34. 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度を決定するための前記プログラムコードは、前記第1のオブジェクトと前記第2のオブジェクトとの間の距離を決定するためのプログラムコードを含む、請求項32に記載のコンピュータ可読記録媒体。
  35. 前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度を決定するための前記プログラムコードは、前記第1のオブジェクトと前記第2のオブジェクトとの前記近接度を決定するために、前記距離を閾値と比較する、請求項34に記載のコンピュータ可読記録媒体。
  36. 前記第1のオブジェクトに関する第1の姿勢および前記第2のオブジェクトに関する第2の姿勢を決定するためのプログラムコードであって、前記第1のオブジェクトと前記第2のオブジェクトとの間の前記距離を決定するための前記プログラムコードは、前記距離を決定するために前記第1の姿勢および前記第2の姿勢を用いる、プログラムコードをさらに含む、請求項34に記載のコンピュータ可読記録媒体。
  37. 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記距離を決定するための前記プログラムコードは、前記第1のオブジェクトと前記第2のオブジェクトとの間の前記距離を決定するために、前記第1のオブジェクトおよび前記第2のオブジェクトのうちの少なくとも1つのサイズを、前記第1のオブジェクトと前記第2のオブジェクトとの間の間隔と比較する、請求項34に記載のコンピュータ可読記録媒体。
  38. 前記第1のオブジェクトと前記第2のオブジェクトとの間の前記空間的関係は、前記第1のオブジェクトと前記第2のオブジェクトとの相対位置に基づいている、請求項31に記載のコンピュータ可読記録媒体。
JP2013551432A 2011-01-31 2012-01-31 コンテキストアウェアな拡張相互作用 Expired - Fee Related JP5640161B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/018,180 2011-01-31
US13/018,180 US8509483B2 (en) 2011-01-31 2011-01-31 Context aware augmentation interactions
PCT/US2012/023381 WO2012106366A2 (en) 2011-01-31 2012-01-31 Context aware augmentation interactions

Publications (2)

Publication Number Publication Date
JP2014503923A true JP2014503923A (ja) 2014-02-13
JP5640161B2 JP5640161B2 (ja) 2014-12-10

Family

ID=45607393

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013551432A Expired - Fee Related JP5640161B2 (ja) 2011-01-31 2012-01-31 コンテキストアウェアな拡張相互作用

Country Status (6)

Country Link
US (1) US8509483B2 (ja)
EP (1) EP2671188B1 (ja)
JP (1) JP5640161B2 (ja)
KR (1) KR101554797B1 (ja)
CN (1) CN103443743B (ja)
WO (1) WO2012106366A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071471A (ja) * 2014-09-29 2016-05-09 京セラドキュメントソリューションズ株式会社 物品情報提供装置、物品情報提供システム、物品情報提供方法及び物品情報提供プログラム
JP2017054185A (ja) * 2015-09-07 2017-03-16 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム
JP2020074150A (ja) * 2020-01-10 2020-05-14 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム
JP2020535534A (ja) * 2017-09-27 2020-12-03 フィッシャー−ローズマウント システムズ,インコーポレイテッド アクセス制限されたオブジェクトへの仮想アクセス

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10096161B2 (en) 2010-06-15 2018-10-09 Live Nation Entertainment, Inc. Generating augmented reality images using sensor and location data
US8810598B2 (en) 2011-04-08 2014-08-19 Nant Holdings Ip, Llc Interference based augmented reality hosting platforms
JP5885398B2 (ja) * 2011-05-20 2016-03-15 キヤノン株式会社 画像処理装置、画像処理方法
US20130050499A1 (en) * 2011-08-30 2013-02-28 Qualcomm Incorporated Indirect tracking
JP5821526B2 (ja) 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
WO2013078345A1 (en) 2011-11-21 2013-05-30 Nant Holdings Ip, Llc Subscription bill service, systems and methods
US20130159196A1 (en) * 2011-12-20 2013-06-20 Ebay, Inc. Secure PIN Verification for Mobile Payment Systems
US9087403B2 (en) 2012-07-26 2015-07-21 Qualcomm Incorporated Maintaining continuity of augmentations
US9530232B2 (en) * 2012-09-04 2016-12-27 Qualcomm Incorporated Augmented reality surface segmentation
US9336508B2 (en) * 2012-11-02 2016-05-10 Patrick Soon-Shiong Virtual planogram management, systems, and methods
US9953618B2 (en) 2012-11-02 2018-04-24 Qualcomm Incorporated Using a plurality of sensors for mapping and localization
US9159133B2 (en) * 2012-11-05 2015-10-13 Qualcomm Incorporated Adaptive scale and/or gravity estimation
US8880051B2 (en) 2012-11-16 2014-11-04 Intel Corporation Automatic seamless context sharing across multiple devices
US9449340B2 (en) * 2013-01-30 2016-09-20 Wal-Mart Stores, Inc. Method and system for managing an electronic shopping list with gestures
US9910828B2 (en) * 2013-03-12 2018-03-06 Qualcomm Incorporated Spectrometer for personal context
US20140282220A1 (en) * 2013-03-14 2014-09-18 Tim Wantland Presenting object models in augmented reality images
US10509533B2 (en) 2013-05-14 2019-12-17 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
US9904852B2 (en) * 2013-05-23 2018-02-27 Sri International Real-time object detection, tracking and occlusion reasoning
KR102105463B1 (ko) * 2013-09-02 2020-04-28 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
US10217284B2 (en) 2013-09-30 2019-02-26 Qualcomm Incorporated Augmented virtuality
US9582516B2 (en) 2013-10-17 2017-02-28 Nant Holdings Ip, Llc Wide area augmented reality location-based services
US9298298B2 (en) 2013-12-18 2016-03-29 Microsoft Technology Licensing, Llc Wearable display input system
JP6303550B2 (ja) * 2014-02-03 2018-04-04 ブラザー工業株式会社 表示プログラムおよび表示装置
US9785994B2 (en) 2014-04-10 2017-10-10 Bank Of America Corporation Providing comparison shopping experiences through an optical head-mounted displays in a wearable computer
US9626804B2 (en) 2014-05-26 2017-04-18 Kyocera Document Solutions Inc. Article information providing apparatus that provides information of article, article information providing system,and article information provision method
US10537821B2 (en) 2014-06-30 2020-01-21 Microsoft Technology Licensing, Llc Interactive play sets
WO2016041088A1 (en) * 2014-09-19 2016-03-24 Sulon Technologies Inc. System and method for tracking wearable peripherals in augmented reality and virtual reality applications
US9696757B2 (en) 2014-10-08 2017-07-04 Microsoft Corporation Transfer of attributes between generations of characters
US10369477B2 (en) 2014-10-08 2019-08-06 Microsoft Technology Licensing, Llc Management of resources within a virtual world
EP3286718A4 (en) 2015-04-23 2018-12-05 Hasbro, Inc. Context-aware digital play
US10410096B2 (en) * 2015-07-09 2019-09-10 Qualcomm Incorporated Context-based priors for object detection in images
US20180349837A1 (en) * 2017-05-19 2018-12-06 Hcl Technologies Limited System and method for inventory management within a warehouse
CN110119194A (zh) * 2018-02-06 2019-08-13 广东虚拟现实科技有限公司 虚拟场景处理方法、装置、交互系统、头戴显示装置、视觉交互装置及计算机可读介质
US10467816B2 (en) 2018-03-23 2019-11-05 Microsoft Technology Licensing, Llc Mixed reality objects
CN108932142B (zh) * 2018-04-28 2020-04-03 广州市百果园网络科技有限公司 一种画面捕捉方法及终端
US11244509B2 (en) 2018-08-20 2022-02-08 Fisher-Rosemount Systems, Inc. Drift correction for industrial augmented reality applications
CN112912937A (zh) * 2018-10-31 2021-06-04 米沃奇电动工具公司 空间感知工具系统
CN111223187B (zh) * 2018-11-23 2024-09-24 广东虚拟现实科技有限公司 虚拟内容的显示方法、装置及系统
WO2020113202A1 (en) * 2018-11-30 2020-06-04 University Of Southern California Double-blinded, randomized trial of augmented reality low-vision mobility and grasp aid
US11804014B1 (en) 2019-04-22 2023-10-31 Apple Inc. Context-based application placement
US11816887B2 (en) 2020-08-04 2023-11-14 Fisher-Rosemount Systems, Inc. Quick activation techniques for industrial augmented reality applications
KR102699811B1 (ko) * 2020-08-27 2024-08-29 삼성전자주식회사 증강 현실 컨텐트를 제공하는 전자 장치와 이의 동작 방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000066717A (ja) * 1998-08-21 2000-03-03 Toshiba Corp マンマシン・インタフェース装置
US20030179218A1 (en) * 2002-03-22 2003-09-25 Martins Fernando C. M. Augmented reality system
GB2399248A (en) * 2003-03-07 2004-09-08 British Broadcasting Corp Projection of supplementary image data onto a studio set
JP2005507109A (ja) * 2001-10-22 2005-03-10 ユニバーシティ オブ サウザーン カリフォルニア 線の自動較正によって拡張可能な追跡システム
WO2005107274A1 (en) * 2004-04-28 2005-11-10 Augmented Media Aps A system for generating virtual three dimensional projections
JP2008501184A (ja) * 2004-05-28 2008-01-17 シンガポール国立大学 インタラクティブ・システム及び方法
JP2010026818A (ja) * 2008-07-18 2010-02-04 Geisha Tokyo Entertainment Inc 画像処理プログラム、画像処理装置及び画像処理方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6757068B2 (en) * 2000-01-28 2004-06-29 Intersense, Inc. Self-referenced tracking
US6891518B2 (en) 2000-10-05 2005-05-10 Siemens Corporate Research, Inc. Augmented reality visualization device
WO2004042662A1 (en) 2002-10-15 2004-05-21 University Of Southern California Augmented virtual environments
WO2005094109A1 (en) 2004-03-18 2005-10-06 Nokia Corporation Position-based context awareness for mobile terminal device
JP4642538B2 (ja) * 2005-04-20 2011-03-02 キヤノン株式会社 画像処理方法および画像処理装置
US8933889B2 (en) 2005-07-29 2015-01-13 Nokia Corporation Method and device for augmented reality message hiding and revealing
CN101369181B (zh) * 2007-08-17 2015-03-04 财团法人工业技术研究院 惯性感测输入控制装置与接收装置及其互动系统
KR100900806B1 (ko) 2007-11-01 2009-06-04 광주과학기술원 컨텍스트 인식 증강 현실을 제공하기 위한 시스템 및 방법
US20120120103A1 (en) * 2010-02-28 2012-05-17 Osterhout Group, Inc. Alignment control in an augmented reality headpiece
US8315674B2 (en) * 2010-10-08 2012-11-20 Research In Motion Limited System and method for displaying object location in augmented reality

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000066717A (ja) * 1998-08-21 2000-03-03 Toshiba Corp マンマシン・インタフェース装置
JP2005507109A (ja) * 2001-10-22 2005-03-10 ユニバーシティ オブ サウザーン カリフォルニア 線の自動較正によって拡張可能な追跡システム
US20030179218A1 (en) * 2002-03-22 2003-09-25 Martins Fernando C. M. Augmented reality system
GB2399248A (en) * 2003-03-07 2004-09-08 British Broadcasting Corp Projection of supplementary image data onto a studio set
WO2005107274A1 (en) * 2004-04-28 2005-11-10 Augmented Media Aps A system for generating virtual three dimensional projections
JP2008501184A (ja) * 2004-05-28 2008-01-17 シンガポール国立大学 インタラクティブ・システム及び方法
JP2010026818A (ja) * 2008-07-18 2010-02-04 Geisha Tokyo Entertainment Inc 画像処理プログラム、画像処理装置及び画像処理方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016071471A (ja) * 2014-09-29 2016-05-09 京セラドキュメントソリューションズ株式会社 物品情報提供装置、物品情報提供システム、物品情報提供方法及び物品情報提供プログラム
JP2017054185A (ja) * 2015-09-07 2017-03-16 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム
JP2020535534A (ja) * 2017-09-27 2020-12-03 フィッシャー−ローズマウント システムズ,インコーポレイテッド アクセス制限されたオブジェクトへの仮想アクセス
JP7198276B2 (ja) 2017-09-27 2022-12-28 フィッシャー-ローズマウント システムズ,インコーポレイテッド アクセス制限されたオブジェクトへの仮想アクセス
JP2020074150A (ja) * 2020-01-10 2020-05-14 株式会社東芝 情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
CN103443743B (zh) 2016-06-29
KR20130116355A (ko) 2013-10-23
EP2671188B1 (en) 2019-05-22
US8509483B2 (en) 2013-08-13
KR101554797B1 (ko) 2015-09-21
JP5640161B2 (ja) 2014-12-10
CN103443743A (zh) 2013-12-11
WO2012106366A3 (en) 2012-10-26
US20120195460A1 (en) 2012-08-02
WO2012106366A2 (en) 2012-08-09
EP2671188A2 (en) 2013-12-11

Similar Documents

Publication Publication Date Title
JP5640161B2 (ja) コンテキストアウェアな拡張相互作用
JP5766821B2 (ja) ユーザのモバイルプラットフォームに対する位置に基づく補正像の提供
JP6043856B2 (ja) Rgbdカメラを用いた頭部ポーズ推定
US10109065B2 (en) Using occlusions to detect and track three-dimensional objects
US20120195461A1 (en) Correlating areas on the physical object to areas on the phone screen
US9785836B2 (en) Dataset creation for tracking targets with dynamically changing portions
KR20200130472A (ko) 깊이 힌트를 사용하는 깊이 추정 모델의 자가 감독 훈련
US20140126769A1 (en) Fast initialization for monocular visual slam
US9025823B2 (en) Tracking texture rich objects using rank order filtering
US11410330B2 (en) Methods, devices, and systems for determining field of view and producing augmented reality
US8854393B2 (en) Information processing device, information processing method, and program
CN115500083A (zh) 使用神经网络的深度估计
US20230377279A1 (en) Space and content matching for augmented and mixed reality
US9230366B1 (en) Identification of dynamic objects based on depth data
JP6393000B2 (ja) 3dマップに関する仮説的ラインマッピングおよび検証

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20130822

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140804

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141027

R150 Certificate of patent or registration of utility model

Ref document number: 5640161

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees