JP5976019B2 - 写実的に表されたビューのテーマベースの拡張 - Google Patents

写実的に表されたビューのテーマベースの拡張 Download PDF

Info

Publication number
JP5976019B2
JP5976019B2 JP2013557791A JP2013557791A JP5976019B2 JP 5976019 B2 JP5976019 B2 JP 5976019B2 JP 2013557791 A JP2013557791 A JP 2013557791A JP 2013557791 A JP2013557791 A JP 2013557791A JP 5976019 B2 JP5976019 B2 JP 5976019B2
Authority
JP
Japan
Prior art keywords
display
physical environment
extension
user
spatial model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013557791A
Other languages
English (en)
Other versions
JP2014515130A (ja
JP2014515130A5 (ja
Inventor
ウィグドー,ダニエル・ジェイ
テデスコ,メーガン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Microsoft Technology Licensing LLC
Original Assignee
Microsoft Corp
Microsoft Technology Licensing LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp, Microsoft Technology Licensing LLC filed Critical Microsoft Corp
Publication of JP2014515130A publication Critical patent/JP2014515130A/ja
Publication of JP2014515130A5 publication Critical patent/JP2014515130A5/ja
Application granted granted Critical
Publication of JP5976019B2 publication Critical patent/JP5976019B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three-dimensional [3D] modelling for computer graphics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating three-dimensional [3D] models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

[0001]ユーザがその中で没頭できる仮想環境をシミュレートするための仮想現実システムが存在する。
仮想環境を表示するために、ヘッドアップディスプレイ、ヘッドマウントディスプレイなどのディスプレイが利用され得る。ユーザが完全に没頭するのでなく、むしろ、実環境と多少つながった状態を保つ仮想現実体験をユーザに提供することが望ましい場合がある。したがって、ユーザの実世界環境の認識をグラフィック、音声などで拡張するための拡張現実システムが開発されている。ある例として、実物体に仮想画像を統合した、パイロットの訓練およびシミュレーションのためのコックピット・シミュレーション環境を提供するために、拡張現実システムが使用され得る。
既存の拡張現実技術は、通常、仮想要素が適切に統合され得るように、シミュレーション環境の事前に設定されたモデルなど、所定のデータに依存する。
[0002]本開示の一態様によれば、ユーザが選択したテーマに従って、ユーザの自らの環境のビューが拡張される。詳細には、ディスプレイは、ユーザの視点からの、ユーザの環境の写実的に表されたビュー(photorepresentative view)をユーザに提供する。このディスプレイはまた、ビューを拡張するように、ユーザが選択したテーマに関連する(1つまたは複数の)拡張を表示する。そのような(1つまたは複数の)拡張の表示は、拡張され得る特徴を識別するためにリアルタイムで生成および解析される物理的環境の空間モデルに基づく。そのような識別された特徴は、物理的環境内の物理的特徴に対応する。
[0003]この「発明の概要」は、「発明を実施するための形態」においてさらに後述される概念の選択を簡素化された形で紹介するために提供される。この「発明の概要」は、特許請求される主題の主な特徴または重要な特徴を識別することが意図されず、特許請求される主題の範囲を限定するために使用されることも意図されない。さらに、特許請求される主題は、本開示のいずれかの部分に記述される何らかのまたはすべての不利点を解決する実装形態に限定されない。
本開示の一実施形態による、一例示的な使用環境を示す図である。 本開示の一実施形態による、別の例示的な使用環境を示す図である。 本開示の一実施形態による写実的に表されたビューのテーマベースの拡張を提供する、一例示的な方法を示す図である。 本開示の一実施形態による、ある空間モデルを形成するステップの一例示的な概略図である。 本開示の一実施形態による、一例示的なテーマベースの拡張を示す図である。 本開示の一実施形態による、一例示的なコンピューティングシステムを示す図である。
[0010]写実的に表されたビューのテーマベースの拡張を実現することに関する実施形態が本明細書で開示される。写実的に表されたビューは、ディスプレイによって提供され、ユーザの視点からの、ユーザが位置する物理的環境のビューの実質的に現実的な(例えば、写真のような)表現である。自らの環境のユーザの認識をそのように拡張することは、ユーザが、自らの環境自体と多少つながった状態を保ちながら、自らの環境のテーマに合わせたビューを体験することを可能にする。
[0011]本開示の態様が、次に、例として、上に記載された、例示される実施形態を参照して記述される。1つまたは複数の実施形態内で実質的に同じ可能性がある構成要素、プロセスステップ、およびその他の要素は、連係して識別され、反復を最小限に抑えて記述される。しかし、連係して識別される要素は、ある程度異なる場合もある点に留意されよう。本明細書に含まれる図面は、概略図であり、全体に原寸に比例して描かれていない点にさらに留意されよう。むしろ、様々な図面の縮尺、アスペクト比、および図面に示される構成要素の数は、ある種の特徴または関係をより分かり易くするために、意図的に歪められる場合がある。
[0012]図1Aは、本開示のある実施形態による、ある例示的な使用環境、すなわち、ユーザ102が位置する物理的環境100の概略図を示す。図1Aは、例示のためであり、原寸に比例して描かれていない点を理解されたい。さらに、物理的環境100は、この例で、居間として示されるが、そのような環境は例示的であり、限定的であることが決して意図されない点を理解されたい。むしろ、物理的環境100は、屋内環境、屋外環境、慣れた環境、不慣れな環境などを含むが、これらに限定されない、ユーザ102が位置する、事実上、いかなるタイプの物理的環境であってもよい。ユーザ102に加えて、物理的環境100は、ソファー104aと、コーヒーテーブル104bと、犬104cとを含めて、いくつかの物理的な特徴104をさらに含む。
[0013]図1Aは、ディスプレイ出力を介してテーマベースの拡張を提供するためのディスプレイシステム106をさらに示す。ディスプレイシステム106は、ユーザ102の視点からの物理的環境100の写実的に表されたビューを提供するように構成されたディスプレイ108を含む。ディスプレイ108の非限定的な例は、ヘッドアップディスプレイ(HUD)、ヘッドマウントディスプレイ(HMD)などを含む。
[0014]いくつかの実施形態では、ディスプレイ108は、1つまたは複数の十分に透過的な部分を有する光透過型ディスプレイ(optical see−through display)であってもよい。そのようなディスプレイは、それを介して物理的環境がユーザに可視である(1つまたは複数の)透過的な部分を介して写実的に表されたビューを提供する。しかし、他の実施形態では、ディスプレイ108は、その環境の空間モデルの完全にレンダリングされた画像を表示することによって、写実的に表されたビューを提供するように構成された没頭型ディスプレイであってもよい。
[0015]ディスプレイシステム106は、写実的に表されたビューを拡張するためのテーマを選択する入力を含めて、1つまたは複数のユーザ入力を(例えば、入力デバイスを経由して)受けるように構成される。それに応じて、ディスプレイシステム106は、物理的特徴104など、そのテーマに従って拡張され得る環境内の物理的特徴(例えば、物体、人々、建物など)を識別し、次いで、(例えば、写実的に表されたビューの少なくともいくつかを依然として提供しながら)そのような拡張を表示する。このように、ユーザ102は、その環境自体と多少つながった状態を保ちながら、物理的環境100のテーマに合わせたビューを体験する。
[0016]ある例として、ディスプレイ108は、選択されたテーマに従って物理的環境100を拡張できるように、ユーザ102がオーバーレイしている物理的特徴104として認知する画像を表示することができる。図2を参照して以下でより詳細に記述されるように、そのようなディスプレイシステムは、ディスプレイシステムがその環境の空間モデルを生成するために利用できる、物理的環境100に関する情報を取得するために、デプスカメラ(depth camera)などの画像キャプチャデバイスを利用することができる。このディスプレイシステムは、次いで、そのモデルを解析して、拡張され得るモデル内の特徴を識別することができる。
[0017]図1Aに例示されたようなディスプレイシステム106は、非限定的である点を理解されたい。その他の実施形態では、ディスプレイ108において写実的に表されたビューを提供できるように、ディスプレイシステムの1つまたは複数の構成要素は、外部で実装されてもよい。図1Bは、ディスプレイシステム106Bがディスプレイ108で見るための写実的に表されたビューを提供/送信する、別の例示的な物理的環境内、すなわち、物理的環境100B内のユーザ102の概略図を示す。図3を参照して以下でより詳細に記述されるように、そのようなディスプレイシステムは、例えば、ユーザ102と物理的環境とを追跡して、ユーザの視点から、物理的環境の空間モデルを生成するために、デプスカメラなどの画像キャプチャデバイスが利用され得る。
[0018]ディスプレイシステム(例えば、ディスプレイシステム106、ディスプレイシステム106B)は、任意の適切な様式でテーマベースの拡張を提供するように構成され得る。図2は、写実的に表されたビューのテーマベースの拡張を提供する、ある例示的な方法200を示す。そのような方法は、例えば、その中に格納された命令を実行することによって、ディスプレイシステム(例えば、ディスプレイシステム106、ディスプレイシステム106B)によって提供可能である。
[0019]202で、方法200は、写実的に表されたビューを拡張する際に使用するためのテーマを選択する入力をユーザから受けるステップを含む。そのような入力は、ディスプレイ(例えば、ディスプレイ108)において、もしくは別の場所で表示されるユーザ選択可能ボタン、仮想ボタン、またはその他のユーザインターフェースなど、ディスプレイシステムと通信するように構成された入力デバイスから受けることができる。
[0020]204で、方法200は、物理的環境の環境情報を光学的に、かつリアルタイムで取得するステップを含む。そのような環境情報は、物理的環境と、図1Aに例示された物理的環境100の物理的特徴104など、その特徴とを記述する何らかの適切な情報であってもよい。適切な環境情報の例は、(例えば、色彩情報、奥行き情報、赤外線情報など)画像データ、寸法データ、表面データ、動きデータ、音声データなどを含むが、これらに限定されない。
[0021]ディスプレイシステム(例えば、ディスプレイシステム106、ディスプレイシステム106B)は、任意の適切な様式で物理的環境(例えば、物理的環境100、物理的環境100B)の環境情報を取得するように構成され得る。非限定的な例として、ディスプレイシステムは、そのような環境情報を光学的に、かつリアルタイムで取得するように構成された、1つまたは複数のセンサをさらに含むことが可能である。したがって、方法200は、206に示されるように、ディスプレイに関連する1つまたは複数のセンサを経由して環境情報を検出するステップを含むことが可能である。
[0022]いくつかの実施形態では、そのような(1つまたは複数の)センサは、ユーザ102の視点から環境情報をキャプチャできるように、ディスプレイ108の近位に配置されてもよい。図1Aは、ディスプレイ108に関連し、かつディスプレイ108の近位に配置された、そのようなある例示的なセンサ110を示す。しかし、別の例として、図1Bは、ディスプレイ108に関連するが、ディスプレイ108から離れて配置された、ある例示的なセンサ110Bを示す。後者の場合、ディスプレイシステム106Bは、検出された情報に基づいて、ユーザ102の視点を判断するように構成され得る。非限定的な例として、センサは、物理的環境とその特徴の観察された場面とを視覚的に監視または追跡する、デプスカメラなどのキャプチャデバイスを含むことが可能である。中でも、ディスプレイシステム106Bがユーザの現在の視点および/または変化する視点を反映する写実的に表されたビューを提供できるように、ユーザ102の位置および向きを追跡することによって、ディスプレイシステム106Bは情報をディスプレイ108に送信することができる。
[0023]208で、方法200は、環境情報に基づいて、物理的環境の空間モデルを生成するステップを含む。そのような空間モデルは、二次元モデル、三次元モデルなど、ユーザの視点から物理的環境を表すための任意の適切なモデルであってもよい。空間モデルは、ユーザの眺めから、物理的環境の写実的に表されたビュー内のほぼどんな1つまたは複数の物理的な特徴の表現も含むことができる。詳細には、空間モデルは、物理的環境の表現と、物理的環境内の物体の表現とを含む。空間モデルは、したがって、環境内の物体の空間的な配置と、互いに対する相対的は配置とを示す。ある非限定的な例として、空間モデルは、コンピュータ生成されたモデルであってもよい。加えて、変化するユーザの視点を明らかにするために、モデルはリアルタイムで動的に更新され得る。
[0024]図3は、奥行き画像解析を用いたディスプレイシステムの事例に関する空間モデルを形成するステップのある例示的な概略図を示す。図3は、センサ110が観察された場面112を検出する図1Aを参照して以下でより詳細に議論されるが、そのような議論は、センサ110Bが観察された場面112Bを検出する図1Bにも適用できる点を理解されたい。前者の場合、センサ110は、ディスプレイ108の近位に配置され、したがって、取得される環境情報は、既に、ユーザの視点からである(例えば、センサは、ユーザの頭の動きの結果として狙いを定める)。後者の場合、センサ110Bはディスプレイ108から離れて配置されているため、ディスプレイシステムは、ユーザの眺めから物理的環境の空間モデルを生成するために、環境情報からユーザの視点(例えば、身体的な位置/向き、視線など)を判断することができる。
[0025]図3を続けると、ディスプレイシステム106の奥行き画像解析システムは、センサ110(例えば、デプスカメラ)を利用して、センサ110によって観察された、観察された場面112内の物理的環境100の物理的特徴(例えば、物体、人々など)を視覚的に監視または追跡することができる。示される例では、犬104cの形の物理的特徴がセンサ110によって追跡される。図3で例示されるシナリオは、ある例として提供されるが、限定的であることが決して意図されない点を理解されたい。反対に、例示されるシナリオは、本開示の範囲から逸脱せずに、様々な異なる用途に適用され得る概括的な概念を明示することが意図される。したがって、観察された場面112内のその他の物理的特徴は、加えて、またはその代わりに、センサ110によって追跡されることもある。
[0026]図3は、仮想アバター316を生成するために使用され得る仮想骨格338として、観察された場面112内の犬104cがモデル形成される簡素化された処理パイプラインを示す。環境内の物理的特徴のそれぞれをそのようにモデル形成することによって、その環境の空間モデルが生成され得る。したがって、アバター、仮想物体、表面、床などは、その物理的な対照物の追跡された配置、向き、動きなどを正確に表すために、空間モデル内で適切にパラメーター化され、それにより、物理的環境の正確な表現を提供する空間モデルを生み出す。処理パイプラインは、本開示の範囲から逸脱せずに、図3に示されたステップ以外の追加のステップおよび/または代替のステップを含むことが可能である点を理解されよう。
[0027]図3に示されるように、簡素化された処理パイプラインは、対象(例えば、犬104c)が、センサ110(例えば、デプスカメラ)などのキャプチャデバイスによって撮像されることから始まる。環境内のいくつかの対象、ならびに環境自体(例えば、壁、床など)も撮像可能である点を理解されたい。デプスカメラは、それぞれの画素に関して、デプスカメラに対して、観察された場面内の表面の奥行きを判断することができる。本開示の範囲から逸脱せずに、事実上、いかなる奥行き検出技術が使用されもよい。例示的な奥行き検出技術の例は、図5のキャプチャデバイス518を参照してより詳細に議論される。
[0028]奥行きマップ(depth map)336を生成するために、それぞれの画素に関して判断された奥行き情報が使用され得る。そのような奥行きマップは、観察された場面のそれぞれの画素に関する奥行き値を含むマトリックスに限定されないが、そのようなマトリックスを含めて、事実上、いかなる適切なデータ構造の形をとってもよい。図3では、奥行きマップ336は、対象の輪郭の画素化されたグリッドとして概略的に示される。この例示は、技術的な精度に関するものではなく、理解し易くするためである。奥行きマップは、概して、対象を撮像する単なる画素ではなく、すべての画素に関する奥行き情報を含み、センサ110の眺めは結果として図3に示される輪郭をもたらさない点を理解されたい。
[0029]いくつかの実施形態では、仮想骨格338は、対象の機械可読表現を提供するために、奥行きマップ336から導出され得る。すなわち、仮想骨格338は、対象をモデル形成するために、奥行きマップ336から導出され得る。仮想骨格338は、任意の適切な様式で奥行きマップから導出され得る。いくつかの実施形態では、1つまたは複数の骨格調整アルゴリズム(skeletal fitting algorithms)が奥行きマップに適用され得る。本開示は、事実上、いかなる骨格モデル形成技法とも互換性がある。
[0030]仮想骨格338は、複数の関節を含むことが可能であり、それぞれの関節は対象の一部に対応する。図3では、仮想骨格338は、多関節棒線図として示される。この例示は、技術的な精度に関するものではなく、理解し易くするためである。本開示による仮想骨格は、そのそれぞれが、事実上、任意の数のパラメーター(例えば、三次元の関節位置、関節回転、対応する身体部分の体位(例えば、開いた手、握った手など)など)に関連し得る、任意の数の関節を含むことが可能である。仮想骨格は、複数の骨格関節のそれぞれに関する1つまたは複数のパラメーター(例えば、それぞれの関節に関するx位置、y位置、z位置、および回転を含む関節マトリックス)を含めて、データ構造の形をとってよい点を理解されたい。いくつかの実施形態では、(例えば、ワイヤーフレーム、形状プリミティブ(shape primitives)のセットなど)他のタイプの仮想骨格が使用され得る。
[0031]図3に示されるように、仮想アバター316が生成され得る。そのようなアバターは、その環境に対応する空間モデル内の対象の仮想表現を提供する。より詳細には、仮想骨格338は、追跡された対象をモデル形成し、仮想骨格338に基づいて仮想アバター316が生成されるため、仮想アバター316は、空間モデル内の対象のデジタル表現として機能する。そのように空間モデルを生成することによって、空間モデルの任意の1つまたは複数の部分が、オプションで、表示のためにレンダリングされ得る点を理解されたい。さらに、そのような空間モデルは、そのモデル内のデジタル表現の特性が修正されて、表示のためにレンダリングされ得るという点で拡張をサポートする。
[0032]物理的環境内の物体をモデル形成するための上述の技法は単一の対象をモデル形成することに関するが、そのような記述は非限定的である点を理解されたい。したがって、本開示の範囲から逸脱せずに、上述の技法を使用して、いくつかの対象がモデル形成され得る。また、上に示されたように、床、壁、天井など、動く対象以外の物理的特徴がモデル形成されることも可能である。
[0033]このように、物理的環境とその特徴とをモデル形成することによって、物理的環境の空間モデルが生成され得る。環境情報は光学的に、かつリアルタイムで取得され得るため、空間モデルがリアルタイムで生成および/または更新可能であるだけでなく、さらに、空間モデルは事前に設定されたデータに依存する必要がない。したがって、従来のシミュレーション環境と異なり、ユーザは、ディスプレイシステムがそれに関して(例えば、事前に構成された空間モデル、GPSデータなど)既存の知識をわずかに有するか、または既存の知識を全く有さない「新しい」環境内でそのようなディスプレイシステムを利用することができる。したがって、ユーザは、それに関してシステムが事前の情報を有さない新しい環境を含めて、様々な異なる物理的環境に関するテーマベースの拡張を体験することができる。
[0034]図2に戻ると、空間モデルを生成するとすぐに、方法200は、次に、210で、空間モデルの解析を介して、それぞれが物理的環境内の1つまたは複数の物理的特徴に対応する、空間モデル内の1つまたは複数の特徴を識別するステップを含む。このように、ディスプレイシステムは、環境のユーザのビュー内の特徴を判断する。そのような解析は、物体認識、ジェスチャー認識、顔認識、ボイス認識、音声認識など、任意の適切な解析を含むことが可能である。いくつかの事例では、そのような解析は、(例えば、物体の寸法を示す)概括的な記述などを生み出すことが可能であるのに対して、他の事例では、そのような解析は、(例えば、物体が犬であることを示す)より詳細な記述を生み出すことが可能である。
[0035]図2を続けると、212で、方法200は、次に、そのような解析に基づいて、1つまたは複数の識別された特徴の1つまたは複数の拡張をディスプレイ(例えば、ディスプレイ108)において表示するステップを含む。いくつかの実施形態では、この拡張は、例えば、物理的環境の写実的に表されたビューのうちの少なくとも一部を依然として提供しながら表示され得る。(1つまたは複数の)拡張は、ユーザによって選択されたテーマに関連する。いくつかの実施形態では、(1つまたは複数の)拡張は、そのテーマに関連する複数の拡張から選択されることがあり、そのような選択は、214に示されるように、空間モデル内で識別された特徴に基づく。例えば、大きな物体が空間モデル内で識別された場合、そのテーマに関連して利用可能な拡張から、寸法の点で類似の程度の拡張が選択され得る。例えば、長椅子など、居間の比較的大きな物体は、結果として、テーマ内の特定の利用可能な拡張(例えば、中世のテーマで、大きな城)を使用させることが可能である。自然/森林のテーマを仮定すると、物理的環境内の背が高く細い物体は仮想木でオーバーレイされ得る。
[0036]表示される拡張は、ユーザに提供される写実的に表されたビューを拡張する、事実上、いかなるタイプの仮想画像であってもよい。ある例として、216に示されるように、ユーザの視点から、物理的環境内の対応する物理的特徴をオーバーレイする画像が表示され得る。ある非限定的な例として、空間モデル内で識別された特徴に仮想皮膚が適用されることもあり、仮想皮膚の画像が表示され得る。この皮膚はモデル内の特徴に適用されたため、表示される皮膚は、ユーザによれば、その環境内の対応する物理的特徴をオーバーレイするように見えることになる。
[0037]図4は、図1Aのユーザ102に関するある例を示し、ユーザは中世のテーマを選択した。この例では、ディスプレイシステム106は、物理的環境100の空間モデルを生成して、物理的特徴、すなわち、ソファー104aと、コーヒーテーブル104bと、犬104cとを識別した。そのような解析に基づいて、400で拡張されたビュー内で例示される、写実的に表されたビューの拡張がディスプレイ108に表示される。そのような拡張を表示することは、ユーザがソファー104a上にオーバーレイされた城402と、コーヒーテーブル104b上にオーバーレイされた緑樹404と、犬104c上にオーバーレイされた衣装406とを見ることを可能にする。これらの拡張の表示は空間モデルの解析に基づくため、これらの拡張は物理的環境に合わせてカスタマイズされる。例えば、城402は、ソファー104aの寸法および特徴に対応するようにカスタマイズされ得る。さらに、新しい環境情報が取得されるにつれて、空間モデルはリアルタイムで更新され得るため、これらの拡張の表示もリアルタイムで更新され得る。したがって、ユーザが物理的環境の中を移動する際に、これらの拡張の表示を維持することができ、ユーザがテーマベースの体験を続けることを可能にする。したがって、これらの拡張の表示はいかなる意味でも「静的」ではない。反対に、ユーザが移動するにつれて、ユーザの動的な変化する視点に従って拡張が継続的に表示されるように、これらの拡張の表示は動的に調整されてもよい。
[0038]図4に例示されるシナリオは、ある例として提供され、限定的であることが決して意図されない点を理解されたい。反対に、例示されるシナリオは、本開示の範囲から逸脱せずに、様々な異なる用途に適用され得る概括的な概念を明示することが意図される。
[0039]図2を続けると、この拡張は、任意の適切な様式で表示されてもよい。例えば、光透過型ディスプレイの場合、ユーザは、ディスプレイの光透過部分によって提供される写実的に表されたビューを経由して、その環境を既に見ている可能性がある。そのような場合、ユーザの視点から、物理的環境内の対応する物理的特徴をオーバーレイする仮想物体の1つまたは複数の画像がディスプレイ上に表示され得る。したがって、218に示されるように、表示された画像はユーザのビューを拡張する。このようにして、自らの環境自体と多少つながった状態を保ちながら、その環境のテーマベースの体験がユーザに提供される。
[0040]あるいは、没頭型ディスプレイの場合、ユーザは、空間モデルの完全にレンダリングされた画像を介して提供された写実的に表されたビューを経由してその環境を既に見ている可能性がある(例えば、ユーザがそのディスプレイの光透過部分を介して場面を直接的に見るのではなく、ディスプレイ全体がレンダリングされる)。そのような場合、空間モデル内で識別された1つまたは複数の特徴は修正されることがあり、それに応じて、空間モデルのそのような修正を反映する、空間モデルの完全にレンダリングされた画像が表示され得る。空間モデル内で識別された特徴は十分に保持され得るため、220に示されるように、ユーザは、環境内の物理的特徴のオーバーレイとして、それらの修正を認識することができる。
[0041]したがって、ディスプレイが光透過型ディスプレイであるか、または没頭型ディスプレイであるかにかかわらず、その環境自体と多少つながった状態を保ちながら、その環境のテーマベースの体験がユーザに提供される。すなわち、典型的には、例えば、物理的環境の正確なビューに、写真のような、比較的高いレベルの忠実性(fidelity)を提供して、表示される内容の一部がフォトレプリゼンタティブ状態に留まる。すなわち、いくつかの事例では、空間モデルに応答して選択された適切なテーマベースの修正を用いて、物理的環境全体がオーバーレイされること、覆われる(skinned)ことなどが可能である。
[0042]さらに、ディスプレイシステムは環境情報を光学的に、かつリアルタイムで取得するため、222に示されるように、ユーザが物理的環境の中を移動するにつれて、拡張の表示が維持され得る。すなわち、ユーザが物理的環境内で移動するにつれて、拡張が動的に表示され、その結果として、写実的に表されたビュー内に変更をもたらすことが可能である。いくつかの実施形態では、これは、ユーザの視点がやはりリアルタイムで変更する場合ですら、ユーザの視点に従って、表示された拡張が引き続き表示されるように、拡張および/または空間モデルを修正するステップを含むことが可能である。したがって、ユーザがその環境の中を移動するにつれて、かつ/またはその環境と相互作用するにつれて、ユーザはテーマベースの体験を自然に続けることができる。
[0043]いくつかの実施形態では、上述の方法およびプロセスは、1つまたは複数のコンピュータを含むコンピューティングシステムに連結され得る。詳細には、本明細書に記述される方法およびプロセスは、コンピュータアプリケーション、コンピュータサービス、コンピュータAPI、コンピュータライブラリ、および/またはその他のコンピュータプログラム製品として実施され得る。
[0044]図5は、上述の方法およびプロセスのうちの1つまたは複数を実行することが可能な非限定的なコンピューティングシステム500を概略的に示す。コンピューティングシステム500は簡素化された形で示される。本開示の範囲から逸脱せずに、事実上、いかなるコンピュータアーキテクチャが使用されてもよい点を理解されたい。様々な実施形態で、コンピューティングシステム500は、メインフレームコンピュータ、サーバーコンピュータ、デスクトップコンピュータ、ラップトップコンピュータ、タブレットコンピュータ、ホーム・エンターテイメント・コンピュータ、ネットワーク・コンピューティング・デバイス、モバイル・コンピューティングデバイス、モバイル通信デバイス、ゲームデバイスなどの形をとってもよい。
[0045]コンピューティングシステム500は、論理サブシステム502とデータ保持サブシステム504とを含む。コンピューティングシステム500は、ディスプレイサブシステム506、通信サブシステム508、環境サブシステム510、解析サブシステム512、および/または図5に示されない他の構成要素をオプションで含むことが可能である。コンピューティングシステム500は、例えば、キーボード、マウス、ゲームコントローラ、カメラ、マイクロフォン、および/またはタッチスクリーンなどのユーザ入力デバイスをオプションで含むことも可能である。
[0046]論理サブシステム502は、1つまたは複数の命令を実行するように構成された1つまたは複数の物理的デバイスを含むことが可能である。例えば、論理サブシステムは、1つもしくは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、構成要素、データ構造、またはその他の論理的構造の一部である、1つもしくは複数の命令を実行するように構成され得る。そのような命令は、タスクを実行するため、データタイプを実行するため、1つもしくは複数のデバイスの状態を変更するため、またはそうでない場合、所望される結果を達するために実施され得る。
[0047]論理サブシステムは、ソフトウェア命令を実行するように構成された1つまたは複数のプロセッサを含むことが可能である。加えて、またはその代わりに、論理サブシステムは、ハードウェア命令またはファームウェア命令を実行するように構成された1つもしくは複数のハードウェア論理マシンあるいはファームウェア論理マシンを含むことが可能である。論理サブシステムのプロセッサは、シングルコアであってもよく、またはマルチコアであってもよく、プロセッサにおいて実行されるプログラムは、並行処理用に構成されても、または分散型処理用に構成されてもよい。論理サブシステムは、遠隔で配置されてもよく、かつ/または協調的な処理用に構成されてもよい、2つ以上のデバイスを通して分散された個々の構成要素をオプションで含むことが可能である。論理サブシステムの1つまたは複数の態様は、仮想化されて、クラウドコンピューティング構成で構成された、遠隔でアクセス可能なネットワーク接続されたコンピューティングデバイスよって実行可能である。
[0048]データ保持サブシステム504は、ディスプレイと1つもしくは複数のセンサ(例えば、センサ516)とに動作可能に結合され得、本明細書に記述される方法およびプロセスを実行するために論理サブシステムによって実行可能なデータならびに/または命令を保持するように構成された、1つもしくは複数の物理的な非一時的デバイスを含むことが可能である。そのような方法およびプロセスが実施されるとき、データ保持サブシステム504の状態は(例えば、異なるデータを保持するように)変換され得る。
[0049]データ保持サブシステム504は、取外し可能媒体および/または内蔵型デバイスを含むことが可能である。データ保持サブシステム504は、中でも、(例えば、CD、DVD、HD−DVD、Blu−Rayディスクなど)光メモリデバイス、(例えば、RAM、EPROM、EEPROMなど)半導体メモリデバイス、および/または(例えば、ハードディスクドライブ、フロッピー(登録商標)ディスクドライブ、テープドライブ、MRAMなど)磁気メモリデバイスを含むことが可能である。データ保持サブシステム504は、以下の特性、すなわち、揮発性特性、不揮発性特性、動的特性、静的特性、読取り/書込み特性、読取り専用特性、ランダムアクセス特性、シーケンシャルアクセス特性、位置アドレス可能(location addressable)特性、ファイルアドレス可能(file addressable)特性、およびコンテンツアドレス可能(content addressable)特性のうちの1つまたは複数を備えたデバイスを含むことが可能である。いくつかの実施形態では、論理サブシステム502およびデータ保持サブシステム504は、特定用途向け集積回路またはシステムオンチップなど、1つもしくは複数の共通デバイス内に統合され得る。
[0050]図5は、本明細書に記述される方法とプロセスとを実施するために実行可能なデータおよび/もしくは命令を記憶ならびに/または転送するために使用され得る、取外し可能なコンピュータ可読記憶媒体514の形のデータ保持サブシステムのある態様をやはり示す。取外し可能なコンピュータ可読記憶媒体514は、中でも、CD、DVD、HD−DVD、Rlu−Rayディスク、EEPROM、および/またはフロッピー(登録商標)ディスクの形をとってもよい。
[0051]データ保持サブシステム504は、1つまたは複数の物理的な非一時的デバイスを含む点を理解されたい。対照的に、いくつかの実施形態では、本明細書に記述される命令の態様は、少なくとも有限存続期間にわたって物理的デバイスによって保持されないピュアな信号(pure signal)(例えば、電磁信号、光信号など)によって一時的な形で伝搬され得る。さらに、本開示に関するデータおよび/または他の形の情報はピュアな信号によって伝搬され得る。
[0052]ディスプレイサブシステム506は、含まれるとき、データ保持サブシステム504によって保持されるデータの視覚的表現(例えば、仮想アバターおよび/または三次元仮想世界)を提示するために使用され得る。本明細書で開示される方法およびプロセスはデータ保持サブシステムによって保持されるデータを変更し、それにより、データ保持サブシステムの状態を変換するため、ディスプレイサブシステム506の状態も同様に変換されて、基礎となるデータ内の変更を視覚的に表すことが可能である。例えば、コンピューティングシステム500は、ディスプレイサブシステム506のディスプレイデバイスにおいて表示するために運転ゲームをレンダリングするように構成され得る。したがって、コンピューティングシステム500は、運転ゲームインターフェースをディスプレイデバイスに出力するためのディスプレイ出力を含むことが可能である。ディスプレイサブシステム506は、事実上、いかなるタイプの技術も利用する、1つまたは複数のディスプレイデバイスを含むことが可能である。そのようなディスプレイデバイスは共有筐体内で論理サブシステム502および/もしくはデータ保持サブシステム504と組み合わされてもよく、またはそのようなディスプレイデバイスは、ディスプレイ出力を介して論理サブシステムに接続された周辺ディスプレイデバイスであってもよい。
[0053]含まれるとき、通信サブシステム508は、コンピューティングシステム500を1つまたは複数の他のコンピューティングデバイスと通信可能に結合するように構成され得る。通信サブシステムは、1つもしくは複数の異なる通信プロトコルと互換性のある有線通信デバイスおよび/または無線通信デバイスを含むことが可能である。非限定的な例として、通信サブシステムは、無線電話ネットワーク、無線ローカルエリアネットワーク、有線ローカルエリアネットワーク、無線広域ネットワーク、有線広域ネットワークなどを経由して通信するように構成され得る。いくつかの実施形態では、通信サブシステムは、コンピューティングシステム500が、インターネットなどのネットワークを経由して、他のデバイスにメッセージを送信すること、および/または他のデバイスからメッセージを受けることを可能にできる。
[0054]環境サブシステム510は、環境情報を光学的に、かつリアルタイムで取得するための1つまたは複数のセンサ516を含むことが可能である。センサ516は、1つもしくは複数の対象の奥行き画像を取得するように構成された統合キャプチャデバイスおよび/または周辺キャプチャデバイス518を含むことが可能である。いずれの場合も、コンピューティングシステム500は、デプスカメラから奥行き画像を受け、受けた奥行き画像を処理のために論理サブシステムに配信するための周辺入力を含むことが可能である。キャプチャデバイス518は、任意の適切な技法(例えば、飛行時間(time−of−flight)、構造化光(structured light)、ステレオ画像(stereo image)など)により奥行き情報を有するビデオをキャプチャするように構成され得る。したがって、キャプチャデバイス518は、デプスカメラ、ビデオカメラ、ステレオカメラ、および/またはその他の適切なキャプチャデバイスを含むことが可能である。
[0055]例えば、飛行時間解析では、キャプチャデバイス518は、赤外線を対象に放射することが可能であり、次いで、センサを使用して、対象の表面から後方散乱した光を検出することが可能である。いくつかの事例では、パルス赤外線が使用されてもよく、出射光パルスと対応する入射光パルスとの間の時間が測定されて、キャプチャデバイスから対象上の特定の位置までの物理的距離を判断するために、その時間が使用され得る。いくつかの事例では、位相偏移を判断するために、出射光波の位相が入射光波の位相と比較され得、キャプチャデバイスから対象上の特定の位置までの物理的距離を判断するために、位相偏移が使用され得る。
[0056]別の例では、シャッター光パルス結像(shuttered light pulse imaging)などの技法によって、光の反射ビームの強度を経時的に解析することによって、キャプチャデバイスから対象上の特定の位置までの物理的距離を間接的に判断するために、飛行時間解析が使用され得る。
[0057]別の例では、奥行き情報をキャプチャするために、キャプチャデバイス518によって構造化光解析が利用され得る。そのような解析では、パターン化された光(例えば、グリッドパターン、ストライプパターン、ドットのコンステレーション(constellation of dots)など、知られているパターンとして表示された光)が対象上に投影され得る。対象の表面を照らすとすぐに、そのパターンは変形し、キャプチャデバイスから対象上の特定の位置までの物理的距離を判断するために、パターンのこの変形が調査され得る。
[0058]別の例では、キャプチャデバイスは、視覚的なステレオデータを取得するために、異なる角度からターゲットを見る、1つまたは複数の物理的に分離されたカメラを含むことが可能である。そのような場合、奥行き画像を生成するために、視覚的ステレオデータが解決され得る。
[0059]他の実施形態では、キャプチャデバイス518は、他の技術を利用して、奥行き値を測定および/または計算することが可能である。加えて、キャプチャデバイス518は、計算された奥行き情報を「Z」個の層、例えば、その見通し線に沿ってデプスカメラからその対象まで伸びるZ軸に対して直角な層に組織化することが可能である。
[0060]いくつかの実施形態では、2つ以上の異なるカメラが統合キャプチャデバイス内に組み込まれることが可能である。例えば、デプスカメラおよびビデオカメラ(例えば、RGBビデオカメラ)が共通キャプチャデバイス内に組み込まれてもよい。いくつかの実施形態では、2つ以上の別個のキャプチャデバイスが協働的に使用され得る。例えば、デプスカメラと、別個のビデオカメラとが使用されてもよい。ビデオカメラが使用されるとき、そのビデオカメラは、対象追跡データ、ならびに対象追跡の誤り訂正、画像キャプチャ、顔認識、指(もしくは、その他の小さな特徴)の高精度追跡、光感知、および/またはその他の機能に関する確認データを提供するために使用され得る。
[0061]環境サブシステム510は、環境情報に基づいて、物理的環境の空間モデルを生成するようにさらに構成され得る。少なくともいくつかの対象解析動作および対象追跡動作が1つまたは複数のキャプチャデバイスの論理マシンによって実行され得る点を理解されたい。キャプチャデバイスは、1つもしく複数の対象解析機能および/または対象追跡機能を実行するように構成された1つもしくは複数のオンボード処理ユニットを含むことが可能である。キャプチャデバイスは、そのようなオンボード処理論理の更新を円滑にするためのファームウェアを含むことが可能である。
[0062]コンピューティングシステム500は、入力デバイス520など、1つまたは複数の入力デバイスをオプションで含むことが可能である。例えば、写実的に表されたビューを拡張するためのテーマを選択するユーザ入力を受けるために、入力デバイス520が利用され得る。コンピューティングシステムの動作を制御するために、入力デバイスが使用され得る。ゲームの文脈で、本明細書に記述された対象認識、対象追跡、ならびに対象解析の方法および手順によって制御されないゲームの側面を制御するために、入力デバイスが使用され得る。いくつかの実施形態では、入力デバイスは、物理的空間内でコントローラの動きを測定するために使用され得る、加速度計、ジャイロスコープ、赤外線ターゲットシステム/赤外線センサシステムなどのうちの1つまたは複数を含むことが可能である。いくつかの実施形態では、コンピューティングシステムは、入力グラブ、キーボード、マウス、トラックパッド、トラックボール、タッチスクリーン、ボタン、スイッチ、ダイアル、および/またはその他の入力デバイスをオプションで含むこと、ならびに/または利用することが可能である。理解されるように、ゲームコントローラなど、入力デバイスによって従来制御されたゲーム、もしくはその他のアプリケーションの側面を制御または拡張するために、対象認識、対象追跡、および対象解析が使用され得る。いくつかの実施形態では、他の形態のユーザ入力に対する完全な置換として本明細書に記述された対象追跡が使用され得るのに対して、他の実施形態では、1つまたは複数の他の形態のユーザ入力を補間するために、そのような対象追跡が使用され得る。
[0063]解析サブシステム512は、次いで、環境サブシステム510によって生み出された空間モデルを解析するように構成され得る。そのような解析は、物体認識、ジェスチャー認識、顔認識、ボイス認識、音声認識、および/または任意のその他の適切なタイプの解析を含むことが可能である。
[0064]本明細書に記述された構成および/または手法は、本質的に例示であり、数多くの改変が可能であるため、これらの特定の実施形態または例は限定的な意味で考察されるべきではない点を理解されたい。本明細書に記述された特定のルーチンまたは方法は、任意の数の処理戦略のうちの1つまたは複数を表す場合がある。したがって、例示された様々な活動は、例示された順序で実行されても、他の順序で実行されても、並行して実行されても、または、場合によっては、省略されてもよい。同様に、上述のプロセスの順序も変更されてもよい。
[0065]本開示の主題は、本明細書で開示された様々なプロセス、システムおよび構成、その他の特徴、機能、活動、ならびに/または特性のみならず、それらの何らかの均等物およびすべての均等物のすべての新規性があり、かつ自明でない組合せとサブコンビネーションとを含む。

Claims (20)

  1. 透過型ディスプレイであって、ユーザの視点からのある物理的環境の写実的に表されたビューを、前記透過型ディスプレイの1つまたは複数の十分に透過的な部分を介して提供するように構成され、前記透過型ディスプレイを通して前記物理的環境を見ることができる前記透過型ディスプレイにおいて、前記写実的に表されたビューのテーマベースの拡張を実現する方法であって、
    前記写実的に表されたビューを拡張する際に使用するためのテーマを選択する入力を前記ユーザから受けるステップであって、前記テーマは複数の可能な拡張を含み、複数の可能なテーマから選択された、ステップと、
    前記物理的環境の環境情報を光学的にリアルタイムで取得するステップと、
    前記環境情報に基づいて、前記物理的環境に存在する物体の表現を含む、前記物理的環境の三次元空間モデルをリアルタイムで生成するステップと、
    前記三次元空間モデルの解析を介して、それぞれが前記物理的環境内の1つまたは複数の物理的特徴に対応する、前記三次元空間モデル内の1つまたは複数の特徴を識別するステップと、
    前記解析に基づいて、前記テーマに関連し且つ可視である、前記三次元空間モデルの解析を介して識別された前記1つまたは複数の特徴のうちの特徴の拡張を、前記物理的環境の部分を前記透過型ディスプレイを通して見ることができるまま前記透過型ディスプレイ上に表示するステップであって、該拡張は、前記複数の可能な拡張から、識別された前記特徴に基づき選択された、ステップと、
    前記ユーザが前記物理的環境を動くにつれて、前記三次元空間モデルを、前記環境情報に基づきリアルタイムで更新するステップと
    を含む方法。
  2. 請求項1に記載の方法であって、前記ディスプレイはヘッドアップディスプレイである、方法。
  3. 請求項1に記載の方法であって、前記ディスプレイはヘッドマウントディスプレイである、方法。
  4. 請求項1に記載の方法であって、前記拡張を表示するステップが、識別された前記特徴に対応する、前記物理的環境内の前記物理的特徴を前記ユーザの視点からオーバーレイする画像を表示するステップを含む、方法。
  5. 請求項1に記載の方法であって、前記拡張を表示するステップが、仮想皮膚を前記三次元空間モデルの識別された前記特徴に適用するステップと、前記仮想皮膚の画像を表示するステップであって、該画像は、前記物理的環境内の対応する前記物理的特徴を前記ユーザの視点からオーバーレイする、ステップとを含む、方法。
  6. 請求項1に記載の方法であって、前記拡張を表示するステップが、仮想物体を前記三次元空間モデルの識別された前記特徴上にオーバーレイするステップと、前記仮想物体の画像を表示するステップであって、該画像は、前記透過型ディスプレイを介して前記ユーザに可視である、前記物理的環境内の対応する前記物理的特徴を前記ユーザの視点からオーバーレイする、ステップとを含む、方法。
  7. 請求項1に記載の方法であって、前記環境情報を取得するステップは、前記環境情報を、前記ディスプレイと関連する1つまたは複数のセンサを介して検出するステップを含む、方法。
  8. 請求項1に記載の方法であって、前記三次元空間モデルの解析を介して、それぞれが前記物理的環境内の1つまたは複数の物理的特徴に対応する、前記三次元空間モデル内の1つまたは複数の特徴を識別するステップは、前記三次元空間モデルに関する物体認識解析を実行して前記物理的環境内の物体を識別するステップを更に含む、方法。
  9. 請求項に記載の方法であって、前記拡張は、前記複数の可能な拡張から、識別された前記物体に基づき、識別された前記物体の寸法及び特徴の一方または双方に対応するようにサイズ変更され形状変更された拡張であるように選択される、方法。
  10. 請求項1に記載の方法であって、
    前記三次元空間モデルの前記更新の結果として、前記透過型ディスプレイに拡張の変化を表示するステップ
    を更に含む方法。
  11. 請求項10に記載の方法であって、前記拡張の変化を表示するステップは、前記テーマに関連した第2の拡張を表示するステップであって、前記第2の拡張は、前記複数の可能な拡張から、前記三次元空間モデルにおいて識別された追加の特徴に基づき選択された、ステップを含む、方法。
  12. 請求項10に記載の方法であって、前記拡張の変化を表示するステップは、前記拡張の前記表示を、前記ユーザが前記物理的環境の中を動くにつれて調整するステップを含む、方法。
  13. ディスプレイ出力を介して拡張を提供するためのディスプレイシステムであって、
    ヘッドマウント光透過型ディスプレイであって、ユーザの視点からの、ある物理的環境の写実的に表されたビューを、前記ディスプレイの1つまたは複数の十分に透過的な部分を介して提供するように構成され、前記ディスプレイを通して前記物理的環境が前記ユーザに可視である前記ヘッドマウント光透過型ディスプレイと、
    前記物理的環境の環境情報を光学的にリアルタイムで取得するように構成された1つまたは複数の統合されたセンサと、
    前記ディスプレイおよび前記1つまたは複数の統合されたセンサと動作上結合されたデータ保持サブシステムであって、
    前記環境情報に基づいて、前記物理的環境に存在する物体の表現を含む、前記物理的環境の空間モデルをリアルタイムで生成することと、
    複数の可能なテーマからテーマを選択するユーザ入力を受けることであって、前記テーマは複数の可能な拡張を含む、ことと、
    前記空間モデルの解析を介して、それぞれが前記物理的環境内の1つまたは複数の物理的特徴に対応する、前記空間モデル内の1つまたは複数の特徴を識別することと、
    前記解析に基づいて、前記複数の可能な拡張から拡張を、前記1つまたは複数の特徴のうちの識別された特徴に基づき自動的に選択することと、
    別された前記特徴の前記拡張を、同時に前記物理的環境の他の部分の透過的ビューを提供しながら、前記ヘッドマウント光透過型ディスプレイ上に表示することと
    を行うために、論理サブシステムによって実行可能な命令を含むデータ保持サブシステムと
    を備えたディスプレイシステム。
  14. 請求項13に記載のディスプレイシステムであって、前記1つまたは複数の統合されたセンサが、前記物理的環境の1つまたは複数の奥行き画像を取得するように構成された画像キャプチャデバイスを含む、ディスプレイシステム。
  15. 請求項14に記載のディスプレイシステムであって、前記画像キャプチャデバイスは、飛行時間型デプスカメラを含む、ディスプレイシステム。
  16. 請求項14に記載のディスプレイシステムであって、前記画像キャプチャデバイスは、構造化光型デプスカメラを含む、ディスプレイシステム。
  17. 請求項14に記載のディスプレイシステムであって、前記命令は、前記空間モデルを、前記奥行き画像から前記物理的環境のデプスマップを生成し、前記デプスマップから前記物理的環境の機械可読表現を導出することによって生成するように実行可能である、ディスプレイシステム。
  18. ヘッドマウント透過型ディスプレイ上に、テーマベースの拡張を、ディスプレイ出力を介して、前記ヘッドマウント透過型ディスプレイの1つまたは複数の十分に透過な部分を介して提供する方法であって、前記ヘッドマウント透過型ディスプレイを通して物理的環境を見ることができ、前記方法は、
    ユーザから、ある写実的に表されたビューを拡張するためのテーマを、複数の可能なテーマから選択する入力を受けるステップであって、前記写実的に表されたビューは、前記ユーザの視点からの物理的環境であって、該物理的環境内に前記ユーザは位置する、物理的環境のものである、ステップと、
    光学的にリアルタイムに、前記物理的環境のデプス情報を、前記ディスプレイ近くに位置する1つまたは複数のデプスカメラを介して検出するステップと、
    前記ユーザの眺めからの前記物理的環境の空間モデルを、前記デプス情報に基づきリアルタイムに生成するステップと、
    前記空間モデルの解析を介して、それぞれが前記物理的環境内の1つまたは複数の物理的特徴に対応する、前記空間モデル内の1つまたは複数の特徴を識別するステップと、
    識別された前記1つまたは複数の特徴に基づき、前記テーマに関連した複数の拡張から拡張を自動的に選択するステップと、
    それに応じ、前記ヘッドマウント透過型ディスプレイ上に前記拡張を、前記物理的環境の前記写実的に表されたビューの少なくとも一部をいまだ提供させながら表示するステップと
    を含む方法。
  19. 請求項18に記載の方法であって、前記拡張を表示するステップは、前記拡張を、前記ユーザが前記物理的環境内を動くにつれて動的に表示して、前記写実的に表されたビューの結果的な変化を生じさせるステップを含む、方法。
  20. 請求項18に記載の方法であって、識別された前記1つまたは複数の特徴に基づき、前記テーマに関連した複数の拡張から拡張を選択するステップは、前記物理的環境内に位置する物体の寸法及び特徴の一方または双方に対応するようにサイズ変更され形状変更された拡張を選択するステップを更に含む、方法。
JP2013557791A 2011-03-10 2012-03-05 写実的に表されたビューのテーマベースの拡張 Expired - Fee Related JP5976019B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/044,895 US10972680B2 (en) 2011-03-10 2011-03-10 Theme-based augmentation of photorepresentative view
US13/044,895 2011-03-10
PCT/US2012/027787 WO2012122133A2 (en) 2011-03-10 2012-03-05 Theme-based augmentation of photorepresentative view

Publications (3)

Publication Number Publication Date
JP2014515130A JP2014515130A (ja) 2014-06-26
JP2014515130A5 JP2014515130A5 (ja) 2015-04-09
JP5976019B2 true JP5976019B2 (ja) 2016-08-23

Family

ID=46795136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013557791A Expired - Fee Related JP5976019B2 (ja) 2011-03-10 2012-03-05 写実的に表されたビューのテーマベースの拡張

Country Status (8)

Country Link
US (1) US10972680B2 (ja)
EP (1) EP2684350A4 (ja)
JP (1) JP5976019B2 (ja)
KR (1) KR101961964B1 (ja)
CN (1) CN102681811B (ja)
AR (1) AR085659A1 (ja)
TW (1) TWI567659B (ja)
WO (1) WO2012122133A2 (ja)

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10332176B2 (en) 2014-08-28 2019-06-25 Ebay Inc. Methods and systems for virtual fitting rooms or hybrid stores
US10972680B2 (en) 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
US20120320216A1 (en) * 2011-06-14 2012-12-20 Disney Enterprises, Inc. Method and System for Object Recognition, Authentication, and Tracking with Infrared Distortion Caused by Objects for Augmented Reality
DE102011104524A1 (de) * 2011-06-15 2012-12-20 Ifakt Gmbh Verfahren und Vorrichtung zum Ermitteln und Wiedergeben virtueller ortsbezogener Informationen für einen Raumbereich
US9734633B2 (en) * 2012-01-27 2017-08-15 Microsoft Technology Licensing, Llc Virtual environment generating system
EP2629498A1 (en) * 2012-02-17 2013-08-21 Sony Ericsson Mobile Communications AB Portable electronic equipment and method of visualizing sound
US10067568B2 (en) * 2012-02-28 2018-09-04 Qualcomm Incorporated Augmented reality writing system and method thereof
US9001153B2 (en) * 2012-03-21 2015-04-07 GM Global Technology Operations LLC System and apparatus for augmented reality display and controls
US9524585B2 (en) 2012-11-05 2016-12-20 Microsoft Technology Licensing, Llc Constructing augmented reality environment with pre-computed lighting
CN103869933B (zh) * 2012-12-11 2017-06-27 联想(北京)有限公司 信息处理的方法和终端设备
DE102012224321B4 (de) * 2012-12-21 2022-12-15 Applejack 199 L.P. Messvorrichtung zum Erfassen einer Schlagbewegung eines Schlägers, Trainingsvorrichtung und Verfahren zum Training einer Schlagbewegung
US10514541B2 (en) * 2012-12-27 2019-12-24 Microsoft Technology Licensing, Llc Display update time reduction for a near-eye display
US9083960B2 (en) 2013-01-30 2015-07-14 Qualcomm Incorporated Real-time 3D reconstruction with power efficient depth sensor usage
US10572118B2 (en) * 2013-03-28 2020-02-25 David Michael Priest Pattern-based design system
US9245387B2 (en) * 2013-04-12 2016-01-26 Microsoft Technology Licensing, Llc Holographic snap grid
US9367960B2 (en) * 2013-05-22 2016-06-14 Microsoft Technology Licensing, Llc Body-locked placement of augmented reality objects
KR102249577B1 (ko) * 2013-05-30 2021-05-07 찰스 안소니 스미스 Hud 객체 설계 및 방법
US9779548B2 (en) * 2013-06-25 2017-10-03 Jordan Kent Weisman Multiuser augmented reality system
US9996974B2 (en) * 2013-08-30 2018-06-12 Qualcomm Incorporated Method and apparatus for representing a physical scene
US9934611B2 (en) * 2013-09-11 2018-04-03 Qualcomm Incorporated Structural modeling using depth sensors
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
KR102197504B1 (ko) * 2013-12-18 2020-12-31 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 사전 계산된 조명으로 증강 현실 환경을 구성하는 기법
JP6272687B2 (ja) * 2013-12-18 2018-01-31 マイクロソフト テクノロジー ライセンシング,エルエルシー 事前計算された照明による拡張現実環境の構築
US9761049B2 (en) 2014-03-28 2017-09-12 Intel Corporation Determination of mobile display position and orientation using micropower impulse radar
CN103902983A (zh) * 2014-04-14 2014-07-02 夷希数码科技(上海)有限公司 一种穿戴式人脸识别方法及装置
WO2015167549A1 (en) * 2014-04-30 2015-11-05 Longsand Limited An augmented gaming platform
US9996636B2 (en) * 2014-05-13 2018-06-12 Atheer, Inc. Method for forming walls to align 3D objects in 2D environment
US9959675B2 (en) * 2014-06-09 2018-05-01 Microsoft Technology Licensing, Llc Layout design using locally satisfiable proposals
US10529009B2 (en) 2014-06-25 2020-01-07 Ebay Inc. Digital avatars in online marketplaces
US10653962B2 (en) 2014-08-01 2020-05-19 Ebay Inc. Generating and utilizing digital avatar data for online marketplaces
WO2016064435A1 (en) * 2014-10-24 2016-04-28 Usens, Inc. System and method for immersive and interactive multimedia generation
US10091015B2 (en) * 2014-12-16 2018-10-02 Microsoft Technology Licensing, Llc 3D mapping of internet of things devices
US20160224657A1 (en) * 2015-01-30 2016-08-04 Llc Daqri, Llc Digitized interactions with an identified object
CN106033418B (zh) 2015-03-10 2020-01-31 阿里巴巴集团控股有限公司 语音添加、播放方法及装置、图片分类、检索方法及装置
US10799792B2 (en) * 2015-07-23 2020-10-13 At&T Intellectual Property I, L.P. Coordinating multiple virtual environments
US20170256096A1 (en) * 2016-03-07 2017-09-07 Google Inc. Intelligent object sizing and placement in a augmented / virtual reality environment
US10037465B2 (en) 2016-03-18 2018-07-31 Disney Enterprises, Inc. Systems and methods for generating augmented reality environments
US9933855B2 (en) * 2016-03-31 2018-04-03 Intel Corporation Augmented reality in a field of view including a reflection
JP2017199238A (ja) * 2016-04-28 2017-11-02 株式会社カプコン 仮想空間表示システム
US10909761B1 (en) * 2016-07-07 2021-02-02 Google Llc 2D video with option for projected viewing in modeled 3D space
KR101692267B1 (ko) * 2016-08-25 2017-01-04 지스마트 주식회사 Hmd 유저와 복수의 일반인들 간에 상호작용이 가능한 가상현실 컨텐츠 시스템 및 그 제어방법
US10068379B2 (en) * 2016-09-30 2018-09-04 Intel Corporation Automatic placement of augmented reality models
TWI637287B (zh) * 2016-11-04 2018-10-01 宏達國際電子股份有限公司 在虛擬實境中快速移動的方法、虛擬實境裝置及記錄媒體
GB2555838A (en) * 2016-11-11 2018-05-16 Sony Corp An apparatus, computer program and method
US10359863B2 (en) * 2016-11-15 2019-07-23 Google Llc Dragging virtual elements of an augmented and/or virtual reality environment
KR102355135B1 (ko) * 2017-01-16 2022-01-26 소니그룹주식회사 정보 처리 장치, 정보 처리 방법, 및 프로그램
US10542300B2 (en) 2017-05-31 2020-01-21 Verizon Patent And Licensing Inc. Methods and systems for customizing virtual reality data
US20190108558A1 (en) 2017-07-28 2019-04-11 Magical Technologies, Llc Systems, Methods and Apparatuses Of Multidimensional Mapping Of Universal Locations Or Location Ranges For Alternate Or Augmented Digital Experiences
US20190102946A1 (en) * 2017-08-04 2019-04-04 Magical Technologies, Llc Systems, methods and apparatuses for deployment and targeting of context-aware virtual objects and behavior modeling of virtual objects based on physical principles
US20210166481A1 (en) * 2017-08-04 2021-06-03 Zyetric Enterprise Limited Intelligent virtual object in an augmented reality environment interactively responding to ambient environmental changes
US11249714B2 (en) 2017-09-13 2022-02-15 Magical Technologies, Llc Systems and methods of shareable virtual objects and virtual objects as message objects to facilitate communications sessions in an augmented reality environment
WO2019079826A1 (en) 2017-10-22 2019-04-25 Magical Technologies, Llc DIGITAL ASSISTANT SYSTEMS, METHODS AND APPARATUSES IN AN INCREASED REALITY ENVIRONMENT AND LOCAL DETERMINATION OF VIRTUAL OBJECT PLACEMENT AND SINGLE OR MULTIDIRECTIONAL OBJECTIVES AS GATEWAYS BETWEEN A PHYSICAL WORLD AND A DIGITAL WORLD COMPONENT OF THE SAME ENVIRONMENT OF INCREASED REALITY
EP3476448B1 (de) * 2017-10-24 2021-12-08 VR Coaster GmbH & Co. KG Vr-vorrichtung zum erzeugen und darstellen einer virtuellen realität
US10726463B2 (en) * 2017-12-20 2020-07-28 Signify Holding B.V. Lighting and internet of things design using augmented reality
JP7364218B2 (ja) * 2017-12-28 2023-10-18 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
JP6857795B2 (ja) 2017-12-28 2021-04-14 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
JP6590324B2 (ja) 2017-12-28 2019-10-16 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
US10500496B2 (en) * 2018-01-12 2019-12-10 International Business Machines Corporation Physical obstacle avoidance in a virtual reality environment
US10904374B2 (en) 2018-01-24 2021-01-26 Magical Technologies, Llc Systems, methods and apparatuses to facilitate gradual or instantaneous adjustment in levels of perceptibility of virtual objects or reality object in a digital scene
US11398088B2 (en) 2018-01-30 2022-07-26 Magical Technologies, Llc Systems, methods and apparatuses to generate a fingerprint of a physical location for placement of virtual objects
JP7041888B2 (ja) * 2018-02-08 2022-03-25 株式会社バンダイナムコ研究所 シミュレーションシステム及びプログラム
US10803671B2 (en) 2018-05-04 2020-10-13 Microsoft Technology Licensing, Llc Authoring content in three-dimensional environment
US11983990B2 (en) 2018-08-22 2024-05-14 Aristocrat Technologies Australia Pty Limited Gaming machine and method for evaluating player reactions
US10593152B1 (en) 2018-08-22 2020-03-17 Aristocrat Technologies Australia Pty Limited Gaming machine and method for evaluating player reactions
CN109344923A (zh) * 2018-08-27 2019-02-15 百度在线网络技术(北京)有限公司 关联物体的显示方法、装置及电子设备
US10783713B2 (en) 2018-09-05 2020-09-22 International Business Machines Corporation Transmutation of virtual entity sketch using extracted features and relationships of real and virtual objects in mixed reality scene
US10664989B1 (en) 2018-12-19 2020-05-26 Disney Enterprises, Inc. Systems and methods to present interactive content based on detection of markers
CN109543663B (zh) * 2018-12-28 2021-04-27 北京旷视科技有限公司 一种犬只身份识别方法、装置、系统及存储介质
US11189130B2 (en) 2019-01-23 2021-11-30 Aristocrat Technologies Australia Pty Limited Gaming machine security devices and methods
JP2022051977A (ja) * 2019-02-13 2022-04-04 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US11467656B2 (en) 2019-03-04 2022-10-11 Magical Technologies, Llc Virtual object control of a physical device and/or physical device control of a virtual object
US11335060B2 (en) * 2019-04-04 2022-05-17 Snap Inc. Location based augmented-reality system
JP7315362B2 (ja) * 2019-04-12 2023-07-26 日産自動車株式会社 映像出力システム及び映像出力方法
US11263866B2 (en) 2019-05-31 2022-03-01 Aristocrat Technologies, Inc. Securely storing machine data on a non-volatile memory device
US11308761B2 (en) 2019-05-31 2022-04-19 Aristocrat Technologies, Inc. Ticketing systems on a distributed ledger
JP2020074064A (ja) * 2019-09-05 2020-05-14 株式会社コナミデジタルエンタテインメント 情報処理装置、情報処理装置のプログラム、情報処理システム、及び、表示方法
US11380070B2 (en) * 2019-10-30 2022-07-05 The Paddock LLC Real-time augmentation of a virtual object onto a real-world object
US11195371B2 (en) 2019-12-04 2021-12-07 Aristocrat Technologies, Inc. Preparation and installation of gaming devices using blockchain
US11206365B2 (en) 2020-01-13 2021-12-21 Charter Communications Operating, Llc Method and apparatus for overlaying themed imagery onto real-world objects in a head-mounted display device
US11095855B2 (en) 2020-01-16 2021-08-17 Microsoft Technology Licensing, Llc Remote collaborations with volumetric space indications
US11138771B2 (en) 2020-02-03 2021-10-05 Apple Inc. Systems, methods, and graphical user interfaces for annotating, measuring, and modeling environments
US11727650B2 (en) * 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments
US11636726B2 (en) * 2020-05-08 2023-04-25 Aristocrat Technologies, Inc. Systems and methods for gaming machine diagnostic analysis
US11514690B2 (en) * 2020-06-30 2022-11-29 Sony Interactive Entertainment LLC Scanning of 3D objects with a second screen device for insertion into a virtual environment
WO2022009607A1 (ja) * 2020-07-09 2022-01-13 ソニーグループ株式会社 画像処理装置、および画像処理方法、並びにプログラム
EP4327293A1 (en) 2021-04-18 2024-02-28 Apple Inc. Systems, methods, and graphical user interfaces for adding effects in augmented reality environments
US12223797B2 (en) 2021-05-14 2025-02-11 Aristocrat Technologies, Inc. Slidable gaming chair including return-to-home feature
CN113298938A (zh) * 2021-06-23 2021-08-24 东莞市小精灵教育软件有限公司 一种辅助建模方法、系统、可穿戴智能设备及vr设备
US20230024386A1 (en) 2021-07-09 2023-01-26 Aristocrat Technologies, Inc. Data collection cloud system for electronic gaming machines
JPWO2023286321A1 (ja) * 2021-07-12 2023-01-19
US12469207B2 (en) 2022-05-10 2025-11-11 Apple Inc. Systems, methods, and graphical user interfaces for scanning and modeling environments
JP2024034133A (ja) * 2022-08-31 2024-03-13 株式会社Jvcケンウッド 提供装置および提供方法
US12268954B2 (en) * 2022-10-23 2025-04-08 JoyWAY LTD Computer-readable medium configured to translating movements performed by a person onto a user in augmented or virtual reality
US20240242445A1 (en) * 2023-01-17 2024-07-18 Disney Enterprises, Inc. Neural extension of 2d content in augmented reality environments
US12430857B2 (en) * 2023-01-17 2025-09-30 Disney Enterprises, Inc. Neural extension of 3D content in augmented reality environments
US12228750B2 (en) 2023-07-13 2025-02-18 Blaise Photonics LLC Volumetric display systems, methods, and devices

Family Cites Families (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5870136A (en) * 1997-12-05 1999-02-09 The University Of North Carolina At Chapel Hill Dynamic generation of imperceptible structured light for tracking and acquisition of three dimensional scene geometry and surface characteristics in interactive three dimensional computer graphics applications
JP2000207575A (ja) 1999-01-08 2000-07-28 Nadeisu:Kk 空間融合装置及びこれを適用した応用装置
JP2000276613A (ja) 1999-03-29 2000-10-06 Sony Corp 情報処理装置および情報処理方法
JP3728160B2 (ja) 1999-12-06 2005-12-21 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
US6930715B1 (en) * 2000-07-21 2005-08-16 The Research Foundation Of The State University Of New York Method, system and program product for augmenting an image of a scene with information about the scene
GB0111431D0 (en) 2001-05-11 2001-07-04 Koninkl Philips Electronics Nv A real-world representation system and language
US6917370B2 (en) * 2002-05-13 2005-07-12 Charles Benton Interacting augmented reality and virtual reality
US7277572B2 (en) * 2003-10-10 2007-10-02 Macpearl Design Llc Three-dimensional interior design system
KR100500898B1 (ko) 2003-12-18 2005-07-18 한국전자통신연구원 공간정보를 이용한 3차원 공간모델링 장치 및 그 방법
US20160267720A1 (en) * 2004-01-30 2016-09-15 Electronic Scripting Products, Inc. Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience
US8965460B1 (en) * 2004-01-30 2015-02-24 Ip Holdings, Inc. Image and augmented reality based networks using mobile devices and intelligent electronic glasses
DE602005017290D1 (de) 2004-09-06 2009-12-03 Bayerische Motoren Werke Ag Vorrichtung zur erfassung eines objekts auf einem fahrzeugsitz
JP4677281B2 (ja) 2005-05-11 2011-04-27 キヤノン株式会社 画像処理方法、画像処理装置
CN101243392A (zh) * 2005-08-15 2008-08-13 皇家飞利浦电子股份有限公司 用于终端用户编程的增强现实眼镜的系统、设备和方法
JP5084167B2 (ja) 2006-03-31 2012-11-28 キヤノン株式会社 位置姿勢計測方法及び装置
JP4925120B2 (ja) 2007-07-02 2012-04-25 独立行政法人産業技術総合研究所 物体認識装置および物体認識方法
JP4973622B2 (ja) 2007-08-29 2012-07-11 カシオ計算機株式会社 画像合成装置および画像合成処理プログラム
US9703369B1 (en) * 2007-10-11 2017-07-11 Jeffrey David Mullen Augmented reality video game systems
KR101367282B1 (ko) 2007-12-21 2014-03-12 삼성전자주식회사 깊이 정보에 대한 적응적 정보 표현 방법 및 그 장치
US8264505B2 (en) 2007-12-28 2012-09-11 Microsoft Corporation Augmented reality and filtering
WO2009094587A1 (en) 2008-01-23 2009-07-30 Deering Michael F Eye mounted displays
US8786675B2 (en) 2008-01-23 2014-07-22 Michael F. Deering Systems using eye mounted displays
KR100912264B1 (ko) 2008-02-12 2009-08-17 광주과학기술원 사용자 반응형 증강 영상 생성 방법 및 시스템
KR100963238B1 (ko) * 2008-02-12 2010-06-10 광주과학기술원 개인화 및 협업을 위한 테이블탑-모바일 증강현실 시스템과증강현실을 이용한 상호작용방법
US8231465B2 (en) 2008-02-21 2012-07-31 Palo Alto Research Center Incorporated Location-aware mixed-reality gaming platform
US20090237564A1 (en) * 2008-03-18 2009-09-24 Invism, Inc. Interactive immersive virtual reality and simulation
JP2009281895A (ja) 2008-05-23 2009-12-03 Calsonic Kansei Corp 車両用距離画像データ生成装置および車両用距離画像データの生成方法
US20090313285A1 (en) 2008-06-16 2009-12-17 Andreas Hronopoulos Methods and systems for facilitating the fantasies of users based on user profiles/preferences
US9480919B2 (en) 2008-10-24 2016-11-01 Excalibur Ip, Llc Reconfiguring reality using a reality overlay device
US20100110069A1 (en) * 2008-10-31 2010-05-06 Sharp Laboratories Of America, Inc. System for rendering virtual see-through scenes
US8303406B2 (en) 2008-11-24 2012-11-06 Disney Enterprises, Inc. System and method for providing an augmented reality experience
KR101062961B1 (ko) 2009-01-07 2011-09-06 광주과학기술원 증강현실 컨텐츠 저작 시스템과 방법 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
KR101002785B1 (ko) 2009-02-06 2010-12-21 광주과학기술원 증강 현실 환경에서의 공간 상호 작용 방법 및 시스템
US8970690B2 (en) * 2009-02-13 2015-03-03 Metaio Gmbh Methods and systems for determining the pose of a camera with respect to at least one object of a real environment
US20140240313A1 (en) * 2009-03-19 2014-08-28 Real Time Companies Computer-aided system for 360° heads up display of safety/mission critical data
KR101343054B1 (ko) 2009-07-30 2013-12-18 에스케이플래닛 주식회사 사용자 선택 정보에 의해 증강 현실을 제공하는 방법과 그를 위한 서버 및 휴대용 단말기
HU0900478D0 (en) 2009-07-31 2009-09-28 Holografika Hologrameloeallito Method and apparatus for displaying 3d images
KR20110118421A (ko) * 2010-04-23 2011-10-31 엘지전자 주식회사 증강 원격제어장치, 증강 원격제어장치 제어방법 및 그 시스템
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US8964298B2 (en) * 2010-02-28 2015-02-24 Microsoft Corporation Video display modification based on sensor input for a see-through near-to-eye display
KR101135186B1 (ko) * 2010-03-03 2012-04-16 광주과학기술원 상호작용형 실시간 증강현실 시스템과 그 방법, 및 상기 방법을 구현하는 프로그램이 기록된 기록매체
US20110234631A1 (en) * 2010-03-25 2011-09-29 Bizmodeline Co., Ltd. Augmented reality systems
US9122707B2 (en) * 2010-05-28 2015-09-01 Nokia Technologies Oy Method and apparatus for providing a localized virtual reality environment
US9348141B2 (en) * 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US9247238B2 (en) * 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8570320B2 (en) * 2011-01-31 2013-10-29 Microsoft Corporation Using a three-dimensional environment model in gameplay
US20120194547A1 (en) * 2011-01-31 2012-08-02 Nokia Corporation Method and apparatus for generating a perspective display
US8711206B2 (en) * 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
US20120223885A1 (en) * 2011-03-02 2012-09-06 Microsoft Corporation Immersive display experience
US9480907B2 (en) * 2011-03-02 2016-11-01 Microsoft Technology Licensing, Llc Immersive display with peripheral illusions
US8721337B2 (en) * 2011-03-08 2014-05-13 Bank Of America Corporation Real-time video image analysis for providing virtual landscaping
US10972680B2 (en) 2011-03-10 2021-04-06 Microsoft Technology Licensing, Llc Theme-based augmentation of photorepresentative view
US8743244B2 (en) * 2011-03-21 2014-06-03 HJ Laboratories, LLC Providing augmented reality based on third party information
US8963956B2 (en) * 2011-08-19 2015-02-24 Microsoft Technology Licensing, Llc Location based skins for mixed reality displays
WO2013032955A1 (en) * 2011-08-26 2013-03-07 Reincloud Corporation Equipment, systems and methods for navigating through multiple reality models
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US9286711B2 (en) * 2011-09-30 2016-03-15 Microsoft Technology Licensing, Llc Representing a location at a previous time period using an augmented reality display
US9911232B2 (en) * 2015-02-27 2018-03-06 Microsoft Technology Licensing, Llc Molding and anchoring physically constrained virtual environments to real-world environments

Also Published As

Publication number Publication date
US20120229508A1 (en) 2012-09-13
EP2684350A2 (en) 2014-01-15
JP2014515130A (ja) 2014-06-26
CN102681811B (zh) 2018-01-26
US10972680B2 (en) 2021-04-06
CN102681811A (zh) 2012-09-19
WO2012122133A3 (en) 2012-11-29
KR20140007427A (ko) 2014-01-17
AR085659A1 (es) 2013-10-16
WO2012122133A2 (en) 2012-09-13
EP2684350A4 (en) 2014-08-13
TW201246088A (en) 2012-11-16
KR101961964B1 (ko) 2019-03-25
TWI567659B (zh) 2017-01-21

Similar Documents

Publication Publication Date Title
JP5976019B2 (ja) 写実的に表されたビューのテーマベースの拡張
JP7560568B2 (ja) 仮想および拡張現実のためのシステムおよび方法
US10055888B2 (en) Producing and consuming metadata within multi-dimensional data
US9704295B2 (en) Construction of synthetic augmented reality environment
CN108292444B (zh) 更新混合现实缩略图
JP2022040219A (ja) 拡張現実データを記録するための手法
US9551871B2 (en) Virtual light in augmented reality
CN112154405B (zh) 三维推送通知
JP2014509429A (ja) ユーザーインターフェースの提示およびインタラクション
US10559130B2 (en) Displaying image data behind surfaces
CN105723420A (zh) 混合现实聚光灯
KR20140081840A (ko) 모션으로 제어되는 리스트 스크롤 방법
US10582190B2 (en) Virtual training system
US12475656B2 (en) Space and content matching for augmented and mixed reality
HK1173807B (en) Theme-based augmentation of photorepresentative view
HK1173807A (en) Theme-based augmentation of photorepresentative view
HK40097466A (en) Space and content matching for augmented and mixed reality

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150218

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20150521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160719

R150 Certificate of patent or registration of utility model

Ref document number: 5976019

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees