JP6391685B2 - 仮想オブジェクトの方向付け及び可視化 - Google Patents

仮想オブジェクトの方向付け及び可視化 Download PDF

Info

Publication number
JP6391685B2
JP6391685B2 JP2016521497A JP2016521497A JP6391685B2 JP 6391685 B2 JP6391685 B2 JP 6391685B2 JP 2016521497 A JP2016521497 A JP 2016521497A JP 2016521497 A JP2016521497 A JP 2016521497A JP 6391685 B2 JP6391685 B2 JP 6391685B2
Authority
JP
Japan
Prior art keywords
user
virtual object
locked
perspective
location
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016521497A
Other languages
English (en)
Other versions
JP2016533565A (ja
Inventor
キーン,ブライアン・イー
サグデン,ベン・ジェイ
クロッコ,ロバート・エル,ジュニア
デプトフォード,ダニエル
サルター,トム・ジー
マシー,ローラ・ケイ
キプマン,アレックス・アベン−アタル
キニーブロー,ピーター・トビアス
カムダ,ニコラス・フェリアンク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2016533565A publication Critical patent/JP2016533565A/ja
Application granted granted Critical
Publication of JP6391685B2 publication Critical patent/JP6391685B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Description

本発明は、仮想オブジェクトの方向付け及び可視化に関する。
[0001]モバイルデバイスの1つの現在の用途は、現実世界の環境の「仮想的な」視点(パースペクティブ)を可能にすることである。現在、モバイルデバイス上で使用することができるいくつかのアプリケーションは、デバイスからのカメラ入力及びGPS座標を使用して、現実世界におけるアイテム(通常、建物)の2次元画像をレンダリングする。これらのオブジェクトは、一般的に、任意の位置で表示可能であり、外観は通常3次元であるが、モバイルデバイスのフラットディスプレイ上にレンダリングされる。
[0002]複合現実は、仮想オブジェクトが現実世界の物理的環境と混合されることを可能にする技術である。透過型ヘッドマウントディスプレイ(HMD)デバイスは、ユーザーが着用して、実際のオブジェクトとユーザーの視野に表示された仮想オブジェクトとの混合画像を見ることができる。
本発明は、仮想オブジェクトの方向付け及び可視化を可能にする。
[0003]視点(パースペクティブ)(遠近感、perspective)がロックされた仮想オブジェクトの作成を可能にする技術が提示される。仮想オブジェクトは、仮想オブジェクトが作成された場所(location)、位置(position)及び向き(orientation)と同一又はそれに近い場所、位置及び向きで、消費デバイス(consumption device)を用いて別のユーザーによって消費する(見る、聴く、インタラクトする)ことができる。オブジェクトは、その作成者によって定義された、1つ、いくつか又は多くの可能な消費の場所、位置及び向きを有することができる。
[0004]1つの態様では、共有の視点(パースペクティブ)がロックされた(shared perspective−locked)仮想オブジェクトを作成及び/又は消費することができる装置が提供される。装置の場所、向き及び位置が決定される。共有の視点(パースペクティブ)がロックされた仮想オブジェクトを消費するとき、レンダリング位置データを含む共有仮想オブジェクトが受け取られる。消費デバイスの視野が許容可能に一致すると判断される位置及び向きにある場合、共有仮想オブジェクトが消費デバイスに表示される。
[0005]共有の視点(パースペクティブ)がロックされた仮想オブジェクトを作成する際、キャプチャーデバイスのグローバル座標の場所、位置及び方向が決定され、共有仮想オブジェクトのレンダリングデータが作成される。レンダリングデータは、共有仮想オブジェクトのレンダリング位置データを含む。レンダリング位置データは、少なくともグローバル座標位置、並びにローカル座標系に関する仮想オブジェクトの少なくとも1つの位置及び少なくとも1つの向きを含んでもよい。
[0006]この概要は、詳細な説明において以下でさらに説明する概念の選択を簡略化された形で紹介するために提供される。この概要は、特許請求される主題の主要な特徴又は不可欠な特徴を特定することを意図するものではなく、特許請求される主題の範囲を決定する際の助けとして使用されることも意図されていない。
[0007]本技術の基本的な実施形態を示す方法である。 [0008]図1Aの方法の態様を実行するユーザーを示す。 図1Aの方法の態様を実行するユーザーを示す。 図1Aの方法の態様を実行するユーザーを示す。 [0009]現実世界の環境を見るユーザーの斜視図である。 [0010]現実世界の環境でキャプチャーデバイスを使用するユーザーの斜視図である。 [0011]図2のユーザーのキャプチャーデバイス上の、この場合は画像である仮想オブジェクトの図である。 [0012]透過型ヘッドマウントディスプレイデバイスを通した図2のユーザーの視界の図である。 [0013]仮想マーカーに関連付けられる位置におけるユーザーを示す。 [0014]図3Bにおけるキャプチャーされた仮想オブジェクトを表示する透過型ヘッドマウントディスプレイデバイスのユーザーの図である。 [0015]透過型ヘッドマウントディスプレイデバイスを介して図2のシーンを見ているユーザーの第2の斜視図である。 [0016]透過型ヘッドマウントディスプレイデバイスの視界を介したワールドロックされた(world−locked)仮想オブジェクトの表示である。 [0017]ヘッドマウントディスプレイユニットの1つの実施形態の斜視図である。 [0018]ヘッドマウントディスプレイユニットの1つの実施形態の一部の側面図である。 [0019]ヘッドマウントディスプレイユニットの構成要素の1つの実施形態のブロック図である。 [0020]ヘッドマウントディスプレイユニットに関連付けられる処理ユニットの構成要素の1つの実施形態のブロック図である。 [0021]モバイル又はタブレットコンピューティングデバイスの1つの実施形態のブロック図である。 [0022]本技術による中央サービスを実施するためのシステムのブロック図である。 [0023]ユーザー又は第三者によるコンテンツの作成を示すフローチャートである。 [0024]本技術による、ユーザーによって作成されたコンテンツの表示を説明するフローチャートである。 [0025]図12のステップ1222を示すフローチャートである。
[0026]ワールド空間における視点(パースペクティブ)がロックされた仮想オブジェクトの作成を可能にする技術が提示される。仮想オブジェクトは、仮想オブジェクトが作成される場所、位置及び向きと同一又は近い場所、位置及び向きにおいて消費デバイスを有する別のユーザーによって消費する(見る、聴く又はインタラクトする)ことができる。オブジェクトは、その作成者によって定義された、1つの、少数の又は多くの許容される消費の場所、位置及び向きを有することができる。
[0027]本技術は、作成者が視聴者にオブジェクトを知覚してほしいと望む方法についての1つ又は複数の視点(パースペクティブ)に対してオブジェクトの消費者をロックするオブジェクトをユーザーが作成し、共有することを可能にする。
[0028]図1Aは、定義された向き及び視覚化をもって仮想オブジェクトをキャプチャーして共有するための、本技術の第1の実施形態を示す方法である。図1Aは、コンテンツを作成するユーザーを示す図1Bから1Dに関して説明される。ステップ50では、作成デバイスの位置、向き及び場所が決定される。本明細書に記載されるように、位置、向き、及び場所は、グローバル座標系及びローカル座標系に対して説明することができる。ステップ52において、コンテンツが作成デバイスによって作成されてキャプチャーされる。作成デバイスは、仮想オブジェクトにおいて提供される、様々な種類のオーディオ/ビジュアルデータ及びユーザーが供給する情報を受け取ることができるキャプチャーデバイスを含んでもよい。ステップ52において、場所、位置及び向きのデータは、キャプチャーデバイスの視点(パースペクティブ)を定義するために使用することができる。視点(パースペクティブ)は、共有仮想オブジェクトが消費者に対してレンダリングされるべき方法を決定するために使用される。コンテンツの作成及びキャプチャーは、オブジェクトデータをキャプチャーする時間を一致させることを含んでもよい。
[0029]図1Bは、現実世界のオブジェクト70をキャプチャーする作成デバイス、この場合はタブレットコンピューターを持つユーザー24を示す。ユーザー24は、グローバル座標系によって規定されるワールド空間内に位置してもよく、ワールド空間内のキャプチャーデバイスの向きや位置はローカル座標系75に対して規定される。図1Cは、現実世界のオブジェクト70に対するキャプチャーデバイスの視点(パースペクティブ)80を示す。視点(パースペクティブ)は、ユーザーがキャプチャーデバイス44を保持する高さに対する高さ82を有し、並びに、ローカル座標系に対する向きの座標(orientation coordinates)によって記述することができる3次元の位置及び向きを有する。図1B−1Dの例では、ユーザー24は、現実世界のオブジェクト70の仮想オブジェクト90、この場合は2次元写真を作成している。仮想オブジェクト90は、図1Dに示され、作成デバイス44に関連付けられる視点(パースペクティブ)を有する。ステップ52において、ユーザーはまた、消費デバイスのための1つ又は複数の許容可能な消費の位置を定義してもよい。1つの態様では、消費デバイスの唯一の消費位置が許容されてもよい。これにより、キャプチャーデバイスと同じ場所、位置及び向きにおいて消費デバイスを提供する。他の例では、多数の許容可能な消費位置が提供されてもよい。
[0030]図1Bから1Dに示される例は写真の作成を示すが、多くの種類の仮想オブジェクトを、本発明の技術に従って作成することができる。これらは、様々な異なる種類のコンピューティングデバイスや処理デバイスにおいてレンダリングすることができる2次元及び3次元の仮想オブジェクトを含む。
[0031]図1Aに戻ると、ステップ54において、仮想オブジェクトのキャプチャーされた情報を含むレンダリングデータは、場所、位置、及び向きに関連付けられ、オブジェクト定義とともに格納される。ステップ56において、レンダリングデータ及び位置情報を含むオブジェクト定義は、第2のユーザーに送られる。後述するように、ステップ56は、中央サービスに、又は消費デバイスの第2のユーザーに直接、データを送ることを含むことができる。また、後述するように、消費デバイスは、同様に、図3z−3eに関連して以下に説明するように透過型ヘッドマウントディスプレイを含む、多くの様々な種類の処理デバイスであってもよい。
[0032]ステップ58において、コンテンツが第1のユーザーから消費デバイスにおいて取得される。ステップ60において、共有仮想オブジェクトの許容可能な消費位置、向き及び場所が決定される。ステップ62において、消費デバイスの位置、向き及び場所が決定される。1つの実施形態では、消費デバイスは、消費デバイスがキャプチャーデバイスと同じ位置、向き及び場所にあるときに共有仮想オブジェクトをレンダリングすることのみできる。別の実施形態では、消費デバイスは、作成デバイスによって定義される1つ又
は複数の許容可能な位置、向き、及び場所に消費デバイスがあるとき、共有仮想オブジェクトをレンダリングすることができる。第3の実施形態では、消費デバイスは、キャプチャーデバイスによって定義されるような仮想オブジェクトの定義されたレンダリング位置に近接した位置にあるとき、共有仮想オブジェクトをレンダリングすることができ、消費デバイスの許容可能な場所、位置、及び向きは当該レンダリング位置に対して定義される。
[0033]ステップ64において、消費デバイスが適切な位置でない場合、消費デバイスの位置に対する調整を行うことができる。ステップ64においてデバイスが適切に配置されている場合、作成デバイスによって定義された位置、向き及び場所においてコンテンツをレンダリングすることができる。
[0034]本技術は、大規模な環境でユーザーに情報を提供する上で適用性を有する。図2は、現実世界の環境1000を見ているユーザー24を示し、様々な建物の風景がユーザーに見えている。仮想オブジェクトは、ユーザー24の視点(パースペクティブ)からレンダリングされた又は図2の建物1001などの様々な現実世界の物体についての視界、視聴覚データ、又は他の種類の情報を含むことができる。
[0035]図3A−Eは、大規模な現実世界の環境における本技術のユーザーを示す。この態様では、ユーザーは、共有仮想オブジェクトを作成することができ、共有仮想オブジェクトが環境内のどこに存在するかを示す他のユーザーのためのマーカーを環境内に残すことができる。これにより、第2のユーザーは、マーカーに近づいて、第1のユーザーによって作成された仮想オブジェクトを消費することができる。
[0036]一例では、休暇中のユーザーが、ランドマークビルの前に立つユーザーの家族との特別なシーンの写真を撮ると仮定する。後の時点で、第2のユーザーは、その場所に到着して、その写真が撮影されたのと同じ位置及び方向でランドマークの前に立つユーザーの家族の仮想オブジェクトの写真を見ることができる。
[0037]図3Aは、作成デバイス44をもつユーザー24が、当該デバイスを使用して、現実世界の物体、この場合は建物1004から仮想オブジェクトを作成することを示す。図3Aに示すように、ユーザーは建物1004に対する視点(パースペクティブ)1003を有する。図1Aから1Dにおける上記の例のように、ユーザーの視点(パースペクティブ)1003は、グローバル座標1005及びローカル座標系1006によって定義されたワールドの位置(world location)を基準とすることができる。キャプチャーデバイスの視野は1007で示される。
[0038]ユーザーのキャプチャーデバイス44の視点(パースペクティブ)1003における視野が図3Bに示される。図3Bにおいて、建物1004の画像を含む仮想オブジェクト1020aが作成されている。グローバル座標系で定義された位置に対してローカル座標系の方向付けを可能にする1つ又は複数の位置関係を用いて、ローカル座標系1006をグローバル座標系に関連させることができることを理解すべきである。
[0039]図3Cは、図2の環境1000において透過型ヘッドマウントディスプレイデバイスを装着したユーザー24の斜視図を示す。後述するように、透過型ヘッドマウントディスプレイデバイスは、環境内にレンダリングされた仮想オブジェクトをユーザーが見ることを可能にする、複合現実デバイスである。図3Cにおいて、仮想オブジェクト定義1020に関連付けられるマーカー1010が、透過型ヘッドマウントディスプレイデバイス2の着用者の前に現れる(図3Cに示すオブジェクト定義1020及び以降で参照されるものは、仮想オブジェクトとしてレンダリングされた形式を除いて、ユーザーに見えないことを理解すべきである)。本技術によれば、ユーザーがマーカー1010に関連付け
られる場所に自身を配置すると、ユーザーは、ユーザー24によって作成された仮想オブジェクトを見たり消費したりすることができる。
[0040]図3Dは、マーカー1010に関連付けられる位置におけるユーザー24Aを示す。ユーザー24Aは、透過型ヘッドマウントディスプレイデバイス2を装着しており、図3Aにおけるユーザー24の作成デバイスに対して同じ場所、向き、及び位置に自身を配置する。オブジェクト定義1020は、レンダリング情報のほか、透過型ヘッドマウントディスプレイデバイス2に対して許容可能なレンダリング位置を定義するグローバル座標及びローカル座標を含む。
[0041]図3Eに示すように、透過型ヘッドマウントディスプレイは、許容可能なレンダリング位置において仮想オブジェクト1020aをレンダリングし、この例におけるレンダリング位置は、元の作成デバイスと同じ場所、位置、及び向きを有する。図3Eに示すように、ユーザー24Aの視点(パースペクティブ)及び図3Aで作成されたオブジェクト1020aの表示は、仮想オブジェクト1020aを作成したユーザー24のものと同じである。
[0042]図4A及び図4Bは、仮想オブジェクトを作成してレンダリングする際の、第三者から供給された情報の使用を含む、本技術の別の態様を示す。図4Aは、複数のマーカーが提供された環境1000における、透過型ヘッドマウントディスプレイデバイス2を装着したユーザーの斜視図である。図4Aに示す例では、マーカー1010が示される。マーカー1010は、ユーザーが提供し、別のユーザーと直接共有されるマーカーとすることができる。また、図4Aには、第三者のデータマーカー1015、1025、1030、1040、1050が示される。第三者のデータマーカーは、情報を第三者のサービスから引き出すことができる仮想オブジェクトに関連付けられる。後述するように、中央サービスは、多くの第三者サービスのうちの任意のものから情報を収集し、中央サービスによって定義され及び/又は第三者サービスによって提供された情報により定義された位置に仮想オブジェクトを作成してもよい。別の代替例では、第三者サービス自体が環境内で使用するための仮想オブジェクトを定義してもよい。例えば、レストランの所有者は、環境内で表示するための仮想オブジェクトを定義することができ、環境内で使用するための関連するマーカーを定義することができる。このターゲット及び関連する仮想オブジェクトは、消費デバイスのユーザーに対して表示するための不可欠なサービスを提供することができる。
[0043]図4Bは、図4B中のマーカー1015に関連付けられる仮想オブジェクト1015aの斜視図を示す。図4Bはまた、複数の許容可能な視聴場所、位置及び向きを持つ「ワールドロックされた(world locked)」オブジェクトの例を示す。仮想オブジェクト1015aは、建物の側面に配置されるものとして示されており、第三者サービスYelp(登録商標)によって提供される情報を含む。この例では、仮想オブジェクト1015aは、その位置が物理的な物体(建物)に関連付けられる「ワールドロックされた」仮想オブジェクトであり、消費デバイスの位置に対する多くの許容可能なレンダリング場所、向き、及び位置を有することができる。例えば、建物及び仮想オブジェクト1015aに対して図4Bにおいてユーザーが移動するとき、仮想オブジェクト1015aは、まだ建物の側面に見えている。したがって、仮想オブジェクト1015aを見るために、多くの許容可能な位置が利用可能である。
[0044]図4Bに示す例では、透過型ヘッドマウントディスプレイデバイス2は、ワールドロックされたオブジェクト1015aのレンダリング位置に近接すると考えられる。レンダリング位置に近接する位置は、消費デバイスによるレンダリングが発生する可能性がある視点(パースペクティブ)ロック仮想オブジェクトにおいて定義されるすべての許容可能な場所、位置及び向きを含む。
[0045]上記のように、消費デバイス及び作成デバイスは、本明細書に記載されるような多くの適切な処理デバイスのうちの任意のものを含むことができる。本技術は、複合現実環境内でオブジェクトをレンダリングすることができる透過型ヘッドマウントディスプレイデバイスに使用される場合に特定の適用性を見出す。
[0046]透過型ヘッドマウントディスプレイデバイスが作成デバイスとして使用されるとき、様々な異なる種類の仮想オブジェクトを作成することができる。1つの態様では、仮想オブジェクトは、透過型ヘッドマウントディスプレイデバイスから入手可能なすべての感覚入力の組み合わせを含んでもよく、これらは、消費デバイスがすべての入力をレンダリングすることが可能であると仮定すると、レンダリングされて消費ユーザーに戻される。例えば、作成を行うユーザーは、特定の環境のウォークスルー(walk−through)を記録することができ、これは、ユーザーが環境を通じて同じ歩行をするときに、再生されて消費ユーザーに戻される。作成イベントのすべての態様は、例えば動画の視野、オーディオ音声などを含むが、消費ユーザーに対して再生される。
[0047]ヘッドマウントディスプレイデバイスは、表示素子と、処理ユニットとを備える。ユーザーが表示素子を介してユーザーの視野(FOV)内の現実世界の物体を見ることができるように、表示素子はある程度透明である。表示素子はまた、仮想画像が一緒に表示され、現実世界の物体と混合し得るように、ユーザーの視野に仮想画像を投影する機能を提供する。ユーザーの視野内のどこに仮想画像を挿入するかをシステムが決定できるように、システムは、ユーザーが見ている場所を自動的に追跡する。どこに仮想画像を投影するべきかシステムが認識すると、表示素子を用いて画像が投影される。
[0048]実施形態では、処理ユニットを含むヘッドマウントディスプレイデバイスは、環境内のユーザー、現実世界の物体及び仮想的な3次元オブジェクトのX、Y、Z、ピッチ、ヨー及びロール位置を含む複合現実環境のモデルを構築することができる。環境内のユーザーによって着用される各々のヘッドマウントディスプレイデバイスの位置は、環境のモデルに対して及び互いに対して較正することができる。これにより、システムは、環境についての各々のユーザーの視線及びFOVを決定することができる。したがって、仮想画像を各ユーザーに対して表示することができるが、システムは、環境内での視差及び他のオブジェクトからの又は他のオブジェクトによる何らかの閉塞に対して仮想画像を調整して、各ユーザーの視点(パースペクティブ)からの仮想画像の表示を決定する。
[0049]ユーザーは、ユーザーのFOV内に現れる仮想オブジェクトのうちの1つ又は複数と相互作用することを選択することができる。本明細書で使用するとき、「相互作用」という語は、仮想オブジェクトとのユーザーの物理的相互作用及び言語的相互作用の両方を包含する。物理的相互作用は、所定のアクションを実行するためのシステムに対するユーザー要求として複合現実システムにより認識される、ユーザーの指、手及び/又は他の身体の部分を用いた所定のジェスチャーをユーザーが実行することを含む。このような所定のジェスチャーは、仮想オブジェクトを指さすこと、つかむこと、押すこと及び置くことを含み得るが、これらに限定されない。
[0050]ユーザーはまた、自身の目を用いて仮想オブジェクトと物理的に相互作用することができる。いくつかの例では、視線データは、ユーザーがFOV内のどこに集中しているかを特定し、したがって、ユーザーが特定の仮想オブジェクト又は現実世界の物体を見ていることを識別することができる。したがって、持続的な視線、又はまばたきもしくはまばたきの連続は、ユーザーが1つ又は複数の仮想オブジェクトを選択する物理的相互作用とすることができる。仮想ディスプレイスレート上のコンテンツを見るなど、ユーザーが仮想オブジェクトを単に見ることは、仮想オブジェクトとのユーザーの物理的相互作用
のさらなる例である。
[0051]ユーザーは、代替的又はさらに、所定のアクションを実行するためのシステムに対するユーザー要求として複合現実システムが認識する、例えば発話された語やフレーズなどの言葉的ジェスチャーを使用して仮想オブジェクトと相互作用してもよい。言語的ジェスチャーは、複合現実環境内で1つ又は複数の仮想オブジェクトと相互作用するための物理的ジェスチャーとともに使用することができる。
[0052]図5−8は、透過型ヘッドマウントディスプレイデバイス2を示す。1つの実施形態では眼鏡の形状であり、ユーザーの頭部に装着され、ユーザーはディスプレイを通して見ることができ、それにより、ユーザーの前にある空間を実際に直視することができる。「実際の直視(actual direct view)」という語の使用は、物体についての作成された画像表現を見ることではなく、現実世界の物体を人間の目で直接見る能力を指す。例えば、眼鏡を通して部屋を見ることで、ユーザーはその部屋の実際の直視をすることができる一方、テレビ上で部屋についての動画を見ることは、その部屋の実際の直視とはならない。ヘッドマウントディスプレイデバイス2のさらなる詳細が以下に提供される。
[0053]処理ユニット4は、ヘッドマウントディスプレイデバイス2を動作させるために使用される多くの計算能力を含むことができる。実施形態では、処理ユニット4は、1つ又は複数の中央サービス900に対して(例えば、WiFi、Bluetooth(登録商標)、赤外線、又は他の無線通信手段など)無線で通信する。
[0054]ヘッドマウントディスプレイデバイスは表示素子を含むことができる。ユーザーが表示素子を介してユーザーの視野(FOV)内の現実世界の物体を見ることができるように、表示素子はある程度透明である。表示素子はまた、仮想画像が現実世界の物体と一緒に現れるように、ユーザーのFOVに仮想画像を投影する機能を提供する。ユーザーのFOV内のどこに仮想画像を挿入するかをシステムが決定できるように、システムは、ユーザーが見ている場所を自動的に追跡する。どこに仮想画像を投影するべきかシステムが認識すると、表示素子を用いて画像が投影される。
[0055]仮想オブジェクトは、上述の定義1020などのオブジェクト定義を含んでもよい。定義は、ディスプレイデバイス2がユーザーの視野内に仮想オブジェクトをレンダリングすることを可能にするデータを含んでもよい。定義の1つの構成要素は、オブジェクトの種類、オブジェクトのサイズ、及び1つ又は複数の最適な表示の視点(パースペクティブ)及び向きを含むことができる。各々の最適な表示の視点(パースペクティブ)は、オブジェクトのユーザービューにとって最適な視点(パースペクティブ)の定義を含むことができる。仮想オブジェクトが共有される場合、本明細書に提示される技術は、オブジェクト定義、並びに、オブジェクトを共有する各ユーザーの場所及び視野を使用して、各ユーザーにとってオブジェクトをレンダリングするのに最適な位置を決定する。
[0056]1つの代替例では、他のコンピューティングシステム及び1つ又は複数の処理ユニットは、部屋又は他の環境内のすべてのユーザー、現実世界の物体及び仮想3次元オブジェクトのx、y、zデカルト位置を含む環境のモデルを構築するために協働することができる。環境内でユーザーによって着用される各々のヘッドマウントディスプレイデバイスの位置は、環境のモデルに対して及び互いに対して較正することができる。これにより、システムは、環境についての各ユーザーの視線及びFOVを決定することができる。したがって、仮想オブジェクトを各ユーザーに対して表示することができるが、各ユーザーの視点(パースペクティブ)からの仮想オブジェクトの表示は、相対的なものであってもよく、環境内の視差及び他のオブジェクトから又は他のオブジェクトによる何らかの閉塞を調整する。ここではシーンマップと呼ばれる環境のモデル、並びに、環境内のユーザーのFOV及びオブジェクトのすべての追跡は、協力して又は個別に機能するコンピューティングシステム及びモバイル処理ユニットによって生成することができる。
[0057]図5及び図6は、ヘッドマウントディスプレイデバイス2の透視図及び側面図を示す。図6は、テンプル102及びノーズブリッジ104を有するデバイスの一部を含む、ヘッドマウントディスプレイデバイス2の右側面図を示す。以下に述べるように、音を記録してその音声データを処理ユニット4に送るためのマイク110がノーズブリッジ104に内蔵される。ヘッドマウントディスプレイデバイス2の前に、動画及び静止画をキャプチャーすることができる、空間に面したビデオカメラ(room−facing video camera)112がある。以下に述べるように、これらの画像は処理ユニット4に送られる。
[0058]ヘッドマウントディスプレイデバイス2のフレームの一部はディスプレイを囲む(1つ又は複数のレンズを含む)。ヘッドマウントディスプレイデバイス2の構成要素を示すために、ディスプレイを囲むフレームの一部が描かれていない。ディスプレイは、導光光学素子115、不透明度フィルター(opacity filter)114、透過型レンズ116及び透過型レンズ118を含む。1つの実施形態では、不透明度フィルター114は透過型レンズ116の後ろに整列され、導光光学素子115は不透明度フィルター114の後ろに整列される。透過型レンズ116及び118は、眼鏡に使用される標準的なレンズであり、任意の処方箋に対して(処方箋がない場合を含む)作成することができる。導光光学素子115は人工光を目に導く。不透明度フィルター114及び導光光学素子115のさらなる詳細については、2012年5月24日に公開された、「Head−Mounted Display Device Which Provides Surround Video」と題する米国特許出願公開第2012/0127284号で提供される。
[0059]制御回路136は、ヘッドマウントディスプレイデバイス2の他のコンポーネントをサポートする様々な電子装置を提供する。制御回路136のさらなる詳細は図7に関して以下に提供される。イヤホン130、慣性測定ユニット132及び温度センサー138がテンプル102内にあるか又はこれに取り付けられる。図7に示す1つの実施形態では、慣性測定ユニット132(又はIMU132)は、3軸磁力計132A、3軸ジャイロ132B及び3軸加速度計132Cなどの慣性センサーを含む。慣性測定ユニット132は、ヘッドマウントディスプレイデバイス2の位置、向き及び急加速(ピッチ、ロール及びヨー)を感知する。IMU132は、磁力計132A、ジャイロ132B及び加速度計132Cに加えて又はこれらに代えて、他の慣性センサーを含んでもよい。
[0060]マイクロディスプレイ120はレンズ122を介して画像を投影する。マイクロディスプレイ120を実施するために使用することができる様々な画像生成技術がある。例えば、マイクロディスプレイ120は、白色光で背後から照らされる光学活性材料によって光源が変調される透過投影技術を使用する際に実施することができる。これらの技術は、通常、強力なバックライトと高い光エネルギー密度を有するLCD型ディスプレイを使用して実施される。マイクロディスプレイ120はまた、外部光が光学活性材料によって反射されて変調される反射技術を用いて実施することができる。照明は、技術に応じて、白色源又はRGB源のいずれかにより前方に照らされる。デジタル光処理(DLP)、シリコン上液晶(LCOS)及びクアルコム社のMirasol(登録商標)ディスプレイ技術は、すべて、ほとんどのエネルギーが変調構造から反射されて離れる場合に効率的な反射技術の例であり、本システムにおいて使用することができる。また、マイクロディスプレイ120は、光がディスプレイによって生成される放射技術(emissive technology)を使用して実施することができる。例えば、マイクロビジョン社のPicoP(商標)ディスプレイエンジンは、透過性素子として機能する小さな画面上の又は目へと直接発信される(例えば、レーザー)、マイクロミラーステアリング(micro mirror steering)によってレーザー信号を発する。
[0061]導光光学素子115は、マイクロディスプレイ120からヘッドマウントディスプレイデバイス2を装着したユーザーの目140へと光を透過する。導光光学素子115はまた、矢印142で示されるように、ヘッドマウントディスプレイデバイス2の正面からの光が導光光学素子115を通って目140へ透過されることを可能にし、これにより、マイクロディスプレイ120から仮想オブジェクトを受け取ることに加えて、ヘッドマウントディスプレイデバイス2の前にある空間についての実際の直接的な表示(direct view)をユーザーが行うことを可能にする。したがって、導光光学素子115の壁は透過型である。導光光学素子115は、第1の反射面124(例えば、ミラー又は他の表面)を含む。マイクロディスプレイ120からの光は、レンズ122を通過し、反射面124に入射する。光が内部反射によって導光光学素子115を含む平面基板の内部に閉じ込められるように、反射面124はマイクロディスプレイ120からの入射光を反射する。基板の表面からの何度かの反射の後、閉じ込められた光波は、選択的反射面(selectively reflecting surfaces)126のアレイに達する。図面が混雑するのを避けるために、5つの面のうちの1つが126とラベル付けされていることに留意されたい。反射面126は、基板のうちのこれらの反射面へ入射する光波をユーザーの目140へと結合する。導光光学素子のさらなる詳細については、2008年11月20日に公開された「Substrate−Guided Optical
Devices」と題する米国特許公開第2008/0285140号に見ることができる。
[0062]ヘッドマウントディスプレイデバイス2はまた、ユーザーの目の位置を追跡するためのシステムを含む。以下に説明するように、システムがユーザーのFOVを決定することができるように、システムは、ユーザーの位置及び向きを追跡する。しかし、人間は自分の前にあるすべてのものを知覚することはない。代わりに、ユーザーの目は、環境の一部に向けられる。したがって、1つの実施形態では、システムは、ユーザーのFOVの測定を改善するためにユーザーの目の位置を追跡する技術を含む。例えば、ヘッドマウントディスプレイデバイス2は、アイトラッキングアセンブリ134(図6)を含み、これはアイトラッキング照明デバイス134A及びアイトラッキングカメラ134B(図7)を有する。1つの実施形態では、アイトラッキング照明デバイス134Aは、目に向かって赤外光を発する1つ又は複数の赤外線(IR)エミッターを含む。アイトラッキングカメラ134Bは、反射されたIR光を感知する1つ又は複数のカメラを含む。瞳孔の位置は、角膜の反射を検出する既知の画像化技術によって特定することができる。例えば、2008年7月22日発行の「Head Mounted Eye Tracking and Display System」と題する米国特許第7,401,920号を参照されたい。このような技術は、追跡カメラに対する目の中心の位置を見つけることができる。一般的に、アイトラッキングは、目の画像を取得すること、及び眼窩内の瞳の位置を決定するためにコンピュータービジョン技術を使用することを含む。1つの実施形態では、目は、通常、一致して移動するので、一方の目の位置を追跡すれば十分である。しかし、各々の目を別個に追跡することが可能である。
[0063]1つの実施形態では、システムは、ヘッドマウントディスプレイデバイス2のレンズの各コーナーに1つのIR LED及びIR光検出器が存在するような矩形配置(rectangular arrangement)の、4つのIR LED及び4つのIR光検出器を使用する。LEDからの光は目に反射する。2つのIR光検出器の各々で検出される赤外光の量は、瞳の方向を決定する。すなわち、目における白対黒の量は、その特定の光検出器について目に反射する光の量を決定する。したがって、光検出器は、目に
おける白又は黒の量の測定値を有することになる。4つのサンプルから、システムは目の方向を決定することができる。
[0064]別の代替例は、上述のように4つの赤外LEDを使用することであるが、1つの赤外CCDがヘッドマウントディスプレイデバイス2のレンズの側面にある。CCDが眼鏡のフレームから見える目の75%までを撮像することができるように、CCDは小さなミラー及び/又はレンズ(魚眼レンズ)を使用する。上述のものと同様に、CCDは、画像を感知し、コンピュータービジョンを使用して画像を見つける。したがって、図6は1つのIR送信機を有する1つのアセンブリを示すが、図6の構造は、4つのIR送信機及び/又は4つのIRセンサーを有するように調整することができる。4つより多くの又は少ないIR送信機及び/又は4つより多くの又は少ないIRセンサーを使用することもできる。
[0065]目の方向を追跡するための別の実施形態は、電荷の追跡(charge tracking)に基づく。この概念は、網膜が測定可能な正の電荷を帯び、角膜が負の電荷を有するという観察に基づく。センサーは、(イヤホン130の近くで)ユーザーの耳によって取り付けられて、目が動き回る間電位を検出し、目がしていることをリアルタイムで謳歌的に読み出す。目を追跡するための他の実施形態が使用されてもよい。
[0066]図6は、ヘッドマウントディスプレイデバイス2の半分を示す。ヘッドマウントディスプレイデバイス全体は、透過型レンズの別のセット、別の不透明度フィルター、別の導光光学素子、別のマイクロディスプレイ120、別のレンズ122、空間に面したカメラ(room−facing camera)、アイトラッキングアセンブリ、マイクロディスプレイ、イヤホン、及び温度センサーを含み得る。
[0067]図7は、ヘッドマウントディスプレイデバイス2の様々なコンポーネントを示すブロック図である。図8は、処理ユニット4の様々なコンポーネントを説明するブロック図である。ヘッドマウントディスプレイデバイス2は、そのコンポーネントが図7に示され、1つ又は複数の仮想オブジェクトを現実世界のユーザーの視野とシームレスに融合することによって、ユーザーに複合現実体験を提供するために使用される。また、図7のヘッドマウントディスプレイデバイスのコンポーネントは、様々な状態を追跡する多くのセンサーを含む。ヘッドマウントディスプレイデバイス2は、処理ユニット4から仮想オブジェクトに関する指示を受け取り、センサー情報を処理ユニット4に提供する。処理ユニット4は、そのコンポーネントが図7に示され、ヘッドマウントディスプレイデバイス2からセンサー情報を受け取り、情報及びデータを中央サービス900(図1A)とやりとりする。情報及びデータのやり取りに基づいて、処理ユニット4は、いつどこでユーザーに仮想オブジェクトを提供し、それに応じて図4のヘッドマウントディスプレイデバイスに命令を送るかを決定する。
[0068]図7のコンポーネントのうちのいくつか(例えば、空間に面したカメラ112、アイトラッキングカメラ134B、マイクロディスプレイ120、不透明度フィルター114、アイトラッキング照明134A、イヤホン130、及び温度センサー138)は、これらのデバイスの各々が2つあることを示すために陰影で示され、1つはヘッドマウントディスプレイデバイス2の左側用であり、もう1つはヘッドマウントディスプレイデバイス2の右側用である。図4は、電力管理回路202と通信する制御回路200を示す。制御回路200は、プロセッサー210、メモリー214(例えば、DRAM)と通信するメモリーコントローラー212、カメラインターフェイス216、カメラバッファー218、ディスプレイドライバー220、ディスプレイフォーマッタ222、タイミング生成器226、ディスプレイ出力インターフェイス228、及びディスプレイ入力インターフェイス230を含む。
[0069]1つの実施形態では、制御回路200のすべてのコンポーネントは、専用線又は1つもし又は複数のバスを介して互いに通信する。別の実施形態では、制御回路200のコンポーネントの各々はプロセッサー210と通信する。カメラインターフェイス216は、2つの空間に面したカメラ112に対するインターフェイスを提供し、空間に面したカメラ112から受け取った画像をカメラバッファー218に記憶する。ディスプレイドライバー220はマイクロディスプレイ120を駆動する。ディスプレイフォーマッタ222は、マイクロディスプレイ120上に表示される仮想オブジェクトに関して、情報を不透明度制御回路224に提供し、不透明度制御回路224は不透明度フィルター114を制御する。タイミング生成器226は、システムのためのタイミングデータを提供するために使用される。ディスプレイ出力インターフェイス228は、空間に面したカメラ112からの画像を処理ユニット4に提供するためのバッファーである。ディスプレイ入力インターフェイス230は、マイクロディスプレイ120に表示される仮想オブジェクトなどの画像を受け取るためのバッファーである。ディスプレイ出力インターフェイス228及びディスプレイ入力インターフェイス230は、処理ユニット4に対するインターフェイスであるバンドインターフェイス232と通信する。
[0070]電力管理回路202は、電圧調整器234、アイトラッキング照明ドライバー236、音声DAC及び増幅器238、マイクプリアンプ(microphone preamplifier)及び音声ADC240、温度センサーインターフェイス242、並びにクロック発生器244を含む。電圧調整器234は、バンドインターフェイス232を介して処理ユニット4から電力を受け取り、その電力をヘッドマウントディスプレイデバイス2の他のコンポーネントに提供する。アイトラッキング照明ドライバー236は、上記のように、アイトラッキング照明134AのためのIR光源を提供する。音声DAC及び増幅器238は、音声情報をイヤホン130に出力する。マイクプリアンプ及び音声ADC240は、マイク110のためのインターフェイスを提供する。温度センサーインターフェイス242は、温度センサー138のためのインターフェイスを提供する。電力管理回路202はまた、電力を提供し、3軸磁力計132A、3軸ジャイロ132B及び3軸加速度計132Cから戻されるデータを受け取る。
[0071]図8は、処理ユニット4の様々なコンポーネントを説明するブロック図である。図8は、電力管理回路306と通信する制御回路304を示す。制御回路304は、中央処理ユニット(CPU)320、グラフィック処理ユニット(GPU)322、キャッシュ324、RAM326、メモリー330(例えば、DRAM)と通信するメモリーコントローラー328、フラッシュメモリー334(又は他の種類の不揮発性ストレージ)と通信するフラッシュメモリーコントローラー332、バンドインターフェイス302及びバンドインターフェイス232を介してヘッドマウントディスプレイデバイス2と通信するディスプレイ出力バッファー336、バンドインターフェイス302及びバンドインターフェイス232を介してヘッドマウントディスプレイデバイス2と通信するディスプレイ入力バッファー338、マイクに接続するための外部マイクコネクター342と通信するマイクインターフェイス340、無線通信デバイス346に接続するためのPCIエクスプレスインターフェイス、及びUSBポート348を含む。1つの実施形態では、無線通信デバイス346は、WiFi対応の通信デバイス、ブルートゥース(登録商標)通信デバイス、赤外線通信デバイスなどを含んでもよい。USBポートは、データやソフトウェアを処理ユニット4にロードしたり、処理ユニット4を充電したりするために、処理ユニット4をコンピューティングシステムにドッキングするのに使用することができる。1つの実施形態では、CPU320及びGPU322は、どこで、いつ、どのように仮想3次元オブジェクトをユーザーの視野に挿入するかを決定するための主力となる。さらなる詳細が以下に提供される。
[0072]電力管理回路306は、クロック発生器360、アナログ/デジタル変換器362、充電器364、電圧調整器366、ヘッドマウントディスプレイ電源376、及び(処理ユニット4のリストバンドに配置され得る)温度センサー374と通信する温度センサーインターフェイス372を含む。アナログ/デジタル変換器362は、電池電圧、温度センサーを監視し、電池充電機能を制御するために使用される。電圧調整器366は、システムに電力を供給するための電池368と通信する。充電器364は、充電ジャック370から電力を受け取ると(電圧調整器366を介して)電池368を充電するのに使用される。HMD電源376は、ヘッドマウントディスプレイデバイス2に電力を供給する。
[0073]上述のように、様々な種類の処理デバイスを本技術とともに利用することができる。図9は、モバイル又はタブレットコンピューティングデバイスを示すブロック図である。図9は、本明細書に記載の技術の実施形態で動作することができる例示的なモバイル又はタブレットデバイス(例えば、デバイス44)のブロック図である。典型的なモバイルデバイスの例示的な電子回路が示される。デバイス700は、1つ又は複数のマイクロプロセッサー712と、本明細書に記載される機能を実施するために制御プロセッサー712の1つ又は複数のプロセッサーによって実行されるプロセッサー読み取り可能なコードを格納するメモリー710(例えば、ROMなどの不揮発性メモリー及びRAMなどの揮発性メモリー)を含む。
[0074]モバイルデバイス700は、例えば、プロセッサー712、アプリケーションを含むメモリー710及び不揮発性ストレージを含んでもよい。プロセッサー712は、通信のほか、本明細書に記載の相互作用アプリケーションを含む任意の数のアプリケーションを実施することができる。メモリー710は、不揮発性及び揮発性メモリーを含む、任意の様々なメモリー記憶媒体のタイプとすることができる。デバイスのオペレーティングシステムは、モバイルデバイス700の種々の動作を処理し、電話をかけたり受けたりすること、テキストメッセージ、ボイスメールのチェックなどの動作のためのユーザーインターフェイスを含むことができる。アプリケーション730は、写真及び/又は動画のカメラアプリケーション、アドレス帳、カレンダーアプリケーション、メディアプレーヤー、インターネットブラウザー、ゲーム、他のマルチメディアアプリケーション、アラームアプリケーション、他のサードパーティアプリケーション、本明細書に記載のコンテンツ作成アプリケーションなどのプログラムの任意の組み合わせであってもよい。メモリー710内の不揮発性ストレージコンポーネント740は、ウェブキャッシュ、音楽、写真、連絡先データ、スケジュールデータ、及びその他のファイルなどのデータを含む。
[0075]プロセッサー712はまた、アンテナ702に結合されるRF送受信回路706と、赤外線送受信機078と、Wi−FiやBluetooth(登録商標)などの任意の追加の通信チャネル760と、加速度計などの動き/向きセンサー714と、通信する。加速度計は、モバイルデバイス内に組み込まれており、このようなアプリケーションを、ユーザーにジェスチャーを介してコマンドを入力させるインテリジェントユーザーインターフェイス、GPS衛星との接触が途絶えた後にデバイスの動き及び方向を計算する屋内GPS機能として機能させ、デバイスの向きを検出し、デバイスが回転するとディスプレイをポートレートから風景へと自動的に変更する。加速度計は、例えば、半導体チップ上に構築された(マイクロメートル規模の)微小な機械デバイスである微小電気機械システム(MEMS)によって提供され得る。加速方向、並びに向き、振動及び衝撃を検知することができる。プロセッサー712はさらに、リンガー/バイブレーター716、ユーザーインターフェイスのキーパッド/画面、生体センサーシステム718、スピーカー720、マイク722、カメラ724、光センサー726及び温度センサー728と通信する。
[0076]プロセッサー712は、無線信号の送受信を制御する。送信モード中、プロセッサー712は、マイク722からの音声信号又は他のデータ信号を、RF送受信回路706に提供する。送受信回路706は、アンテナ702を介した通信のために、遠隔ステーション(例えば、固定のステーション、オペレーター、他の携帯電話など)に信号を送信する。リンガー/バイブレーター716は、着信、テキストメッセージ、カレンダーリマインダー、目覚まし時計リマインダー、又は他の通知をユーザーに知らせるのに使用される。受信モード中、送受信回路706は、アンテナ702を介して遠隔ステーションから音声又は他のデータ信号を受信する。受信された音声信号はスピーカー720に供給され、一方、他の受信されたデータ信号は適切に処理される。
[0077]また、物理コネクター788は、ACアダプターやパワードドッキングステーションなどの外部電源にモバイルデバイス700を接続するために使用することができる。物理コネクター788はまた、コンピューティングデバイスへのデータ接続として使用することができる。データ接続は、モバイルデバイスのデータを別のデバイス上のコンピューティングのデータと同期させるなどの操作を可能にする。
[0078]ユーザーアプリケーションの位置を伝える衛星ベースの無線ナビゲーションを利用したGPSトランシーバー765は、このようなサービスに使用可能である。
[0079]図示される例示的な処理システムは、コンピューター読み取り可能な記憶媒体の例を含む。コンピューター読み取り可能な記憶媒体は、プロセッサー読み取り可能な記憶媒体でもある。このような媒体は、コンピューター読み取り可能な命令、データ構造、プログラムモジュール又は他のデータなどの情報の格納のために実施される、揮発性及び不揮発性、取り外し可能及び取り外し不能な媒体を含むことができる。コンピューター記憶媒体は、RAM、ROM、EEPROM、キャッシュ、フラッシュメモリー又は他のメモリー技術、CD−ROM、デジタル多用途ディスク(DVD)又は他の光学ディスクストレージ、メモリースティック又はカード、磁気カセット、磁気テープ、メディアドライブ、ハードディスク、磁気ディスクストレージ又は他の磁気ストレージデバイスなどを含むが、これらに限定されない。
[0080]上記のように、ワールド空間での視点(パースペクティブ)ロック仮想オブジェクトについて作成され手共有される情報は、中央サービス900とともに利用することができる。1つの態様では、中央サービスは図10に示される。中央サービス900は、1つ又は複数の処理デバイス又はサーバ上で動作させることができる。中央サービス900の論理コンポーネントが図10に示される。
[0081]中央サービス900は、ユーザー情報910、ユーザーコンテンツ情報958、サードパーティコンテンツ情報968、サードパーティサービスアグリゲーター980、マッピングエンジン985、及び通信インターフェイス995を含むことができる。通信インターフェイス995は、透過型マウントディスプレイデバイス2、タブレット902及び携帯電話904と中央サービス900が通信することを可能にする、任意の数のインターフェイス、トランスポートレイヤー及びプロトコルを含んでもよい。
[0082]ユーザー情報910は、デバイス2、タブレット902及び中央サービス900のユーザーに、中央サービス900のユーザーにとって利用可能なセキュアな情報にアクセスする前に、自身のIDを認証することを要求する、ログイン情報919を含んでもよい。各ユーザーは、サービス900を介して、ユーザーのアドレス帳914及びソーシャル連絡先データ916、並びにユーザーの位置履歴918を利用可能であってもよい。代替的な実施形態では、ユーザー情報の全部又は一部はデバイス上にローカルに記憶されてもよい。
[0083]ユーザーコンテンツ情報958は、コンテンツ位置情報957及びユーザーが作成した共有された視点(パースペクティブ)ロックオブジェクト956を含む。ユーザーコンテンツ情報は、上記のユーザー24などのユーザーによって作成され、中央サービス900の他のユーザーと共有するためにユーザーによって迎えられた、共有仮想オブジェクトについての情報であってもよい。オブジェクト位置情報957は、所与の領域について、3次元マップの位置及び領域内のオブジェクトの位置、並びにオブジェクトとともに利用されるマーカーを含んでもよい。共有オブジェクト956は、オブジェクト位置情報957中の情報に関連付けられる特定のオブジェクトデータを含むことができる。
[0084]サードパーティコンテンツ情報968はまた、オブジェクト位置情報967及びサードパーティ視点(パースペクティブ)ロックオブジェクト966を含む。サードパーティオブジェクトは、サードパーティサービスアグリゲーター980を介してソーシャルインタラクションサービス990から取得される、サードパーティソーシャルインタラクションサービス990から利用可能なコンテンツ情報を含む。サードパーティオブジェクト966は、サードパーティソーシャルインタラクションサービス990によって作成することができ、又は、マッピングエンジン985及びサードパーティソーシャルインタラクションサービスから入手可能な情報を使用して中央サービスによって作成することができる。この情報は、上述した許容可能なレンダリング位置、並びにサードパーティソーシャルインタラクションサービスのユーザーからの任意の情報を含むことができる。
[0085]サードパーティサービスアグリゲーター980は、サードパーティソーシャルインタラクションサービス990から情報を取得し、その各々は、仮想オブジェクトを投入(ポピュレート)するために使用することができる情報を提供することができる。サードパーティサービスアグリゲーター980は、サードパーティインタラクションサービス990の各々のアプリケーションプログラミングインターフェイス(API)とインタラクトする。
[0086]マッピングエンジン985は、グローバル座標位置情報を、ユーザーからの及びサードパーティサービスアグリゲーター980からの位置データと関連付ける。マッピングエンジン985はまた、ユーザーデバイスから位置情報を受け取り、ユーザーの位置履歴918を更新する。マッピングエンジンはまた、透過型ヘッドマウントディスプレイデバイス2、タブレット902及び電話904に、3Dシーンデータを提供することができる。この情報は、ユーザー位置追跡情報がデバイス2から中央サービス900に提供されるときに更新することができる。マッピングエンジン985はさらに、生成されるべきマーカーの種類を、サードパーティ情報サービスプロバイダーと関連付けることができる。
[0087]サードパーティソーシャルインタラクションサービス990は、その情報とともに、それらが情報を提供する関心のあるポイントのグローバル座標を含むことができる。多くのソーシャルメディアサービス990は、そのレビューとともに、このようなグローバル座標位置情報を含む。マッピングエンジン985は、この情報を確認することができ、又はグローバル座標情報をユーザーが生成するデータに追加することができる。この位置は、ユーザーの位置履歴のほか、特定の関心のあるポイントの情報をユーザーが作成する時における入力から導くことができる。
[0088]サードパーティサービスアグリゲーター980はまた、所有者/オペレーター及びパブリック共有オブジェクトソース992からオブジェクト定義を受け取ることができる。オブジェクトは、その特定の設立に関連付けられたポイントオブジェクトを有する施設の所有者及びオペレーターによって提供されてもよい。
[0089]共有オブジェクト956及びサードパーティオブジェクト966は、オブジェク
トレンダリングデータ情報、並びに、オブジェクトをレンダリングしようとする消費デバイスの、1つ又は複数の許容可能な消費場所、1つ又は複数の許容可能な消費位置、及び1つ又は複数の許容可能な消費向き(consumption orientations)を含む。中央サービス900は、透過型ヘッドマウントディスプレイデバイス2の2人の着用者を中央サービスに提供する1人又は複数のシステム管理者によって動作されてもよい。
[0090]図11は、本発明の技術による、共有可能な視点(パースペクティブ)ロック仮想オブジェクトを作成する方法を示すフローチャートである。図11の方法は、処理ユニット4及び/又はヘッドマウントディスプレイデバイス2のコンポーネントによって実行されてもよい。単独で又は別のシステムとともに動作する、処理ユニット4及び/又はヘッドマウントディスプレイデバイス2のうちの任意の1つ又は複数は、方法のすべて又は一部を実行することができる。
[0091]図11を参照すると、ステップ1100において、シーンデータを作成しようとするユーザーのユーザー位置が決定される。ユーザー位置は、ユーザーデバイスにおいて送られたGPSから導くことができ、ユーザー位置を記述するグローバル位置座標を提供することができる。
[0092]ステップ1102で、シーンマップを展開することができ、シーンの3次元配置、並びにユーザーが位置する場所の周囲のシーン内のオブジェクトの配置及び位置を特定する。実施形態では、所与のフレーム内で生成されるシーンマップは、すべてのユーザーのローカル座標系におけるx、y及びz位置、現実世界のオブジェクト及び共通の環境内の仮想オブジェクトを含んでもよい。シーンマップは、シーン内に仮想オブジェクトを配置する際、並びに、適切な閉塞をもって仮想3次元オブジェクトを表示する(仮想3次元オブジェクトが閉塞されてもよいし、又は、仮想3次元オブジェクトが現実世界の物体もしくは別の仮想3次元オブジェクトを閉塞してもよい)際に使用してもよい。シーンマップは、ユーザーに関連付けられるキャプチャーデバイスから導くことができ、又は中央サービス900によって提供することができる。
[0093]ステップ1104において、中央サービスからの情報が受け取られる。1つの実施形態では、ステップ1104が実行される必要はない。ステップ1104において受け取られる情報は、視点(パースペクティブ)ロックオブジェクトを作成するためのテンプレートと仮想オブジェクト定義を含むことができる。仮想オブジェクトに関する情報は、処理デバイス内又はヘッドマウントディスプレイ2内にキャッシュされて、視点(パースペクティブ)ロックオブジェクトをより迅速に作成することを可能にすることができる。
[0094]ステップ1106では、ユーザーのキャプチャーデバイスの位置、向き及びFOVの決定が行われる。
[0095]ステップ1108では、場所、向き、位置及び視界データが、ユーザーの視点(パースペクティブ)へと変換される。ユーザーの視点(パースペクティブ)は、特定の種類の共有仮想オブジェクトについて許容可能なレンダリング位置を決定するために利用することができる。
[0096]ステップ1112において、視点(パースペクティブ)ロック仮想オブジェクトについてユーザーが生成したコンテンツがキャプチャーされる。本技術によれば、ユーザーが生成したコンテンツは、様々な種類のコンピューティングシステムに関して上述したセンサーデバイスによってキャプチャーすることができる任意の種類のコンテンツであってもよい。これは、音声データ、視覚データ、モーションデータ及びテキストを含む。ユーザーが生成したコンテンツは、レンダリングされる視点(パースペクティブ)ロック仮想オブジェクトを構築するために利用される。1115において、位置、向き及び場所の情報がユーザー生成コンテンツに関連付けられる。加えて、オブジェクトがワールドロックされた(world−locked)オブジェクトとして定義される場合、多くの異なる視点(パースペクティブ)から表示可能であり、許容可能な消費位置、場所及び向きを定義することができる。
[0097]図1A−1Dに示す例では、単一の視点(パースペクティブ)が、場所、向き及び位置に基づいて定義されてもよい。図4Bに示す例では、多数の視点(パースペクティブ)を定義することができ、したがって、多数の異なる許容可能な消費位置が、ワールドロックされた仮想オブジェクトのために利用可能である。
[0098]1117において、仮想オブジェクトが第2のユーザーと共有されたり、中央サービス900に送られたりする。
[0099]図12は、本技術による、仮想オブジェクトを表示することを望む消費ユーザーのデバイス(消費デバイス)によって実行される方法を示す。
[00100]ステップ1202で、消費ユーザーの位置が決定される。当該位置は、仮想オ
ブジェクトとともに利用されるグローバル座標系を参照して決定される。ステップ1204において、シーンマップデータが、上記のステップ1102と同様の方法で収集される。
[00101]ステップ1206及び1208において、視点(パースペクティブ)がロックされたオブジェクトを他のパーティから収集することができる。1206において、サードパーティの貢献者(contributors)からのオブジェクトが取得される。1208において、1208におけるオブジェクトユーザー共有情報を収集することができる。ステップ1206及び1208における共有の視点(パースペクティブ)がロックされた仮想オブジェクトは、中央サービス900から、又は他のユーザー貢献者から直接提供されてもよい。いくつかの実施形態では、サードパーティの貢献者からの情報を、消費ユーザーのデバイスに直接送ることができる。さらなる実施形態では、ステップ1208におけるユーザー共有情報は、消費ユーザーと接触するユーザーによって提供されてもよい。消費ユーザーと接触するユーザーは、消費ユーザーに関連付けられるものとして識別される(例えば「友人」)、ユーザーのアドレス帳、直接の連絡先又はソーシャルメディアサービスを介した連絡先に関連付けられる個人であってもよい。
[00102]1209において、ユーザーのキャプチャーデバイスの位置、向き及びFOV
の決定が行われる。
[0103]図3C及び4Aに示されたものなどのマーカーが使用される例において、1210において、ユーザーが1つ又は複数のマーカーに近接しているかどうかに関する最初の判定が行われる。1210における判定は、本質的には、環境内の関連付けられる現実世界の位置におけるマーカーが消費デバイスの視野内に入るかどうかである。マーカーの使用が本技術によって必要とされないことを理解すべきである。したがって、ステップ1212はオプションであってよい。消費ユーザーを共有仮想オブジェクトのレンダリング場所や位置と調整する他のシステムが利用されてもよい。マーカーが利用され、マーカーがユーザーの消費デバイスのFOV内にある場合、1212において、マーカーは消費デバイスのディスプレイ内にレンダリングされる。
[00104]1214において、オブジェクトの相互作用が生じたか否かに関する判定が行
われる。ステップ1214におけるオブジェクトの相互作用は、共有オブジェクトを見るために可能となる位置、場所及び向きにおけるマーカーに対してユーザーを配置することのように単純であってもよい。消費ユーザーのデバイスがその場所、位置及び向きにあるとき、オブジェクトがレンダリングされてもよい。他の実施形態では、ユーザーは、場所、位置及び向きに消費デバイスを配置する前に、マーカーを積極的に選択することができる。
[00105]1216において、共有視点(パースペクティブ)ロック仮想オブジェクトの許容可能な消費位置が決定される。上述のように、いくつかのオブジェクトは、消費が生じ得る1つの位置、向き及び場所のみを有する。他のオブジェクトは、多くの許容可能な消費位置、向き及び場所を有する。
[00106]ステップ1220において、ユーザー及び消費デバイスが適切な消費のための
オブジェクトに対するユーザーの視点(パースペクティブ)が生じるような位置、場所及び向きにあるとき、共有の視点(パースペクティブ)がロックされた仮想オブジェクトがユーザーに対してレンダリングされる。消費は、写真を視覚化すること、特定の録音された音を特定の時間に聞くこと、動画を見ること、テキストを読むこと、インタラクティブな3次元仮想オブジェクトと遊ぶことなどであってもよい。
[00107]ステップ1220を実行する1つの実施形態のさらなる詳細が図13に示され
る。
[00108]いくつかの場合には、共有の視点(パースペクティブ)がロックされた仮想オブジェクトについてのユーザー変更が許可される。ステップ1224において、オブジェクトのユーザー変更が生じたか否かについての判定が行われる。共有オブジェクトに対する許可がそのような変更を許す場合、ユーザー変更は、ユーザーによるオブジェクトの追加、注釈付け、又は変更を含むことができる。オブジェクトに対するユーザー変更が生じた場合、1226において、オブジェクトのデータが更新され、表示される。1228においてコンテンツの消費が終了すると、1230において方法は次のオブジェクトに移動する。
[00109]図13は、図12のステップ1220を実行するための1つの方法を示す。ス
テップ1302において、特定のオブジェクトについての向き、場所、位置及び視点(パースペクティブ)を消費する適切なコンテンツに関して決定が行われる。ステップ1302において取得された情報は、許容可能なレンダリング位置が生じる1つ又は複数の仮想オブジェクトから利用可能な情報を定義する。当該消費デバイスの場所、向き、位置及び視野が1304において取得される。
[00110]1306において、レンダリングされる共有の視点(パースペクティブ)がロックされた仮想オブジェクトがワールドロックされているか又はローカルロックされているかについて最初の判定が行われる。
[00111]ワールドロックされた仮想オブジェクトは、図4Bに示すようなものであり、そこでは、オブジェクトの位置は物理的物体の位置及び向きにロックされる。ローカルロックされた仮想オブジェクトは、消費位置がユーザーの特定の視点(パースペクティブ)にロックされるものである。
[00112]共有の視点(パースペクティブ)がロックされた仮想オブジェクトがローカルロックされたオブジェクトである場合、1312において、消費デバイスの位置、場所及び向きが許容可能な消費位置と一致するか否かについての判定が行われる。この場合、許容可能な消費位置は単一の許容消費位置として定義されてもよい。そうでない場合、1314において、場所、位置及び向きを一致させるために必要とされる場所、位置及び向きに対する変更の決定が行われてもよく、1316において、ユーザーの場所、向き及び位置を訂正するための方向指針(directional guidance)がレンダリングされてもよい。これにより、ユーザーは、仮想オブジェクトの正確な消費のための位置に移動することができる。方向は、目で見える形式又は可聴的な形式で提供することができる。1318において、ユーザー及び消費デバイスが移動したかどうかについて判定が行われ、そうである場合、1312において、実際のデバイス位置と許容可能な消費位置との間の一致の検出が再び行われる。1312においてユーザーの消費デバイスが許容可能な消費位置と一致するとき、1340において、共有の視点(パースペクティブ)がロックされた仮想オブジェクトがレンダリングされる。
[00113]1306において共有の視点(パースペクティブ)がロックされた仮想オブジェクトがワールドロックされたオブジェクトである場合、1320において、消費デバイスが多くの許容可能な位置、向き及び場所のうちの1つにあるか否かについて判定が行われる。1つの態様では、許容可能な消費位置は、消費デバイスの場所、位置及び向きを決定することによって決定することができる。別の態様では、ワールドロックされたオブジェクトについて、許容可能な消費位置は、仮想オブジェクトが定義されるべき現実世界のオブジェクトに対する消費デバイスの視野を決定することによって決定することができる。
[00114]消費デバイスの場所、位置及び向きと許容可能な位置との間で一致が生じる場
合、1322において、オブジェクトはワールドロック位置においてレンダリングされる。1322において、ユーザーの視点(パースペクティブ)の変化の決定が1324において行われ、共有の視点(パースペクティブ)がロックされた仮想オブジェクトに対してユーザーの視点(パースペクティブ)が変化する場合、1326においてその変化が計算され、方法はステップ1320に戻って、共有の視点(パースペクティブ)がロックされた仮想オブジェクトに関して、消費デバイスが許容可能な場所、位置及び向きにあることを確実にする。1320において消費デバイスが正しい位置にない場合、1350においてオブジェクトのレンダリングは何も生じない。
[00115]主題は構造的特徴及び/又は方法論的動作に特有の言葉で説明されたが、添付
の特許請求の範囲において規定される主題が必ずしも上述の特定の特徴又は動作に限定されないことが理解されるべきである。むしろ、上述の特定の特徴及び動作は、特許請求の範囲を実施する例示的な形式として開示されるものである。

Claims (7)

  1. 共有仮想オブジェクトを生成するための装置であって、
    キャプチャーデバイスと、
    前記キャプチャーデバイスに結合されたプロセッサーと、
    を備え、前記プロセッサーが、以下の方法、即ち、
    前記キャプチャーデバイスの位置を決定するステップと、
    前記キャプチャーデバイスのグローバル座標の場所、位置及び向きを決定するステップと、
    パースペクティブがロックされた共有仮想オブジェクトを表示することを可能とするパラメータを決定するステップであって、当該パラメータを決定するステップが、
    共有仮想オブジェクトレンダリングデータを生成するサブステップであって、当該共有仮想オブジェクトレンダリングデータが、前記共有仮想オブジェクトに対するレンダリング位置データを含み、当該レンダリング位置データが、少なくともグローバル座標の場所、並びに、消費デバイスの視野内のローカル座標系に関する仮想オブジェクトの少なくとも1つの位置及び少なくとも1つの向きを含む、ものと、
    見る位置を決定するサブステップであって、当該見る位置から、前記パースペクティブがロックされた共有仮想オブジェクトを見ることが可能であり、当該見る位置以外の位置からは前記パースペクティブがロックされた共有仮想オブジェクトを見ることが不可能である、ものと、
    前記見る位置の場所を示す仮想マーカーを生成するサブステップであって、当該仮想マーカーが、当該仮想マーカーから離れた場所から見える、ものと、
    を含むものと、
    前記パースペクティブがロックされた共有仮想オブジェクトを共有するステップと、
    を含む方法を実行するようにプログラムされた、
    共有仮想オブジェクトを生成するための装置。
  2. 前記装置が、更に、
    前記プロセッサーが、
    前記仮想マーカーを、前記パースペクティブがロックされた共有仮想オブジェクトに関連するレンダリング位置データに含まれる前記ローバル座標の場所に割り当てるように、
    前記プロセッサーをプログラミングする、
    コードを含む、請求項1に記載の装置。
  3. 前記装置が、更に、
    前記プロセッサーが、
    ワールドロックされた状態、又は、ローカルロックされた状態を、前記パースペクティブがロックされた共有仮想オブジェクトに割り当てるように、
    前記プロセッサーをプログラミングする、
    コードを含む、請求項1に記載の装置。
  4. 前記装置が、更に、前記プロセッサーが、
    前記パースペクティブがロックされた共有仮想オブジェクトに、所定の場所で、ワールドロックされた状態を割り当て、消費デバイスに対する複数の許容可能なグローバル座標の場所、許容可能な位置、及び、許容可能な向き、を決定して、前記パースペクティブがロックされた共有仮想オブジェクトをレンダリングするように、
    前記プロセッサーをプログラミングする、
    コードを含む、請求項3に記載の装置。
  5. 前記装置が、更に、前記プロセッサーが、
    前記パースペクティブがロックされた共有仮想オブジェクトに、
    ローカルロックされた状態を割り当て、
    消費デバイスに対する1つの許容可能なグローバル座標の場所、位置、及び、向きを決定して、前記パースペクティブがロックされた共有仮想オブジェクトを、ローカルロックされたオブジェクトとしてレンダリングするように、
    前記プロセッサーをプログラミングする、
    コードを含む、請求項3に記載の装置。
  6. 前記キャプチャーデバイスが、少なくとも音声センサー及びビデオカメラを含み、
    前記装置が、更に、
    前記音声センサー及び前記ビデオカメラを用いて、前記パースペクティブがロックされた共有仮想オブジェクトのレンダリングデータをキャプチャーするように、前記プロセッサーをプログラミングする、
    コードを含む、
    請求項1に記載の装置。
  7. ディスプレイを更に含み、
    前記装置が、更に、
    他のキャプチャーデバイスによって生成された、第2の、パースペクティブがロックされた共有仮想オブジェクトのためのレンダリング位置データを受信するステップであって、当該レンダリング位置データが、許容可能な場所、許容可能な位置、及び、許容可能な向き、のそれぞれのうちの少なくとも1つを含むものと、
    前記装置の場所、位置、及び、向きを決定するステップと、
    前記装置の場所、位置、及び、向きが、前記許容可能な場所、許容可能な位置、及び、許容可能な向きに近接する場合に、前記パースペクティブがロックされた共有仮想オブジェクトを、シースルーヘッドマウントディスプレイにおいてレンダリングするステップと、
    を実行するように、前記プロセッサーをプログラミングする、
    コードを含む、
    請求項1に記載の装置。
JP2016521497A 2013-06-18 2014-06-17 仮想オブジェクトの方向付け及び可視化 Active JP6391685B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/921,053 US10139623B2 (en) 2013-06-18 2013-06-18 Virtual object orientation and visualization
US13/921,053 2013-06-18
PCT/US2014/042647 WO2014204905A1 (en) 2013-06-18 2014-06-17 Virtual object orientation and visualization

Publications (2)

Publication Number Publication Date
JP2016533565A JP2016533565A (ja) 2016-10-27
JP6391685B2 true JP6391685B2 (ja) 2018-09-19

Family

ID=51168429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016521497A Active JP6391685B2 (ja) 2013-06-18 2014-06-17 仮想オブジェクトの方向付け及び可視化

Country Status (11)

Country Link
US (1) US10139623B2 (ja)
EP (2) EP3521981A1 (ja)
JP (1) JP6391685B2 (ja)
KR (1) KR102289389B1 (ja)
CN (1) CN105453011B (ja)
AU (1) AU2014281726B2 (ja)
BR (1) BR112015031234B1 (ja)
CA (1) CA2913650C (ja)
MX (1) MX371269B (ja)
RU (1) RU2670784C9 (ja)
WO (1) WO2014204905A1 (ja)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9823737B2 (en) * 2008-04-07 2017-11-21 Mohammad A Mazed Augmented reality personal assistant apparatus
KR20100138700A (ko) * 2009-06-25 2010-12-31 삼성전자주식회사 가상 세계 처리 장치 및 방법
US9500865B2 (en) * 2013-03-04 2016-11-22 Alex C. Chen Method and apparatus for recognizing behavior and providing information
JP6499154B2 (ja) 2013-03-11 2019-04-10 マジック リープ, インコーポレイテッドMagic Leap,Inc. 拡張現実および仮想現実のためのシステムおよび方法
CN107656618B (zh) 2013-03-15 2021-03-23 奇跃公司 显示系统和方法
US9552675B2 (en) * 2013-06-03 2017-01-24 Time Traveler App Llc Display application and perspective views of virtual space
US9607437B2 (en) * 2013-10-04 2017-03-28 Qualcomm Incorporated Generating augmented reality content for unknown objects
US20150145887A1 (en) * 2013-11-25 2015-05-28 Qualcomm Incorporated Persistent head-mounted content display
JP2015149634A (ja) * 2014-02-07 2015-08-20 ソニー株式会社 画像表示装置および方法
JP2015228050A (ja) * 2014-05-30 2015-12-17 ソニー株式会社 情報処理装置および情報処理方法
WO2016061267A1 (en) 2014-10-15 2016-04-21 Dirtt Environmental Solutions, Inc. Virtual reality immersion with an architectural design software application
US10140768B2 (en) * 2014-10-17 2018-11-27 Seiko Epson Corporation Head mounted display, method of controlling head mounted display, and computer program
WO2016077798A1 (en) 2014-11-16 2016-05-19 Eonite Perception Inc. Systems and methods for augmented reality preparation, processing, and application
US10043319B2 (en) 2014-11-16 2018-08-07 Eonite Perception Inc. Optimizing head mounted displays for augmented reality
US9916002B2 (en) * 2014-11-16 2018-03-13 Eonite Perception Inc. Social applications for augmented reality technologies
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
US10216982B2 (en) * 2015-03-12 2019-02-26 Microsoft Technology Licensing, Llc Projecting a virtual copy of a remote object
JP6367166B2 (ja) 2015-09-01 2018-08-01 株式会社東芝 電子機器及び方法
US10496156B2 (en) * 2016-05-17 2019-12-03 Google Llc Techniques to change location of objects in a virtual/augmented reality system
US11468111B2 (en) 2016-06-01 2022-10-11 Microsoft Technology Licensing, Llc Online perspective search for 3D components
CA3000008A1 (en) 2016-06-10 2017-12-14 Dirtt Environmental Solutions, Inc. Mixed-reality and cad architectural design environment
CA2997021A1 (en) * 2016-06-10 2017-12-14 Barrie A. Loberg Mixed-reality architectural design environment
EP3273707B1 (en) * 2016-07-20 2019-10-16 Deutsche Telekom AG Method and system for displaying location specific content by a head mounted display device
CN106250084B (zh) * 2016-07-29 2017-08-08 广东欧珀移动通信有限公司 视频录制方法、装置及移动终端
US10466474B2 (en) * 2016-08-04 2019-11-05 International Business Machines Corporation Facilitation of communication using shared visual cue
US11017712B2 (en) 2016-08-12 2021-05-25 Intel Corporation Optimized display image rendering
US9928660B1 (en) 2016-09-12 2018-03-27 Intel Corporation Hybrid rendering for a wearable display attached to a tethered computer
US11295525B1 (en) 2016-09-30 2022-04-05 Amazon Technologies, Inc. Augmenting transmitted video data
US10943396B1 (en) 2016-09-30 2021-03-09 Amazon Technologies, Inc. Synchronizing transmitted video data and enhancements
US10950049B1 (en) * 2016-09-30 2021-03-16 Amazon Technologies, Inc. Augmenting transmitted video data
CN106405840A (zh) * 2016-10-31 2017-02-15 沈阳工业大学 具有导航功能的头盔式增强现实眼镜
WO2018093923A1 (en) 2016-11-16 2018-05-24 Magic Leap, Inc. Mixed reality system with reduced power rendering
US10499997B2 (en) 2017-01-03 2019-12-10 Mako Surgical Corp. Systems and methods for surgical navigation
US10348725B2 (en) 2017-01-10 2019-07-09 International Business Machines Corporatino Method of instant sharing invoked from wearable devices
US10534429B2 (en) 2017-01-10 2020-01-14 International Business Machines Corporation Method of instant sharing invoked from wearable devices
KR102567007B1 (ko) 2017-02-24 2023-08-16 마시모 코오퍼레이션 의료 모니터링 데이터 표시 시스템
WO2018156809A1 (en) * 2017-02-24 2018-08-30 Masimo Corporation Augmented reality system for displaying patient data
US11086396B2 (en) * 2017-03-31 2021-08-10 Sony Interactive Entertainment LLC Depth-keying of web content
US11436811B2 (en) 2017-04-25 2022-09-06 Microsoft Technology Licensing, Llc Container-based virtual camera rotation
CN109426419B (zh) * 2017-09-05 2022-06-03 菜鸟智能物流控股有限公司 界面显示方法及相关设备
GB2568138B (en) * 2017-09-27 2023-02-08 Fisher Rosemount Systems Inc 3D Mapping of a process control environment
US10796487B2 (en) 2017-09-27 2020-10-06 Fisher-Rosemount Systems, Inc. 3D mapping of a process control environment
CN111052045B (zh) * 2017-09-29 2022-07-15 苹果公司 计算机生成的现实平台
CN110415293B (zh) * 2018-04-26 2023-05-23 腾讯科技(深圳)有限公司 交互处理方法、装置、系统和计算机设备
US11677833B2 (en) * 2018-05-17 2023-06-13 Kaon Interactive Methods for visualizing and interacting with a three dimensional object in a collaborative augmented reality environment and apparatuses thereof
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
US11244509B2 (en) 2018-08-20 2022-02-08 Fisher-Rosemount Systems, Inc. Drift correction for industrial augmented reality applications
CN112639579B (zh) 2018-08-31 2023-09-15 奇跃公司 用于增强现实装置的空间分辨的动态调暗
CN111200754B (zh) * 2018-11-16 2021-08-10 北京字节跳动网络技术有限公司 一种全景视频的播放方法、装置、终端及存储介质
KR20200098034A (ko) * 2019-02-11 2020-08-20 삼성전자주식회사 가상 현실 유저 인터페이스를 제공하기 위한 전자 장치 및 그의 동작 방법
DE112020002268T5 (de) 2019-05-06 2022-02-10 Apple Inc. Vorrichtung, verfahren und computerlesbares medium zur darstellung von dateien computergenerierter realität
CN113544634A (zh) 2019-05-06 2021-10-22 苹果公司 用于构成cgr文件的设备、方法和图形用户界面
US10885819B1 (en) * 2019-08-02 2021-01-05 Harman International Industries, Incorporated In-vehicle augmented reality system
US11704874B2 (en) 2019-08-07 2023-07-18 Magic Leap, Inc. Spatial instructions and guides in mixed reality
JP7359941B2 (ja) 2019-08-12 2023-10-11 マジック リープ, インコーポレイテッド 仮想現実および拡張現実のためのシステムおよび方法
EP3936978B1 (en) 2020-07-08 2023-03-29 Nokia Technologies Oy Object display
US11816887B2 (en) 2020-08-04 2023-11-14 Fisher-Rosemount Systems, Inc. Quick activation techniques for industrial augmented reality applications
RU2759773C1 (ru) * 2020-10-21 2021-11-17 Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) Способ и система определения местоположения пользователя
EP4016251A1 (en) * 2020-12-16 2022-06-22 Hitachi Energy Switzerland AG Portable display device with overlaid virtual information
JP7078941B1 (ja) * 2021-02-10 2022-06-01 株式会社 無重力 情報共有プログラム及び情報処理装置
US11647161B1 (en) 2022-05-11 2023-05-09 Iniernational Business Machines Corporation Resolving visibility discrepencies of virtual objects in extended reality devices

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04250436A (ja) 1991-01-11 1992-09-07 Pioneer Electron Corp 撮像装置
US6597818B2 (en) 1997-05-09 2003-07-22 Sarnoff Corporation Method and apparatus for performing geo-spatial registration of imagery
KR100444981B1 (ko) 2000-12-15 2004-08-21 삼성전자주식회사 착용형 디스플레이 시스템
US7693702B1 (en) 2002-11-01 2010-04-06 Lockheed Martin Corporation Visualizing space systems modeling using augmented reality
US7401920B1 (en) 2003-05-20 2008-07-22 Elbit Systems Ltd. Head mounted eye tracking and display system
US7391424B2 (en) * 2003-08-15 2008-06-24 Werner Gerhard Lonsing Method and apparatus for producing composite images which contain virtual objects
IL157837A (en) 2003-09-10 2012-12-31 Yaakov Amitai Substrate-guided optical device particularly for three-dimensional displays
US7737965B2 (en) * 2005-06-09 2010-06-15 Honeywell International Inc. Handheld synthetic vision device
US8160400B2 (en) 2005-11-17 2012-04-17 Microsoft Corporation Navigating images using image based geometric alignment and object based controls
US20080147325A1 (en) 2006-12-18 2008-06-19 Maassel Paul W Method and system for providing augmented reality
JP5044817B2 (ja) 2007-11-22 2012-10-10 インターナショナル・ビジネス・マシーンズ・コーポレーション 仮想空間を構築するための画像処理方法、装置
US20090289955A1 (en) 2008-05-22 2009-11-26 Yahoo! Inc. Reality overlay device
US8108778B2 (en) 2008-09-30 2012-01-31 Yahoo! Inc. System and method for context enhanced mapping within a user interface
DE102009037835B4 (de) * 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
US8773465B2 (en) * 2009-09-11 2014-07-08 Trimble Navigation Limited Methods and apparatus for providing navigational information associated with locations of objects
US20110214082A1 (en) * 2010-02-28 2011-09-01 Osterhout Group, Inc. Projection triggering through an external marker in an augmented reality eyepiece
US20120249797A1 (en) 2010-02-28 2012-10-04 Osterhout Group, Inc. Head-worn adaptive display
WO2011107423A1 (en) 2010-03-01 2011-09-09 Metaio Gmbh Method of displaying virtual information in a view of a real environment
KR101572892B1 (ko) * 2010-05-06 2015-11-30 엘지전자 주식회사 이동 단말기 및 이것의 영상 디스플레이 방법
JP5622510B2 (ja) 2010-10-01 2014-11-12 オリンパス株式会社 画像生成システム、プログラム及び情報記憶媒体
US9292973B2 (en) * 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US9286721B2 (en) 2010-11-08 2016-03-15 Sony Corporation Augmented reality system for product identification and promotion
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
EP3654146A1 (en) * 2011-03-29 2020-05-20 QUALCOMM Incorporated Anchoring virtual images to real world surfaces in augmented reality systems
JP5675470B2 (ja) 2011-04-01 2015-02-25 オリンパス株式会社 画像生成システム、プログラム及び情報記憶媒体
US8332424B2 (en) * 2011-05-13 2012-12-11 Google Inc. Method and apparatus for enabling virtual tags
US8629815B2 (en) 2011-08-09 2014-01-14 Google Inc. Laser alignment of binocular head mounted display
US9153195B2 (en) * 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
US9285592B2 (en) 2011-08-18 2016-03-15 Google Inc. Wearable device with input and output structures
US20130083008A1 (en) 2011-09-30 2013-04-04 Kevin A. Geisner Enriched experience using personal a/v system
US9268406B2 (en) 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
US9497501B2 (en) * 2011-12-06 2016-11-15 Microsoft Technology Licensing, Llc Augmented reality virtual monitor
US8635021B2 (en) * 2012-05-04 2014-01-21 Google Inc. Indicators for off-screen content

Also Published As

Publication number Publication date
EP3521981A1 (en) 2019-08-07
US10139623B2 (en) 2018-11-27
KR102289389B1 (ko) 2021-08-11
JP2016533565A (ja) 2016-10-27
KR20160021284A (ko) 2016-02-24
EP3011418A1 (en) 2016-04-27
BR112015031234A8 (pt) 2020-03-24
CN105453011A (zh) 2016-03-30
CA2913650C (en) 2021-01-19
BR112015031234B1 (pt) 2022-04-26
WO2014204905A1 (en) 2014-12-24
MX2015017875A (es) 2016-04-13
RU2670784C9 (ru) 2018-11-23
BR112015031234A2 (pt) 2017-07-25
CA2913650A1 (en) 2014-12-24
EP3011418B1 (en) 2019-11-06
MX371269B (es) 2020-01-23
AU2014281726A1 (en) 2015-12-10
AU2014281726B2 (en) 2019-05-02
RU2015154279A (ru) 2017-06-22
CN105453011B (zh) 2019-04-30
US20140368532A1 (en) 2014-12-18
RU2015154279A3 (ja) 2018-05-14
RU2670784C2 (ru) 2018-10-25

Similar Documents

Publication Publication Date Title
JP6391685B2 (ja) 仮想オブジェクトの方向付け及び可視化
US9235051B2 (en) Multi-space connected virtual data objects
US10132633B2 (en) User controlled real object disappearance in a mixed reality display
US10955665B2 (en) Concurrent optimal viewing of virtual objects
US9618747B2 (en) Head mounted display for viewing and creating a media file including omnidirectional image data and corresponding audio data
US10175483B2 (en) Hybrid world/body locked HUD on an HMD
US9122321B2 (en) Collaboration environment using see through displays
US8963956B2 (en) Location based skins for mixed reality displays
CN113168007A (zh) 用于增强现实的系统和方法
US20170053447A1 (en) Augmented Reality
US20140368537A1 (en) Shared and private holographic objects
US20190220090A1 (en) Position tracking system for head-mounted displays that includes sensor integrated circuits

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180723

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180821

R150 Certificate of patent or registration of utility model

Ref document number: 6391685

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250