JP6730286B2 - 拡張現実視野オブジェクトフォロワー - Google Patents

拡張現実視野オブジェクトフォロワー Download PDF

Info

Publication number
JP6730286B2
JP6730286B2 JP2017534550A JP2017534550A JP6730286B2 JP 6730286 B2 JP6730286 B2 JP 6730286B2 JP 2017534550 A JP2017534550 A JP 2017534550A JP 2017534550 A JP2017534550 A JP 2017534550A JP 6730286 B2 JP6730286 B2 JP 6730286B2
Authority
JP
Japan
Prior art keywords
augmented reality
reality object
fov
wearer
display system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017534550A
Other languages
English (en)
Other versions
JP2018505472A (ja
Inventor
ラムスビー,スコット
トンプソン,ジョー
オズボーン,ダン
クリスピン ライト,ショーン
クリスピン ライト,ショーン
クランプ,ブライアン
ソーンダース,メガン
ウッドクラフト グワン,フォレスト
ウッドクラフト グワン,フォレスト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2018505472A publication Critical patent/JP2018505472A/ja
Application granted granted Critical
Publication of JP6730286B2 publication Critical patent/JP6730286B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0123Head-up displays characterised by optical features comprising devices increasing the field of view
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • G02B2027/0134Head-up displays characterised by optical features comprising binocular systems of stereoscopic type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

[0001] 立体ディスプレイは、ビューアの左眼および右眼にイメージを同時に提示することができる。同じオブジェクトの異なるビューを右眼および左眼の視野内の異なる位置に提示することによって、オブジェクトの3次元知覚を達成することができる。さらに、立体ディスプレイのユーザがある環境を動き回るのに応じて、オブジェクトの知覚された実世界位置を調整することができる。
[0002] 本概要は、以下の発明を実施するための形態でさらに説明する概念の選択を、簡略化された形で紹介するために提供される。本概要は、請求する主題の主な特徴または不可欠な特徴を識別することを意図しておらず、請求する主題の範囲を限定するために使用することも意図していない。さらに、請求する主題は、本開示のいずれかの部分に示されたいずれかまたはすべての欠点を解決する実装に限定されない。
[0003] 拡張現実オブジェクトを、ユーザの視野の関数として位置決めする例が提示される。一例において、ウェアラブルな頭部装着表示システムは、見掛けの実世界深度および見掛けの実世界位置で、頭部装着表示システムの装着者によって知覚可能な拡張現実オブジェクトを表示するためのニアアイディスプレイと、装着者の視野(FOV)の関数として拡張現実オブジェクトの見掛けの実世界位置を調整するためのコントローラとを含み、関数は、拡張現実オブジェクトの境界領域、および、拡張現実オブジェクトの境界領域と装着者のFOVとの間の1つまたは複数の重複パラメータに基づく。
[0004]ニアアイのシースルー表示デバイスを装着しているユーザを含む、例示的環境を示す図である。 [0005]拡張現実オブジェクトに適用可能な修正ボディロック機能の例示的態様を示す図である。 拡張現実オブジェクトに適用可能な修正ボディロック機能の例示的態様を示す図である。 拡張現実オブジェクトに適用可能な修正ボディロック機能の例示的態様を示す図である。 [0006]拡張現実オブジェクトを表示するための方法を示すフローチャートである。 [0007]仮想ばね関数に従った拡張現実オブジェクトの例示的な動きを示す図である。 [0008]ユーザの視野の関数として拡張現実オブジェクトに対する様々な例示的調整を示す図である。 ユーザの視野の関数として拡張現実オブジェクトに対する様々な例示的調整を示す図である。 ユーザの視野の関数として拡張現実オブジェクトに対する様々な例示的調整を示す図である。 ユーザの視野の関数として拡張現実オブジェクトに対する様々な例示的調整を示す図である。 [0009]例示的なコンピューティングシステムを示す図である。 [0010]例示的な頭部装着表示デバイスを示す図である。 例示的な頭部装着表示デバイスを示す図である。
[0011] ニアアイディスプレイデバイスは、ホログラムと呼ばれることのある拡張現実オブジェクトが、ニアアイディスプレイデバイス周囲の実世界環境内に存在するという錯覚を与えるために、拡張現実イメージを表示するように構成可能である。いくつかの例において、拡張現実オブジェクトは「ワールドロック」することが可能であり、たとえ表示デバイスの装着者が実世界の物理環境を動き回っていても、拡張現実オブジェクトは固定された知覚実世界位置を維持する。デバイスの装着者は実世界空間においてオブジェクトが位置する場所を覚えておくことに苦労する可能性があるため、装着者にとってこうしたワールドロックされたオブジェクトとの対話が困難な場合がある。この問題は、拡張現実オブジェクトがメニュー、コントロールボタンなどのユーザインターフェース要素である場合、オブジェクトとの間に発生する可能性のある対話が頻繁であるため、特に困難である。
[0012] 本明細書で開示する実施形態によれば、選択された拡張現実オブジェクトの知覚される実世界位置は、ニアアイディスプレイデバイスの装着者の視野(FOV)の変化に応じて調整することができる。選択された拡張現実オブジェクトは、表示するべき拡張現実オブジェクトの関心のターゲット領域を定義する関連する関数、ならびに、装着者のFOVが移動している場合、およびFOVが相対的に動かない場合、関心のターゲット領域のどれくらいが表示されるべきかを定義する重複パラメータを有することができる。FOVの変化に伴う拡張現実オブジェクトの動きは、FOVが少量変化した場合は、拡張現実オブジェクトを相対的に一定の位置にとどめておくことが可能であり、その後、FOVが大量に移動した場合は、FOVと共に拡張現実オブジェクトを急速に引っ張る、仮想ばねによって制御することができる。このようにして、デバイスの装着者は、たとえ装着者が実世界空間を動き回っていても、拡張現実オブジェクトの少なくとも一部に容易にアクセスすることができる。
[0013] 図1は、本明細書では頭部装着ディスプレイ(HMD)104として具体化された、ニアアイのシースルー表示デバイスを、ユーザ102が装着している例示的環境100を示す。HMDは、ユーザ102に環境100のシースルービューを提供する。HMDは、ユーザに拡張現実イメージも表示する。一例において、HMDは立体表示デバイスであり、2つの別々の拡張現実イメージが、それぞれ左眼および右眼のHMDディスプレイ上に各々表示される。HMDの装着者(たとえば、ユーザ102)が見た場合、2つの拡張現実イメージは集合的に、環境100の一部として装着者が知覚可能な拡張現実オブジェクトを形成する。図1は、本明細書では仮想ディスプレイおよびコントロールボタンを含むビデオ会議インターフェースとして示される、例示的な拡張現実オブジェクト106を示す。示された拡張現実オブジェクトは環境100内の他者には見えず、拡張現実オブジェクトはHMD 104を介してユーザ102のみに見えることが理解されよう。
[0014] HMD 104は、知覚される拡張現実オブジェクトがボディロックおよび/またはワールドロックされるように、拡張現実イメージを表示することができる。ボディロックされた拡張現実オブジェクトは、HMD 104の6自由度ポーズ(すなわち、6DOF:x、y、z、ヨー、ピッチ、ロール)が変化するのに応じて移動する。したがって、ボディロックされた拡張現実オブジェクトは、ユーザ102の視野の同じ部分を占有するように見え、たとえユーザが移動、回転などを行っても、ユーザ102から同じ距離にあるように見える。
[0015] 他方で、ワールドロックされた拡張現実オブジェクトは、周囲の環境に対して固定された位置にとどまっているように見える。たとえユーザが移動し、ユーザの視点が変化しても、ワールドロックされた拡張現実オブジェクトは周囲の環境に対して同じ位置/向きにあるように見えることになる。例として、拡張現実のチェスの駒は、ユーザがチェス盤を見る見通しの利く場所に関係なく、実世界のチェス盤の同じ升目上にあるよう見える。ワールドロックされた拡張現実オブジェクトをサポートするために、HMDは、HMDの6DOFポーズおよび周囲環境の表面アスペクトの幾何学的マッピング/モデリングを追跡する。
[0016] 図1に示されるように、ユーザ102は現在、拡張現実オブジェクト106とフルに対話しており、したがってこうした拡張現実オブジェクトは、拡張現実オブジェクトの機能に最適なサイズおよび位置で表示されている。示された例において、拡張現実オブジェクトはビデオ会議インターフェースであるため、拡張現実オブジェクトは、ユーザのFOVの中央近くに、ユーザが仮想ディスプレイおよびコントロールボタンを容易に可視化できるようなサイズで、位置決めされる。
[0017] しかしながら、ユーザが環境100を動き回った場合、拡張現実オブジェクトを視野の中心に、および/またはこうした比較的大きなサイズで維持することは、環境内に存在する実世界オブジェクトをわかりにくくする、ユーザが実行したいと思っている他のタスクから気を散らす、または他の問題を起こす可能性がある。拡張現実オブジェクトが現在知覚されている実世界位置にロックされたままである場合、ユーザが環境から移動すると、後に拡張現実オブジェクトにアクセスするのが困難な可能性がある。
[0018] 本開示によれば、拡張現実オブジェクト106は、拡張現実オブジェクトの少なくとも一部がユーザのFOV内の所与の位置につなぎ止めたままであるように、修正されたボディロック機能に従って移動させることができる。本明細書で使用される場合、「ユーザのFOV」という用語は、ユーザの実際の視野を指すか、または、ディスプレイを介したユーザの視野、すなわちディスプレイの視野を指すことができる。いくつかの例では、FOVは、ユーザのFOVおよびディスプレイFOVのうちの小さい方を指すことができる。
[0019] つなぎ止めは、ユーザのFOVが相対的に少量変化している場合、オブジェクトを同じ見掛けの実世界位置にとどめることができ、その後、FOVがより大量に変化した場合、オブジェクトを移動させることができるように、仮想ばね関数に従って制御可能である。ユーザのFOVが相対的に大量に変化した場合、オブジェクトの移動は、オブジェクトのほとんどまたはすべてがFOV内にとどまる、一部のみがFOV内にとどまる、またはオブジェクトはFOV内に一切とどまらないように、制御可能である。FOVの変化が停止(たとえば、ユーザの頭が静止)した場合、オブジェクトは、より小さいサイズ、より小さい割合、および/またはFOVの周辺の位置で、FOVに戻って配置することができる。オブジェクトがユーザのFOVから外れた時、たとえオブジェクトが現在は表示されていない場合であっても、オブジェクトの見掛けの実世界位置がなおも更新されるように、オブジェクトは依然としてFOVにつなぎ止めたままであってよい。
[0020] 上記の例は、ニアアイのシースルー表示システムに関して説明しているが、他の構成が可能であるため、本明細書で説明する例はシースルー表示システムに限定されないことを理解されよう。たとえば、仮想または拡張現実オブジェクトをユーザのFOVにつなぎ止めることは、取り付けられたデジタルカメラから仮想デジタルコンテンツで合成されたエンクローズドスクリーン内に再投影することで、非シースルーディスプレイ上で実行可能である。別の例では、つなぎ止めは、仮想現実オブジェクトが実世界または仮想環境のビデオフィードと共に提示される、完全な仮想現実システム上で実行可能である。
[0021] 上記で説明されるように、拡張現実オブジェクトの見掛けの実世界位置は、表示デバイスの装着者のFOVの関数として調整することができる。この関数は、拡張現実オブジェクトの境界領域、ならびに、FOVと拡張現実オブジェクトとの間の1つまたは複数の重複パラメータを含む、様々なパラメータに基づくことができる。図2A〜図2Cは、ユーザのFOVが変化する場合、およびFOVが相対的に一定のままである場合のどちらでも、拡張現実オブジェクトの望ましい部分を表示するために、図1の拡張現実オブジェクト106に適用可能な、例示的な境界領域と2つの重複パラメータとを示す。
[0022] 第1に図2Aを参照すると、拡張現実オブジェクト106は関連付けられた境界領域202を含む。境界領域202は、FOV包含計算が基にする拡張現実オブジェクトの関心のターゲット領域を定義する。たとえばFOV包含は、ユーザが能動的に拡張現実オブジェクトと対話している場合、境界領域の全体が表示されるが、境界領域の外部域は、FOVの外部に移動できるように、設定することができる。示された例では、境界領域202は、ビデオ会議の遠隔ユーザが表示される仮想ディスプレイの一部を含む。
[0023] いくつかの例において、境界領域は拡張現実オブジェクトと同じサイズおよび形状とすることができる。すなわち境界領域は、拡張現実オブジェクトのいかなるアスペクトも境界領域から省略されないように、拡張現実オブジェクトの全体を含むことができる。他の例において、境界領域は、図に示されるように、拡張現実オブジェクトよりも面積または容積が小さい空間を含むことができる。さらに他の例において、境界領域は、拡張現実オブジェクトよりも面積または容積が大きい空間を含むことができる。
[0024] 境界領域は、各拡張現実オブジェクトについて、または拡張現実オブジェクトのクラスについて、個別に定義することができる。境界領域は固定の面積/容積として明示的に定義可能であるか、または、境界領域は拡張現実オブジェクトに比例するサイズとして定義可能である。
[0025] 境界領域に加えて、1つまたは複数の重複パラメータも、FOV内の拡張現実オブジェクトの配置を規定することができる。図2Bは、FOVが相対的に大量に変化している場合、境界領域とFOVとの間の重複を定義する、移動最小重複パラメータ204を示す。いくつかの例において、最小重複パラメータは、表示された拡張現実オブジェクトがFOVから出始めた時にのみ適用可能である。最小重複パラメータは、1本または複数の軸に沿った境界領域の割合として定義することができる。最小重複パラメータは、境界領域より小さいサイズ(1本または複数の軸に沿って100%より小さい)、より大きいサイズ(1本または複数の軸に沿って100%より大きい)、または同じサイズ(1本または複数の軸に沿って100%)とすることができる。
[0026] 最小重複パラメータは、正または負の値とすることができる。最小重複パラメータが正の値である場合、拡張現実オブジェクトの境界領域の少なくとも一部は、FOVが変化している時にFOV内にとどまっている。しかしながら、最小重複パラメータが負の値である場合、境界領域はFOV内にとどまっておらず、したがっていくつかの例では、拡張現実オブジェクトのいずれもユーザに表示されていないことが含まれ得る。たとえば、負の100%のx軸最小重複パラメータは、境界領域を境界領域のx軸寸法の100%だけ視野の外へ移動させることが可能である。
[0027] 図2Bに示されるように、最小重複パラメータ204は、x軸で境界領域の50%、およびy軸で境界領域の100%に設定される。したがって、ユーザのFOVが変化し、拡張現実オブジェクトがFOVから出始めた時、x軸で境界領域の少なくとも50%が表示され、y軸で境界領域の100%が表示される。x軸で表示される境界領域の50%は、FOVが変化する方向に依存する。たとえば、ユーザが右を見ると、FOVの左縁は拡張現実オブジェクトを押し、境界領域の幅の右50%はFOV内に保持されるように見える。このシナリオは、図2Bに示されている。しかしながら、ユーザが左を見ると、FOVの右縁は拡張現実オブジェクトを押し、境界領域の幅の左50%はFOV内に保持されるように見える。図2Bに示される最小重複パラメータは本来例示的なものであり、他の最小重複パラメータ値が可能である。
[0028] 図2Cは、FOVが変化していないか、または相対的に少量だけ変化している場合(たとえば、ユーザの頭が静止している場合、または、FOVが変化しているが、境界領域をFOVの外に移動させるには十分でない場合)、境界領域とFOVとの間の重複を定義する、静止ターゲット重複パラメータ208を示す。示された例において、ターゲット重複パラメータ208は最小重複パラメータ204より大きく、x軸で境界領域の120%、y軸で境界領域の120%である。ターゲット重複パラメータ208に従ってFOV 206内に表示される場合、境界領域202の全体が表示される。さらに、境界領域の寸法を超える追加の重複は、境界領域周辺の拡張現実オブジェクトの追加の空間の表示を提供する。最小重複パラメータと同様に、ターゲット重複パラメータは、境界領域がFOV内に表示されるかまたはFOV内に表示されないように、正の値(図に示すように)または負の値とすることができる。
[0029] 図2Bおよび図2Cに示される例では、ユーザが自分の頭を右側に回転させると、境界領域のx軸の50%を表示することができる。ユーザの頭が回転を停止すると、拡張現実デバイスは、移動最小重複パラメータ204の使用からターゲット重複パラメータ208の使用へと切り替えることができる。したがって拡張現実オブジェクトは、たとえFOVが変化を停止した後であっても、引き続き移動することになる。
[0030] 拡張現実オブジェクトは、仮想ばね関数の1つまたは複数のばねパラメータに従って移動することができる。ばねパラメータの非限定的な例には、ばね定数および抑制係数が含まれる。たとえば、ばね定数は、拡張現実オブジェクトがFOVに対してどの程度厳密に移動するかを規定する。ばね定数が低いと、FOVが急激に変化する時に、拡張現実オブジェクトをFOVの外にまで延伸させることができる。ばね定数が高いと、拡張現実オブジェクトは、境界領域および重複パラメータから決定された位置のより近くに保持されることになる。抑制係数が高いと、急速に変化しているFOVが変化を停止した時に、拡張現実オブジェクトの振動が防止される。抑制係数が高いと、FOVが静止した後に、動かないFOVで拡張現実を安定させるのにかかる時間を低減させることにもなる。抑制係数が低いと、振動が可能となり、FOV内で拡張現実オブジェクトを即時に安定させることはない。
[0031] 次に図3に進むと、拡張現実オブジェクトを表示するための方法300が示されている。方法300は、上記で説明した図1のHMD 104などのウェアラブルな頭部装着表示システム、または、下記で説明する図10Aの頭部装着表示システム1000で、実行に移すことができる。
[0032] 302で、方法300は、表示システム上に表示するための拡張現実オブジェクトを取得することを含む。拡張現実オブジェクトは、任意の好適な拡張現実コンテンツを含むことができ、グラフィカルユーザインターフェース、ゲーム、誘導または支援システム、あるいは任意の好適な拡張または没入環境の一部として表示可能である。拡張現実オブジェクトは、リモートサービスから、表示システムのメモリから、あるいは、ユーザ入力、所定のシーケンスで実行されるゲームまたは他のコンテンツ、または他の好適なアクションから、取得することができる。拡張現実オブジェクトは、幾何学的パラメータ(たとえば、拡張現実オブジェクトの形状を定義する3次元頂点)、テクスチャ、および/または他のアスペクトを含むことができる。拡張現実オブジェクトは、好適なデータ構造の任意の組み合わせとして保存可能である。いくつかの例において、拡張現実オブジェクトは、右眼および左眼の拡張現実イメージをレンダリングするために使用可能であり、各々が、それぞれ表示システムの右眼および左眼のディスプレイ上に表示されるように構成される。
[0033] 304で、方法は、拡張現実オブジェクトの境界領域、1つまたは複数の重複パラメータ、および/または仮想ばね関数を決定することを含む。図2A〜図2Cに関して上記で説明したように、境界領域および重複パラメータは、表示されることになる拡張現実オブジェクトの空間(2次元面積または3次元容積)を協働的に定義する。仮想ばね関数は、FOVに対する境界領域の動きを定義することができる。境界領域、重複パラメータ、および/または仮想ばね関数は、任意の好適な様式で拡張現実オブジェクトに関連付けることができる。一例として、これらのパラメータは、拡張現実シーンをレンダリングしながらアクセス可能な変数として保存することができる。
[0034] 306で、拡張現実オブジェクトは、デフォルトの見掛けの実世界位置に表示される。たとえば拡張現実オブジェクトは、ユーザに対するか、またはユーザ対話のために表示可能な実世界に対する、デフォルト位置を含むことができる。これは、デフォルトの見掛けの実世界深度を含むことができる。さらに、拡張現実オブジェクトはデフォルトサイズで表示することができる。加えて、いくつかの例では、拡張現実オブジェクトは、見掛けの実世界位置、見掛けの実世界深度、およびユーザ入力に従ったサイズのうちの、1つまたは複数で表示することができる。
[0035] 308で、方法300は、ユーザのFOVの関数として拡張現実オブジェクトの見掛けの実世界位置を調整することを含む。調整は、FOVの関数として見掛けの実世界位置を調整することを含み得、ここで関数は、310に示されるように、境界領域および1つまたは複数の重複パラメータに基づく。さらに調整は、312に示されるように、さらに仮想ばね関数に基づいて、オブジェクトの見掛けの実世界位置を調整することを含み得る。
[0036] ユーザのFOVの関数として、拡張現実オブジェクトの見掛けの実世界位置を調整するために、表示システムは第1に、表示システムの1つまたは複数のイメージセンサおよび/または位置センサからのフィードバックに基づいて、ユーザのFOVを決定することができる。次に表示システムは、FOVが少なくともしきい値量だけ移動したかどうかを判別することができる。一例において、FOVが本当に変化したかどうかを表示システムが判別できるように、しきい値はゼロとすることができる。他の例において、しきい値は5または10%などのゼロより大きい所定の量とすることができる。さらに他の例では、しきい値は、FOVの1つまたは複数の境界に対する拡張現実オブジェクトの初期位置に基づくものとすることができる。たとえば表示システムは、拡張現実オブジェクトがFOVを出始めた場合にのみ、FOVが少なくともしきい値量だけ移動したことを示し得る。他のしきい値も可能である。
[0037] FOVが少なくともしきい値量だけ移動した場合、表示システムは、図2Bに関して上記で説明したように、拡張現実オブジェクトに関連付けられた境界領域および1つまたは複数の重複パラメータに従って、拡張現実オブジェクトを表示することができる。さらに、拡張現実オブジェクトは、あたかもばねにつなぎ止められているかのように、1つまたは複数のばねパラメータに従って移動させることができる。いくつかの実装において、ばねパラメータは、境界領域および重複パラメータによって確立された条件に違反することはできない。言い換えれば、最小重複は、違反することができない厳格な最小値である。他の実装では、ばねパラメータにより、重複に違反することが許される(たとえば、拡張現実オブジェクトは、FOVが急激に変化する場合、FOVを外れてさらに延伸する)。FOVが変化を停止する(たとえば、ユーザの頭が静止する)と、仮想ばね関数およびターゲット重複パラメータのうちの1つまたは複数に従って、境界領域を見掛けの実世界位置に表示することができる。しかしながら、仮想ばね関数の抑制係数に応じて、境界領域は、指定された位置で安定する前に、ターゲット重複パラメータによって指定された見掛けの実世界位置を一時的に「行き過ぎる」場合がある。いったん拡張現実オブジェクトが安定位置に表示されると、すべてより少ない拡張現実オブジェクトが表示されることをターゲット重複パラメータが定義する、いくつかの例では、ユーザ入力(たとえば、ユーザが拡張現実オブジェクトを凝視すること)に応答して、拡張現実オブジェクトの全体を表示することができる。
[0038] 上記の例では、境界領域は拡張現実オブジェクトの空間を含むように定義されるが、いくつかの例では、境界領域は拡張現実オブジェクトの一部またはすべての正確なバージョンは含まないが、その代わりに、ユーザが拡張現実オブジェクトを識別できるように、拡張現実オブジェクトのコンテンツを表す、イメージ、アイコン、メニューバーなどの拡張現実オブジェクトの表現を含むことができる。
[0039] 図4は、仮想ばね関数に従った拡張現実オブジェクトの例示的な一連の動きを示す略図400である。略図400は、一連の時点(たとえば、t〜t)を表示するタイムライン402と、図1の環境100におけるユーザ102などの環境内のユーザの視野406(破線によって画定される)を示す、関連付けられたオーバーヘッドマップ404とを含む。拡張現実オブジェクトの境界領域408が、仮想ばね関数に従ってFOV 406内に表示される。図4内のオーバーヘッドマップは可視ばねを示すが、ばねは例示のためにのみ可視であり、表示システムは必ずしもばねを表示しないことを理解されよう。
[0040] 時点tでばねはその静止位置にあり、ここではばねに一切の力がかけられていない。ばねは、FOVに対してある位置にアンカーで固定され、本明細書ではFOVの左境界に沿うものと示される。したがって、境界領域408はアンカー位置から第1の距離d1だけ間隔が空けられている。時点tで、FOVは左方向に移動を開始し、したがってアンカーは移動を開始する。しかしながら、ばねは伸張され、結果として境界領域は同じ見掛けの実世界位置にとどまることになる。次に境界領域は、第1の距離より大きい第2の距離d2だけ、アンカー位置から間隔を空けて位置決めされる。ばねの伸張量は、ばね定数、FOVの変化率、および拡張現実オブジェクトに割り当てられた仮想慣性によって決定することができる。
[0041] 時点tで示されるように、FOVは左へ移動し続け、ばねはより大きな伸張レベルに達し、境界領域はFOVと共に移動する。したがって、境界領域は、アンカー位置から同じ距離d2だけ間隔が空けられるが、境界領域は、時点tおよびtよりもさらに左の見掛けの実世界位置に位置決めされる。たとえば境界領域は、時点tおよびtでは相対的に環境内の壁の近くに位置決めされ、時点tでは壁から離れてシフトされている。
[0042] 時点tで、FOVは移動を停止する。しかしながら、ばねは圧縮を続行するため、境界領域は左に向かって移動し続けることになる。アンカー位置と境界領域は、第1および第2の距離よりも小さい第3の距離d3だけ間隔が空けられる。時点tまでに、ばねはその弛緩状態を取り戻し、境界領域はアンカー位置から時点tと同じ距離(d1)である。
[0043] 図5は、拡張現実オブジェクト504を含む、時点t、t、t、およびtでのユーザの視点からの図1のHMD 104などのHMDを介した、例示的ビュー502のタイムラインを示す、別の略図500を示す。拡張現実オブジェクト504は、時点tで壁506にワールドロックされている。図5は、環境514内のユーザ512の視野510を示す、オーバーヘッドマップ508も示す。時点tおよびtで、ユーザ512は自分の頭を右に回転させ、元のワールドロックされた位置にある拡張現実オブジェクト504をもはや見ることができない。しかしながら、時点tおよびtでのオーバーヘッドマップ508に示されるように、拡張現実オブジェクトの位置516は、拡張現実オブジェクトが負の最小重複パラメータ値を有することにより、視野510のすぐ外側にとどまるように動的に更新される。時点tでユーザ512は、更新された位置516を視野510が含むように、自分の頭を左に回転させて戻す。さらに、時点tでビュー502内に示されるように、拡張現実イメージは更新された位置516に表示される。
[0044] 動的に位置決めされた拡張現実オブジェクトは、ユーザが動的に位置決めされた拡張現実オブジェクト方向に視線を戻した時、便宜上、適切な深度で動的に配置することができる。たとえば、拡張現実オブジェクトを、最も近い実世界の物理表面まで押し戻すか、または、現在のコンテキスト(たとえば、適用シナリオ)に基づいて構成可能な深度まで引き寄せることができる。図5は、拡張現実オブジェクト504が最も近い物理表面、この場合は壁518まで押し戻された例を示す。
[0045] 図6は、HMDおよび対応するオーバーヘッドマップ604を介した例示的ビュー602のタイムラインの別の略図600を示す。略図600は、図5に示された同じ拡張現実オブジェクト504および同じ環境514のビュー、ならびにユーザ512の同じ動きを含む。しかしながら、図6では、拡張現実オブジェクト504は正の最小重複パラメータ値を有する。したがって、時点tおよびtで見られるように、拡張現実オブジェクトはユーザ512のFOV 510内に部分的にとどまっている。
[0046] 前述のように、拡張現実オブジェクトは、望ましい見掛けの実世界深度で配置することが可能であり、たとえば図5および図6に示されたタイムラインにおいて、拡張現実オブジェクトの見掛けの実世界深度は、拡張現実オブジェクトが壁に接して配置されているように見えるように調整される。深度が自動的に調整される場合、拡張現実オブジェクトまたは拡張現実オブジェクトのアスペクトは、拡張現実オブジェクトが表示される見掛けの実世界距離に関係なく、拡張現実オブジェクトまたはそのアスペクトがユーザの視野の同じ比率を取るように見えるように、固定された角サイズに従って動的に拡縮することができる。例として、ユーザから5フィート(約1.524メートル)離れた垂直面上に引かれた水平線は、0.95度の垂直角拡散を占有し得、水平線は、世界空間座標で1インチ(約2.54センチメートル)の高さであるように見え、同じ線が、ユーザから10フィート(約3.048メートル)の垂直面上に引かれた場合、線は、依然として0.95度の垂直角拡散を占有し得るが、世界空間座標では2インチ(約5.08センチメートル)高さであるように見える。このようにして、拡張現実オブジェクトは、拡張現実オブジェクトの見掛けの実世界深度の範囲全体を通じて、ユーザのFOVの固定比率で維持することができる。
[0047] 動的に位置決めされた拡張現実オブジェクトは、ユーザが視線を戻し、新しい動的に調整された位置にある拡張現実オブジェクトを見た時、より小さく見えるように、動的に拡縮することができる。例として、図7は、更新された位置516にユーザが視線を戻した時、サイズが減少した拡張現実オブジェクト504’を示す。
[0048] 拡張現実オブジェクトが拡縮される場合、拡張現実オブジェクトは、しきい値持続時間、拡張現実オブジェクトを凝視するなどのユーザトリガに応答して、元のサイズに再度拡縮することができる。図8は、ユーザ512がしきい値持続時間(たとえば、t−t)拡張現実オブジェクト504’を凝視する例を示す。凝視によって、縮小された拡張現実オブジェクト504’をフルサイズの拡張現実オブジェクト504に拡大することがトリガされる。こうした拡大がしきい値持続時間に達した後に1つの離散工程として行うか、または拡大は、図に示されるように2つまたはそれ以上の工程で行うことができる。
[0049] 動的拡縮が使用されるかどうかにかかわらず、動的に移動された拡張現実オブジェクトは、ユーザのトリガがしきい値持続時間内に実行されない場合、前の位置に自動的に戻ることができる。たとえばユーザが、動的に移動された拡張現実オブジェクトをしきい値持続時間内に凝視しない場合、拡張現実オブジェクトは自動的にユーザの視野を離れ、元の位置に戻ることができる。
[0050] 前述の拡縮機能に加えて、任意選択により、拡張現実オブジェクトを容易に対話および閲覧できるようにするために、拡張現実オブジェクトがユーザに向き合うように動的に回転する「ビルボード」効果を用いて、拡張現実オブジェクトを表示することができる。たとえば境界領域は、拡張現実オブジェクトの平面を定義することができるため、拡張現実オブジェクトを回転させて、拡張現実オブジェクトのその平面をFOV内に維持することができる。いくつかの例において、それ以外の方法でユーザのFOVの関数として調整される拡張現実オブジェクトは、ユーザの要求に応答して、固定された見掛けの実世界位置にピン止めすることができる。
[0051] さらなる例において、ばね機構の物理的性質およびその制御された拡張現実オブジェクトのより強い感覚をユーザに与えるために、拡張現実オブジェクトをアニメーション化する(たとえば、前述の仮想ばね関数によって引き寄せられることに応答して、その移動方向によって定義された軸に沿って回転する)ことができる。
[0052] いくつかの実施形態において、本明細書で説明する方法およびプロセスは、1つまたは複数のコンピューティングデバイスのコンピューティングシステムに結び付けることができる。特に、こうした方法およびプロセスは、コンピュータアプリケーションプログラムまたはサービス、アプリケーションプログラミングインターフェース(API)、ライブラリ、および/または他のコンピュータプログラム製品として実装可能である。
[0053] 図9は、前述の方法およびプロセスのうちの1つまたは複数を実行に移すことが可能なコンピューティングシステム900の、非限定的な実施形態を概略的に示す。図1のHMD 104および/または図10Aのディスプレイシステム1000は、コンピューティングシステム900の非限定的な例である。コンピューティングシステム900は簡略化された形で示される。コンピューティングシステム900は、1つまたは複数のパーソナルコンピュータ、サーバコンピュータ、タブレットコンピュータ、ホームエンターテイメントコンピュータ、ネットワークコンピューティングデバイス、ゲーミングデバイス、モバイルコンピューティングデバイス、モバイル通信デバイス(たとえば、スマートフォン)、および/または他のコンピューティングデバイスの形を取ることができる。
[0054] コンピューティングシステム900は、論理機械902および記憶機械904を含む。コンピューティングシステム900は、任意選択により、表示サブシステム906、入力サブシステム908、通信サブシステム910、および/または図9に示されていない他のコンポーネントを含むことができる。
[0055] 論理機械902は、命令を実行するように構成された1つまたは複数の物理デバイスを含む。たとえば、論理機械は、1つまたは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造、または他の論理構造の一部である、命令を実行するように構成可能である。こうした命令を実装して、タスクを実行し、データ型を実装し、1つまたは複数のコンポーネントの状態を変換し、技術的効果を達成し、あるいは他の方法で望ましい結果に到達することができる。
[0056] 論理機械は、ソフトウェア命令を実行するように構成された1つまたは複数のプロセッサを含むことができる。追加または代替として、論理機械は、ハードウェアまたはファームウェア命令を実行するように構成された、1つまたは複数のハードウェアまたはファームウェア論理機械を含むことができる。論理機械のプロセッサは、シングルコアまたはマルチコアであり得、その上で実行される命令は、逐次、並列、および/または分散の処理用に構成可能である。論理機械の個々のコンポーネントは、協調的な処理のためにリモートに配置および/または構成可能な、2つまたはそれ以上の別々のデバイス間で分散可能である。論理機械の態様は、リモートにアクセス可能な、クラウドコンピューティング構成で構成されたネットワーク化されたコンピューティングデバイスによって、視覚化および実行することができる。
[0057] 記憶機械904は、本明細書で説明する方法およびプロセスを実装するために論理機械によって実行可能な命令を保持するように構成された、1つまたは複数の物理デバイスを含む。こうした方法およびプロセスが実装される場合、記憶機械904の状態は、たとえば異なるデータを保持するように変換可能である。
[0058] 記憶機械904は、取り外し可能デバイスおよび/または一体型デバイスを含むことができる。記憶機械904は、とりわけ、光学メモリ(たとえば、CD、DVD、HD-DVD、ブルーレイディスクなど)、半導体メモリ(たとえば、RAM、EPROM、EEPROMなど)、および/または磁気メモリ(たとえば、ハードディスクドライブ、フロッピーディスクドライブ、テープドライブ、MRAMなど)を含むことができる。記憶機械904は、揮発性、不揮発性、動的、静的、読み取り/書き込み、読み取り専用、ランダムアクセス、逐次アクセス、ロケーションアドレス可能、ファイルアドレス可能、および/またはコンテンツアドレス可能な、デバイスを含むことができる。
[0059] 記憶機械904は、1つまたは複数の物理デバイスを含むことを理解されよう。しかしながら、本明細書で説明する命令の態様は、代替として、有限持続時間の間物理デバイスによって保持されない通信媒体(たとえば、電磁信号、光信号など)によって伝搬可能である。
[0060] 論理機械902および記憶機械904の態様は、1つまたは複数のハードウェア論理コンポーネントに統合することができる。こうしたハードウェア論理コンポーネントは、たとえば、フィールドプログラマブルゲートアレイ(FPGA)、特定プログラム向けおよび特定用途向けの集積回路(PASIC/ASIC)、特定プログラム向けおよび特定用途向けの標準製品(PSSP/ASSP)、システムオンチップ(SOC)、および複合プログラマブル論理デバイス(CPLD)を含むことができる。
[0061] 「モジュール」、「プログラム」、および「エンジン」という用語は、特定の機能を実行するために実装されたコンピューティングシステム900の態様を説明するために使用可能である。いくつかのケースでは、モジュール、プログラム、またはエンジンは、記憶機械904によって保持される命令を実行する論理機械902を介してインスタンス化することができる。異なるモジュール、プログラム、および/またはエンジンが、同じアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、関数などからインスタンス化可能であることを理解されよう。同様に、同じモジュール、プログラム、および/またはエンジンが、異なるアプリケーション、サービス、コードブロック、オブジェクト、ルーチン、API、関数などからインスタンス化可能である。「モジュール」、「プログラム」、および「エンジン」という用語は、実行可能ファイル、データファイル、ライブラリ、ドライバ、スクリプト、データベースレコードなどの個々またはグループを包含することができる。
[0062] 本明細書で使用される「サービス」は、複数のユーザセッションにわたって実行可能なアプリケーションプログラムであることを理解されよう。サービスは、1つまたは複数のシステムコンポーネント、プログラム、および/または他のサービスが使用可能である。いくつかの実装において、サービスは1つまたは複数のサーバコンピューティングデバイスを実行することができる。
[0063] 表示サブシステム906は、含まれる場合、記憶機械904によって保持されるデータの視覚表現を提示するために使用可能である。この視覚表現は、グラフィカルユーザインターフェース(GUI)の形を取ることができる。本明細書で説明する方法およびプロセスが記憶機械によって保持されるデータを変更し、したがって記憶機械の状態を変換する場合、表示サブシステム906の状態も同様に、基礎となるデータ内の変更を視覚的に表示するように変換することができる。表示サブシステム906は、事実上任意のタイプの技術を利用する1つまたは複数の表示デバイスを含むことができる。こうした表示デバイスは、共有筐体内で論理機械902および/または記憶機械904と組み合わせることができるか、あるいはこうした表示デバイスは、周辺表示デバイスとすることができる。
[0064] 入力サブシステム908は、含まれる場合、キーボード、マウス、タッチスクリーン、またはゲームコントローラなどの、1つまたは複数のユーザ入力デバイスを備えるか、またはこれらとインターフェースすることができる。いくつかの実施形態において、入力サブシステムは、選択されたナチュラルユーザ入力(NUI)コンポーネントを備えるかまたはこれとインターフェースすることができる。こうしたコンポーネントは一体型または周辺装置とすることが可能であり、入力アクションの変換および/または処理は、オンボードまたはオフボードで取り扱うことができる。例示的なNUIコンポーネントは、会話および/または音声認識用のマイクロフォン;機械視覚および/またはジェスチャ認識用の赤外線、カラー、立体、および/または深度カメラ;動き検出および/または意図認識用のヘッドトラッカー、アイトラッカー、加速度計、および/またはジャイロスコープ;ならびに脳活動にアクセスするための電界感知コンポーネントを、含むことができる。
[0065] 通信サブシステム910は、含まれる場合、コンピューティングシステム900を1つまたは複数の他のコンピューティングデバイスと通信可能に結合するように構成可能である。通信サブシステム910は、1つまたは複数の異なる通信プロトコルに適合可能な有線および/または無線の通信デバイスを含むことができる。非限定的な例として、通信サブシステムは、無線電話網、あるいは有線または無線のローカルエリアまたはワイドエリアのネットワークを介した通信用に、構成可能である。いくつかの実施形態において、通信サブシステムは、コンピューティングシステム900が、インターネットなどのネットワークを介して、他のデバイスとの間でメッセージを送信および/または受信できるようにする。
[0066] 図10Aは、装着者によって装着または使用されることになる例示的な頭部装着表示システム1000の態様を示す。表示システム1000は、図1のHMD 104および/または図9のコンピューティングシステム900の非限定的な例である。表示システムは、透明、半透明、および/または不透明なディスプレイがビューアの片眼または両眼の前で支持される、任意の他の形を取ることができる。さらに、本明細書で説明する実施形態は、モバイルコンピューティングデバイス、ラップトップコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、他のウェアラブルコンピュータなどを含むが、限定されない、任意の他の好適なコンピューティングデバイスと共に使用可能である。たとえば拡張現実イメージを、モバイルフォンのカメラによってキャプチャされる実世界イメージと共に、モバイルフォンのディスプレイ上に表示することができる。
[0067] 図示される表示システムは、フレーム1002を含む。フレームは、装着者の眼の近くに位置決めされる、立体的なシースルー表示コンポーネントを支持する。表示システム1000は、実世界イメージと仮想表示イメージとが混合される、拡張現実アプリケーション内で使用可能である。
[0068] 表示システム1000は、装着者の周囲の明瞭なビューを装着者に与えるために、装着者の視点から完全または部分的に透明であってよい、別々の右および左の表示パネル1004Rおよび1004Lを含む。コントローラ1006は、表示パネルおよび他の表示システムコンポーネントに、動作可能に結合される。コントローラは、イメージ信号を表示パネルに提供するように、感知信号を受信するように、および、本明細書で説明する様々な制御プロセスを実行に移すように構成された、論理および関連付けられるコンピュータメモリを含む。
[0069] 表示システム1000は、拡張現実イメージ(ホログラフィオブジェクトとも呼ばれる)などのイメージを、表示システムの装着者の眼に送達できるようにすることが可能である。表示パネルは、透明なディスプレイを介して物理環境を見ている装着者に対する実世界の物理環境の出現を、視覚的に拡張するように構成可能である。一例において、ディスプレイは、グラフィカルユーザインターフェースの1つまたは複数のUIオブジェクトを表示するように構成可能である。いくつかの実施形態において、グラフィカルユーザインターフェース上に提示されるUIオブジェクトは、実世界環境の前に重ね合される仮想オブジェクトとすることができる。同様に、いくつかの実施形態において、グラフィカルユーザインターフェース上に提示されるUIオブジェクトは、ディスプレイを介して見られる実世界環境の実世界オブジェクトの要素を組み込むことができる。他の例では、ディスプレイは、ゲーム、ビデオ、または他の視覚コンテンツに関連付けられた仮想オブジェクトなどの、1つまたは複数の他のグラフィカルオブジェクトを表示するように構成可能である。
[0070] 任意の好適な機構を使用して、表示パネル(集合的にディスプレイ1004と呼ばれる)を介してイメージを表示することができる。たとえば、ディスプレイ1004は、レンズ内に配置されたイメージ生成要素(たとえば、有機発光ダイオード(OLED)ディスプレイなど)を含むことができる。別の例として、ディスプレイ1004は、表示システム1000のフレーム1002内に配置された、表示デバイス(たとえば、液晶オンシリコン(LCOS)デバイスまたはOLEDマイクロディスプレイなど)を含むことができる。この例では、レンズは、表示デバイスから装着者の眼まで光を送達するための光ガイドとして働くか、あるいはこれを含むことができる。こうした光ガイドによって、装着者は、装着者が見ている物理環境内に配置された3Dホログラフィイメージを知覚することができる一方で、装着者は、物理環境内の物理オブジェクトを直接見ることも可能であり、したがって混合現実環境を作成することが可能である。追加または代替として、ディスプレイ1004は、それぞれ左眼および右眼用のディスプレイを介して、左眼および右眼に拡張現実イメージを提示することができる。
[0071] 表示システム1000は、コントローラ1006に情報を提供するための、様々なセンサおよび関連システムも含むことができる。こうしたセンサは、1つまたは複数の内向きイメージセンサ1012aおよび1012b、1つまたは複数の外向きイメージセンサ1005、慣性計測ユニット(IMU)1007、および1つまたは複数のマイクロフォン1011を含むことができるが、限定されない。1つまたは複数の内向きイメージセンサ1012aおよび1012bは、装着者の眼から凝視追跡データの形のイメージデータを獲得するように構成可能である(たとえば、センサ1012aは装着者の眼のうちの一方に関するイメージデータを獲得し得、センサ1012bは装着者の眼のうちの他方に関するイメージデータを獲得し得る)。
[0072] 表示システムは、イメージセンサ1012aおよび1012bから受け取った情報に基づいて、任意の好適な様式で装着者の眼の各々の凝視方向を決定するように構成可能である。たとえば、赤外線光源などの1つまたは複数の光源1014は、装着者の各眼の角膜から光のグリントを反射させるように構成可能である。次いで1つまたは複数のイメージセンサ1012a、1012bは、装着者の眼のイメージをキャプチャするように構成可能である。コントローラ1006は、イメージセンサ1012a、1012bから集めたイメージデータから決定されるグリントのイメージおよび瞳のイメージを使用して、各眼の光軸を決定することができる。コントローラ1006は、この情報を使用して、装着者が凝視している方向を決定するように構成可能である。加えてコントローラ1006は、ユーザの凝視ベクトルを周囲環境の3Dモデル上に投影することによって、装着者が凝視している物理オブジェクトおよび/または仮想オブジェクトの識別を決定するようにも構成可能である。
[0073] 1つまたは複数の外向きセンサ1005は、表示システムが配置されている物理環境の物理環境属性(たとえば、光強度)を測定するように構成可能である。外向きイメージセンサ1005からのデータを使用して、装着者によって、あるいは視野内の人物または物理オブジェクトによって実行される、ジェスチャベースの入力または他の動きなどの、ディスプレイ1004の視野内の動きを検出することができる。一例において、外向きイメージセンサ1005からのデータを使用して、表示デバイス上に表示されるUIオブジェクトの選択を示すジェスチャ(たとえば、指でつまむ、拳を握るなど)などの、表示システムの装着者によって実行される選択入力を検出することができる。外向きセンサからのデータを使用して、実世界環境内での表示システム1000の位置/動作追跡を可能にする、(たとえば、環境特徴のイメージングからの)方向/位置および配向データを決定することもできる。外向きカメラからのデータを使用して、表示システム1000の視点からの周囲環境の静止イメージおよび/またはビデオイメージを構築することもできる。
[0074] IMU 1007は、表示システム1000の位置および/または配向データを、コントローラ1006に提供するように構成可能である。一実施形態において、IMU 1007は、3軸または3自由度(3DOF)の位置センサシステムとして構成可能である。この例示的な位置センサシステムは、たとえば、3本の直交軸(たとえば、ロール、ピッチ、およびヨー)の周囲の3D空間内での表示システム1000の配向の変化を指示または測定するために、3つのジャイロスコープを含むことができる。IMUのセンサ信号から導出される配向を使用して、シースルーディスプレイを介して、現実的かつ安定した位置および配向を備える1つまたは複数のARイメージを表示することができる。
[0075] 別の例において、IMU 1007は、6軸または6自由度(6DOF)の位置センサシステムとして構成可能である。こうした構成は、3本の直交空間軸(たとえば、x、y、およびz)に沿った表示システム1000の位置の変化、および、3本の直交回転軸(たとえば、ヨー、ピッチ、およびロール)の周囲のデバイス配向の変化を、指示または測定するために、3つの加速度計および3つのジャイロスコープを含むことができる。いくつかの実施形態において、外向きイメージセンサ1005およびIMU 1007からの位置および配向データを併用して、表示システム1000の位置および配向を決定することができる。
[0076] 表示システム1000は、GPSまたは他の全地球的航法システムなどの、他の好適な位置決め技法もサポート可能である。さらに、位置センサシステムの特定の例について説明してきたが、任意の他の好適な位置センサシステムが使用可能であることを理解されよう。たとえば、頭部の姿勢および/または動きデータは、任意数のジャイロスコープ、加速度計、慣性計測ユニット、GPSデバイス、バロメータ、磁気探知器、カメラ(たとえば、可視光カメラ、赤外光カメラ、飛行時間深度カメラ、構造化光深度カメラなど)、通信デバイス(たとえば、WIFIアンテナ/インターフェース)などを含むが、限定されない、装着者が装着しているセンサおよび/または装着者の外部センサの任意の組み合わせからのセンサ情報に基づいて、決定することができる。
[0077] 図10Aを続けると、コントローラ1006は、1つまたは複数の内向きイメージセンサ1012a、1012bによって検出される情報に基づいて、複数の視線サンプルを経時的に記録するように構成可能である。各視線サンプルについて、(イメージセンサ1005および/またはIMU 1007からの)視標追跡情報、およびいくつかの実施形態では頭部追跡情報を使用して、視線がシースルーディスプレイと交差する推定位置を生成するために、その視線サンプルの起点および方向ベクトルを推定することができる。視線サンプルを決定するために使用される視標追跡情報および頭部追跡情報の例は、視線方向、頭部の配向、視線速度、視線加速、視線方向の角度変化、および/または任意の他の好適な追跡情報を含むことができる。いくつかの実施形態において、視線追跡は、表示システム1000の装着者の両眼について、独立して記録することができる。
[0078] コントローラ1006は、外向きイメージセンサ1005からの情報を使用して、周囲環境の3次元モデルを生成または更新するように構成可能である。追加または代替として、外向きイメージセンサ1005からの情報を、周囲環境のモデルの生成および/または更新の責務を負うリモートコンピュータに送信することができる。いずれのケースでも、拡張現実イメージを所望の実世界位置内に所望の配向で正確に表示できるように、周囲の環境に対する表示システムの相対的な位置および/または配向を評価することができる。さらに、コントローラ1006は、周囲環境のいずれの部分が現在FOV内にあるかを判別することができる。
[0079] 前述のように、表示システム1000は、オーディオデータをキャプチャする、マイクロフォン1011などの1つまたは複数のマイクロフォンを含むこともできる。いくつかの例において、1つまたは複数のマイクロフォン1011は、2つまたはそれ以上のマイクロフォンを含むマイクロフォンアレイを備えることができる。たとえば、マイクロフォンアレイは、2つがHMDの右レンズの上に位置決めされ、2つがHMDの左レンズの上に位置決めされた、4つのマイクロフォンを含むことができる。さらに、オーディオ出力を、スピーカ1009などの1つまたは複数のスピーカを介して装着者に提示することができる。
[0080] コントローラ1006は、表示システムのディスプレイおよび様々なセンサと通信する、図9に関して上記でより詳細に論じた、論理機械および記憶機械を含むことができる。
[0081] 図10Bは、非限定的な一実施形態における、右または左の表示パネル1004(1004R、1004L)の選択された態様を示す。表示パネルは、バックライト1008および液晶ディスプレイ(LCD)タイプのマイクロディスプレイ1010を含む。バックライトは、発光ダイオード(LED)のアンサンブル、たとえば、白色LED、または赤、緑、および青色LEDの分布を含むことができる。バックライトは、コントローラ1006からの制御信号に基づいて表示イメージを形成するLCDマイクロディスプレイを介して、その発光を誘導するように構成可能である。LCDマイクロディスプレイは、矩形グリッドまたは他のジオメトリ上に構成される、多数の、個別にアドレス可能なピクセルを含むことができる。いくつかの実施形態において、LCDマイクロディスプレイがカラーイメージを形成するように、赤色光を透過させるピクセルと緑色光および青色光を透過させるピクセルとを並列させることができる。他の実施形態において、反射型液晶オンシリコン(LCOS)マイクロディスプレイまたはデジタルマイクロミラーアレイを、図10BのLCDマイクロディスプレイの代わりに使用することができる。代替として、アクティブLED、ホログラフィ、または走査ビームのマイクロディスプレイを使用して、右および左の表示イメージを形成することができる。図面は、別々の右および左の表示パネルを示しているが、代わりに、両眼の上に延在する単一の表示パネルを使用することもできる。
[0082] 図10Bの表示パネル1004は、アイイメージングカメラ1012(たとえば、外向きイメージングセンサ1012aまたは1012b)、光源1014とも呼ばれる軸上照明源、および軸外照明源1014’を含む。各照明源は、アイイメージングカメラの高感度波長帯で赤外線(IR)または近赤外線(NIR)照明を発する。各照明源は、発光ダイオード(LED)、ダイオードレーザ、放電照明源などを備えることができる。アイイメージングカメラ1012は、任意の好適な対物レンズ系を介して、画角範囲にわたる光を検出し、こうした角度をセンサピクセルアレイの対応するピクセルにマッピングする。コントローラ1006は、以下でより詳細に説明するように、アイイメージングカメラからの出力を使用して、装着者の視線軸Vを追跡するように構成可能である。
[0083] 軸上および軸外の照明は、視線追跡に関して異なる目的のために働く。図10Bに示されるように、軸外照明は、装着者の眼の角膜1018から反射する反射グリント1016を作成することができる。軸外照明は、瞳1020が周囲の虹彩1022よりも暗く見える「暗瞳孔」効果のために、眼に照明を当てるために使用することもできる。これに対して、IRまたはNIR光源からの軸上照明は、瞳が周囲の虹彩よりも明るく見える「明瞳孔」効果を作り出すために使用することができる。より具体的に言えば、軸上照明源1014からのIRまたはNIR照明は、眼の網膜1024の逆反射組織を照らし、これが瞳を介して光を逆反射させ、瞳の明るいイメージ1026を形成する。表示パネル1004のビーム転換光学素子1028は、アイイメージングカメラおよび軸上照明源が、それらを表示パネルの周囲に配置する代わりに、共通光軸Aを共有できるようにする。
[0084] アイイメージングカメラ1012からのデジタルイメージデータは、コントローラ1006内、またはコントローラがネットワークを介してアクセス可能なリモートコンピュータシステム内の、関連付けられた論理に伝送可能である。そこでイメージデータは、こうした特徴を、瞳中心、瞳輪郭、および/または、角膜からの1つまたは複数の反射グリント1016として解決するために、処理することができる。イメージデータ内のこうした特徴の位置は、特徴位置を視線軸Vに関係付けるモデル、たとえば多項式モデル内で、入力パラメータとして使用することができる。視線軸が右眼および左眼について決定される実施形態において、コントローラは、装着者の焦点を右視線軸および左視線軸の交差点として計算するように構成することも可能である。
[0085] 例示的なウェアラブル頭部装着表示システムは、見掛けの実世界深度および見掛けの実世界位置で、頭部装着表示システムの装着者によって知覚可能な拡張現実オブジェクトを表示するためのニアアイディスプレイと、装着者の視野(FOV)の関数として拡張現実オブジェクトの見掛けの実世界位置を調整するためのコントローラとを備え、関数は、拡張現実オブジェクトの境界領域、および、拡張現実オブジェクトの境界領域と装着者のFOVとの間の1つまたは複数の重複パラメータに基づく。こうした例は、追加または代替として、境界領域が拡張現実オブジェクトの空間を定義することを含む。こうした例は、追加または代替として、空間が拡張現実オブジェクトのすべてを含むことを含む。こうした例は、追加または代替として、空間がすべてより少ない拡張現実オブジェクトを含むことを含む。こうした例は、追加または代替として、空間が、すべての拡張現実オブジェクトおよび拡張現実オブジェクトの周囲の追加の空間を含むことを含む。こうした例は、追加または代替として、1つまたは複数の重複パラメータが、コントローラがFOV内で維持するべき境界領域の量を定義することを含む。こうした例は、追加または代替として、FOVの変化がしきい値量よりも小さい場合、1つまたは複数の重複パラメータは境界領域と装着者のFOVとの間の静止ターゲット重複値を含むことを含む。こうした例は、追加または代替として、FOVの変化がしきい値量よりも大きい場合、1つまたは複数の重複パラメータは境界領域と装着者のFOVとの間の移動最小重複値を含むことを含む。こうした例は、追加または代替として、静止ターゲット重複値が移動最小重複値よりも大きいこと、および、コントローラが、FOVの変化がしきい値量よりも大きい場合に対して、FOVの変化がしきい値量よりも小さい場合、境界領域のより大きな割合を表示することを含む。こうした例は、追加または代替として、移動最小重複値がしきい値重複値よりも小さいこと、および、コントローラが、FOVの変化がしきい値量よりも大きい場合、拡張現実オブジェクトを表示しないことを含む。こうした例は、追加または代替として、コントローラが、装着者のFOVに基づいて拡張現実オブジェクトの回転をさらに調整することを含む。こうした例は、追加または代替として、コントローラが、仮想ばね関数の1つまたは複数のばねパラメータに従って、拡張現実オブジェクトの見掛けの実世界位置を調整することを含む。こうした例は、追加または代替として、コントローラが、拡張現実オブジェクトがFOVから外れた時、拡張現実オブジェクトの見掛けの実世界位置を調整することを含む。こうした例は、追加または代替として、コントローラが、装着者からの要求に応答して、拡張現実オブジェクトを固定された見掛けの実世界位置で維持することを含む。こうした例は、追加または代替として、装着者のFOVがしきい値量よりも多く変化する場合、コントローラは、拡張現実オブジェクトをより小さな第1の見掛けの実世界サイズで表示し、装着者のFOVがしきい値量よりも少なく変化する場合、コントローラは、拡張現実オブジェクトをより大きな第2の見掛けの実世界サイズで表示することを含む。こうした例は、追加または代替として、コントローラが、拡張現実オブジェクトの見掛けの実世界深度の範囲全体を通じて、拡張現実オブジェクトをFOVの固定比率で維持することを含む。上記の例のいずれかまたはすべては、様々な実装において任意の好適な様式で組み合わせることができる。
[0086] ニアアイディスプレイについての例示的方法は、拡張現実オブジェクトの境界領域を定義すること、ターゲット重複量を境界領域とニアアイディスプレイの装着者の視野(FOV)との間で定義すること、最小重複量を境界領域とFOVとの間で定義すること、ならびに、FOVが変化する場合、境界領域、ターゲット重複量、および最小重複量に従って、ニアアイディスプレイ上に拡張現実オブジェクトを表示することを含む。こうした例は、追加または代替として、仮想ばね関数の1つまたは複数のばねパラメータに従って、拡張現実オブジェクトを表示することをさらに含む。こうした例は、追加または代替として、装着者のFOVに基づいて拡張現実オブジェクトの回転を調整することをさらに含む。上記の例のいずれかまたはすべては、様々な実装において任意の好適な様式で組み合わせることができる。
[0087] ウェアラブルな頭部装着表示システムのさらなる例は、見掛けの実世界深度および見掛けの実世界位置で、頭部装着表示システムの装着者によって知覚可能な拡張現実オブジェクトを表示するためのニアアイディスプレイと、装着者の視野(FOV)の関数として拡張現実オブジェクトの見掛けの実世界位置を調整するためのコントローラとを備え、関数は、拡張現実オブジェクトの境界領域、FOVの変化がしきい値量よりも小さい場合、境界領域と装着者のFOVとの間のターゲット重複値、および、FOVの変化がしきい値量よりも大きい場合、境界領域と装着者のFOVとの間の最小重複値に基づく。上記の例のいずれかまたはすべては、様々な実装において任意の好適な様式で組み合わせることができる。
[0088] 本明細書で説明する構成および/または手法は本来例示的なものであること、および、これらの特定の実施形態または例示は、多数の変形が可能であるため、限定的な意味であると見なされるべきでないことを、理解されよう。本明細書で説明する特定のルーチンまたは方法は、任意数の処理ストラテジーのうちの1つまたは複数を表すことができる。したがって、図示および/または説明する様々な動作は、図示および/または説明する順序で実行、他の順序で実行、並列に実行、または省略が可能である。同様に、前述のプロセスの順序は変更可能である。
[0089] 本開示の主題は、本明細書で説明する、様々なプロセス、システムおよび構成、ならびに他の特徴、機能、動作、および/または特性、ならびにそれらの任意およびすべての等価物の、すべての新規かつ非自明の組み合わせおよび下位組み合わせを含む。

Claims (14)

  1. ウェアラブルな頭部装着表示システムであって、
    見掛けの実世界深度および見掛けの実世界位置で、前記頭部装着表示システムの装着者によって知覚可能な拡張現実オブジェクトを表示するためのニアアイディスプレイと、
    前記装着者の視野(FOV)の関数として、前記拡張現実オブジェクトの前記見掛けの実世界位置を調整するためのコントローラとを備え、前記関数は、前記拡張現実オブジェクトの境界領域、および、前記拡張現実オブジェクトの前記境界領域と前記装着者の前記FOVとの間の1つまたは複数の重複パラメータに基づいており
    前記装着者の前記FOVがしきい値量よりも多く変化する場合、前記コントローラは、前記拡張現実オブジェクトをより小さな第1の見掛けの実世界サイズで表示し、
    前記装着者の前記FOVが前記しきい値量よりも少なく変化する場合、前記コントローラは、前記拡張現実オブジェクトをより大きな第2の見掛けの実世界サイズで表示し、
    前記拡張現実オブジェクトが、前記より小さな第1の見掛けの実世界サイズで表示される場合、前記装着者が前記拡張現実オブジェクトを閾値時間凝視することに応答して、前記コントローラは、前記拡張現実オブジェクトを元のサイズで表示する、表示システム。
  2. 前記境界領域は前記拡張現実オブジェクトの空間を定義する、請求項1に記載の表示システム。
  3. 前記空間は前記拡張現実オブジェクトのすべてを含む、請求項2に記載の表示システム。
  4. 前記空間はすべてより少ない前記拡張現実オブジェクトを含む、請求項2に記載の表示システム。
  5. 前記空間は、すべての前記拡張現実オブジェクトおよび前記拡張現実オブジェクトの周囲の追加の空間を含む、請求項2に記載の表示システム。
  6. 前記1つまたは複数の重複パラメータは、前記コントローラが前記FOV内で維持するべき前記境界領域の量を定義する、請求項1に記載の表示システム。
  7. 前記1つまたは複数の重複パラメータは、前記FOVの変化がしきい値量よりも小さい場合の、前記境界領域と前記装着者の前記FOVとの間の静止ターゲット重複値を含み、前記FOVの変化が前記しきい値量よりも大きい場合の、前記境界領域と前記装着者の前記FOVとの間の移動最小重複値を含む、請求項6に記載の表示システム。
  8. 前記静止ターゲット重複値は前記移動最小重複値よりも大きく、前記コントローラは、前記FOVの変化が前記しきい値量よりも小さい場合、前記FOVの変化が前記しきい値量よりも大きい場合に対して、前記境界領域のより大きな割合を表示する、請求項7に記載の表示システム。
  9. 前記移動最小重複値はしきい値重複値よりも小さく、前記コントローラは、前記FOVの変化が前記しきい値量よりも大きい場合、前記拡張現実オブジェクトを表示しない、請求項7に記載の表示システム。
  10. 前記コントローラは、前記装着者の前記FOVに基づいて前記拡張現実オブジェクトの回転をさらに調整し、前記コントローラは、前記装着者からの要求に応答して、前記拡張現実オブジェクトを固定された見掛けの実世界位置で維持する、請求項1に記載の表示システム。
  11. 前記コントローラは、仮想ばね関数の1つまたは複数のばねパラメータに従って、前記拡張現実オブジェクトの前記見掛けの実世界位置を調整する、請求項1に記載の表示システム。
  12. 前記コントローラは、前記拡張現実オブジェクトが前記FOVから外れた時、前記拡張現実オブジェクトの前記見掛けの実世界位置を調整する、請求項1に記載の表示システム。
  13. 前記コントローラは、前記拡張現実オブジェクトの見掛けの実世界深度の範囲全体を通じて、前記拡張現実オブジェクトを前記FOVの固定比率で維持する、請求項1に記載の表示システム。
  14. ニアアイディスプレイのための方法であって、
    拡張現実オブジェクトの境界領域を定義すること、
    ターゲット重複量を、前記境界領域と前記ニアアイディスプレイの装着者の視野(FOV)との間で定義すること、
    最小重複量を、前記境界領域と前記FOVとの間で定義すること、および、
    前記FOVが変化する場合、前記境界領域、ターゲット重複量、および最小重複量に従って、前記ニアアイディスプレイ上に前記拡張現実オブジェクトを表示すること、
    前記装着者の前記FOVがしきい値量よりも多く変化する場合、前記拡張現実オブジェクトを表示することは、前記拡張現実オブジェクトをより小さな第1の見掛けの実世界サイズで表示することを含み、
    前記装着者の前記FOVが前記しきい値量よりも少なく変化する場合、前記拡張現実オブジェクトを表示することは、前記拡張現実オブジェクトをより大きな第2の見掛けの実世界サイズで表示することを含み、
    前記拡張現実オブジェクトが、前記より小さな第1の見掛けの実世界サイズで表示される場合、前記拡張現実オブジェクトを表示することは、前記装着者が前記拡張現実オブジェクトを閾値時間凝視することに応答して、前記拡張現実オブジェクトを元のサイズで表示することを含む、方法。
JP2017534550A 2015-01-20 2016-01-14 拡張現実視野オブジェクトフォロワー Active JP6730286B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562105673P 2015-01-20 2015-01-20
US62/105,673 2015-01-20
US14/745,151 2015-06-19
US14/745,151 US10740971B2 (en) 2015-01-20 2015-06-19 Augmented reality field of view object follower
PCT/US2016/013309 WO2016118388A1 (en) 2015-01-20 2016-01-14 Augmented reality field of view object follower

Publications (2)

Publication Number Publication Date
JP2018505472A JP2018505472A (ja) 2018-02-22
JP6730286B2 true JP6730286B2 (ja) 2020-07-29

Family

ID=56408229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017534550A Active JP6730286B2 (ja) 2015-01-20 2016-01-14 拡張現実視野オブジェクトフォロワー

Country Status (5)

Country Link
US (1) US10740971B2 (ja)
EP (1) EP3248045A1 (ja)
JP (1) JP6730286B2 (ja)
CN (1) CN107209386B (ja)
WO (1) WO2016118388A1 (ja)

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8730156B2 (en) * 2010-03-05 2014-05-20 Sony Computer Entertainment America Llc Maintaining multiple views on a shared stable virtual space
JP5724544B2 (ja) 2011-03-31 2015-05-27 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP2017059041A (ja) * 2015-09-17 2017-03-23 株式会社リコー 画像処理装置、画像処理方法、およびプログラム
US9928658B2 (en) * 2015-11-02 2018-03-27 International Business Machines Corporation Overlay for camera field of vision
US10209785B2 (en) * 2016-02-02 2019-02-19 Microsoft Technology Licensing, Llc Volatility based cursor tethering
US9984510B1 (en) * 2016-03-02 2018-05-29 Meta Company System and method for modifying virtual elements in a virtual environment using hierarchical anchors incorporated into virtual elements
WO2017172982A1 (en) 2016-03-31 2017-10-05 Magic Leap, Inc. Interactions with 3d virtual objects using poses and multiple-dof controllers
US10028016B2 (en) 2016-08-30 2018-07-17 The Directv Group, Inc. Methods and systems for providing multiple video content streams
US10212157B2 (en) 2016-11-16 2019-02-19 Bank Of America Corporation Facilitating digital data transfers using augmented reality display devices
US10158634B2 (en) 2016-11-16 2018-12-18 Bank Of America Corporation Remote document execution and network transfer using augmented reality display devices
US10943229B2 (en) 2016-11-29 2021-03-09 Bank Of America Corporation Augmented reality headset and digital wallet
US10600111B2 (en) 2016-11-30 2020-03-24 Bank Of America Corporation Geolocation notifications using augmented reality user devices
US10339583B2 (en) 2016-11-30 2019-07-02 Bank Of America Corporation Object recognition and analysis using augmented reality user devices
US10685386B2 (en) 2016-11-30 2020-06-16 Bank Of America Corporation Virtual assessments using augmented reality user devices
US10607230B2 (en) 2016-12-02 2020-03-31 Bank Of America Corporation Augmented reality dynamic authentication for electronic transactions
US10481862B2 (en) 2016-12-02 2019-11-19 Bank Of America Corporation Facilitating network security analysis using virtual reality display devices
US10311223B2 (en) 2016-12-02 2019-06-04 Bank Of America Corporation Virtual reality dynamic authentication
US10586220B2 (en) 2016-12-02 2020-03-10 Bank Of America Corporation Augmented reality dynamic authentication
US10109096B2 (en) 2016-12-08 2018-10-23 Bank Of America Corporation Facilitating dynamic across-network location determination using augmented reality display devices
US10109095B2 (en) 2016-12-08 2018-10-23 Bank Of America Corporation Facilitating dynamic across-network location determination using augmented reality display devices
US10217375B2 (en) 2016-12-13 2019-02-26 Bank Of America Corporation Virtual behavior training using augmented reality user devices
US10210767B2 (en) 2016-12-13 2019-02-19 Bank Of America Corporation Real world gamification using augmented reality user devices
EP3336805A1 (en) 2016-12-15 2018-06-20 Thomson Licensing Method and device for a placement of a virtual object of an augmented or mixed reality application in a real-world 3d environment
US10438399B2 (en) * 2017-02-10 2019-10-08 Sony Interactive Entertainment LLC Paired local and global user interfaces for an improved augmented reality experience
US20180255285A1 (en) 2017-03-06 2018-09-06 Universal City Studios Llc Systems and methods for layered virtual features in an amusement park environment
US11841917B2 (en) * 2017-03-07 2023-12-12 Enemy Tree LLC Digital multimedia pinpoint bookmark device, method, and system
US10379606B2 (en) 2017-03-30 2019-08-13 Microsoft Technology Licensing, Llc Hologram anchor prioritization
US10466953B2 (en) 2017-03-30 2019-11-05 Microsoft Technology Licensing, Llc Sharing neighboring map data across devices
US10692287B2 (en) 2017-04-17 2020-06-23 Microsoft Technology Licensing, Llc Multi-step placement of virtual objects
CN110637273B (zh) 2017-05-10 2021-12-03 微软技术许可有限责任公司 在虚拟环境内呈现应用
US10379345B2 (en) * 2017-05-15 2019-08-13 Daqri, Llc Virtual expansion of desktop
CN110663011B (zh) * 2017-05-23 2024-04-12 交互数字Vc控股公司 基于用户视图中的真实生活对象的持久性而对ar信息进行优先化排序的系统及方法
US10405060B2 (en) * 2017-06-28 2019-09-03 At&T Intellectual Property I, L.P. Method and apparatus for augmented reality presentation associated with a media program
US10895751B1 (en) * 2017-06-29 2021-01-19 Facebook Technologies, Llc Adjustable facial-interface systems for head-mounted displays
US10712899B2 (en) 2017-10-17 2020-07-14 Microsoft Technology Licensing, Llc Human-machine interface tethered to a user position in a three-dimensional VR or AR environment
US11303814B2 (en) 2017-11-09 2022-04-12 Qualcomm Incorporated Systems and methods for controlling a field of view
WO2019119345A1 (en) * 2017-12-21 2019-06-27 Intel Corporation Methods and apparatus to map virtual environment to physical environment
US10489982B2 (en) 2018-03-28 2019-11-26 Motorola Solutions, Inc. Device, system and method for controlling a display screen using a knowledge graph
US10672159B2 (en) * 2018-04-02 2020-06-02 Microsoft Technology Licensing, Llc Anchor graph
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
KR102591582B1 (ko) 2018-06-22 2023-10-19 삼성전자주식회사 컨텐츠를 표시하는 방법 및 전자 장치
CN108932879A (zh) * 2018-08-23 2018-12-04 重庆加河科技有限公司 一种基于mr的教学展示系统
US10719995B2 (en) * 2018-10-23 2020-07-21 Disney Enterprises, Inc. Distorted view augmented reality
CN109582134B (zh) * 2018-11-09 2021-07-23 北京小米移动软件有限公司 信息显示的方法、装置及显示设备
US10776933B2 (en) 2018-12-06 2020-09-15 Microsoft Technology Licensing, Llc Enhanced techniques for tracking the movement of real-world objects for improved positioning of virtual objects
CN109785381B (zh) * 2018-12-06 2021-11-16 苏州炫感信息科技有限公司 一种光学惯性融合空间定位方法及定位系统
DE112019006107T5 (de) * 2019-01-11 2021-11-18 Mitsubishi Electric Corporation Authoring-Vorrichtung, Authoring-Verfahren und Authoring-Programm
US11200656B2 (en) 2019-01-11 2021-12-14 Universal City Studios Llc Drop detection systems and methods
CN113348428A (zh) 2019-02-01 2021-09-03 麦克赛尔株式会社 虚拟对象显示装置以及虚拟对象显示方法
US11137874B2 (en) 2019-02-22 2021-10-05 Microsoft Technology Licensing, Llc Ergonomic mixed reality information delivery system for dynamic workflows
JP7236529B2 (ja) 2019-03-18 2023-03-09 マクセル株式会社 ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム
WO2020226833A1 (en) 2019-05-06 2020-11-12 Apple Inc. Device, method, and graphical user interface for composing cgr files
WO2020226832A1 (en) 2019-05-06 2020-11-12 Apple Inc. Device, method, and computer-readable medium for presenting computer-generated reality files
US11164341B2 (en) * 2019-08-29 2021-11-02 International Business Machines Corporation Identifying objects of interest in augmented reality
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
US11095855B2 (en) * 2020-01-16 2021-08-17 Microsoft Technology Licensing, Llc Remote collaborations with volumetric space indications
CN111625093B (zh) * 2020-05-19 2023-08-01 昆明埃舍尔科技有限公司 一种海量数字点云数据在mr眼镜中的动态调度显示方法
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
CN111654777A (zh) * 2020-06-29 2020-09-11 歌尔科技有限公司 头戴显示设备和头戴显示组件
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
US11178376B1 (en) 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US11449137B2 (en) 2021-02-12 2022-09-20 Rockwell Collins, Inc. Soldier and surface vehicle heads-up display imagery compensation system to align imagery with surroundings
US11972505B2 (en) * 2021-06-15 2024-04-30 Lenovo (Singapore) Pte. Ltd. Augmented image overlay on external panel
WO2023090690A1 (ko) * 2021-11-16 2023-05-25 삼성전자 주식회사 가상 오브젝트를 표시하는 웨어러블 전자 장치 및 이의 제어 방법
US11681358B1 (en) * 2021-12-10 2023-06-20 Google Llc Eye image stabilized augmented reality displays
US11928783B2 (en) * 2021-12-30 2024-03-12 Snap Inc. AR position and orientation along a plane
US11887260B2 (en) 2021-12-30 2024-01-30 Snap Inc. AR position indicator
US11954762B2 (en) 2022-01-19 2024-04-09 Snap Inc. Object replacement system

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608850A (en) 1994-04-14 1997-03-04 Xerox Corporation Transporting a display object coupled to a viewpoint within or between navigable workspaces
US5577961A (en) * 1994-06-28 1996-11-26 The Walt Disney Company Method and system for restraining a leader object in a virtual reality presentation
JP3444024B2 (ja) 1995-06-21 2003-09-08 株式会社デンソー 車両用日射センサ
US7312766B1 (en) 2000-09-22 2007-12-25 Canadian Space Agency Method and system for time/motion compensation for head mounted displays
US7881901B2 (en) 2007-09-18 2011-02-01 Gefemer Research Acquisitions, Llc Method and apparatus for holographic user interface communication
US8127251B2 (en) 2007-10-31 2012-02-28 Fimed Properties Ag Limited Liability Company Method and apparatus for a user interface with priority data
US8665260B2 (en) 2009-04-16 2014-03-04 Autodesk, Inc. Multiscale three-dimensional navigation
US9292973B2 (en) 2010-11-08 2016-03-22 Microsoft Technology Licensing, Llc Automatic variable virtual focus for augmented reality displays
US20120188148A1 (en) 2011-01-24 2012-07-26 Microvision, Inc. Head Mounted Meta-Display System
US8479110B2 (en) 2011-03-20 2013-07-02 William J. Johnson System and method for summoning user interface objects
US8340504B2 (en) * 2011-04-26 2012-12-25 Sony Computer Entertainment Europe Limited Entertainment device and method
AU2011204946C1 (en) * 2011-07-22 2012-07-26 Microsoft Technology Licensing, Llc Automatic text scrolling on a head-mounted display
WO2013017173A1 (en) * 2011-08-03 2013-02-07 Advanced Bionics Ag Implantable actuator of a hearing instrument
US20140282008A1 (en) 2011-10-20 2014-09-18 Koninklijke Philips N.V. Holographic user interfaces for medical procedures
US8970452B2 (en) 2011-11-02 2015-03-03 Google Inc. Imaging method
US9311883B2 (en) * 2011-11-11 2016-04-12 Microsoft Technology Licensing, Llc Recalibration of a flexible mixed reality device
KR20130093994A (ko) 2012-02-15 2013-08-23 한국전자통신연구원 볼륨데이터 형태의 오브젝트 파동을 이용한 사용자와 홀로그램 간의 상호작용 처리 방법
US20130326364A1 (en) 2012-05-31 2013-12-05 Stephen G. Latta Position relative hologram interactions
US9429912B2 (en) 2012-08-17 2016-08-30 Microsoft Technology Licensing, Llc Mixed reality holographic object development
US10073201B2 (en) 2012-10-26 2018-09-11 Qualcomm Incorporated See through near-eye display
US9996150B2 (en) 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
US20140253432A1 (en) 2013-01-21 2014-09-11 Holly Tina Ferguson Sensor-monitored, 3d, interactive holographic freespace control unit (hfcu) and associated components
US9208583B2 (en) * 2013-02-13 2015-12-08 Blackberry Limited Device with enhanced augmented reality functionality
WO2014128810A1 (ja) 2013-02-22 2014-08-28 ソニー株式会社 ヘッドマウントディスプレイ及び画像表示装置
US20140267598A1 (en) 2013-03-14 2014-09-18 360Brandvision, Inc. Apparatus and method for holographic poster display
US9310769B2 (en) 2013-03-28 2016-04-12 Disney Enterprises, Inc. Coarse integral holographic display
US9390561B2 (en) 2013-04-12 2016-07-12 Microsoft Technology Licensing, Llc Personal holographic billboard
US8988344B2 (en) 2013-06-25 2015-03-24 Microsoft Technology Licensing, Llc User interface navigation

Also Published As

Publication number Publication date
JP2018505472A (ja) 2018-02-22
EP3248045A1 (en) 2017-11-29
US10740971B2 (en) 2020-08-11
WO2016118388A1 (en) 2016-07-28
US20160210784A1 (en) 2016-07-21
CN107209386B (zh) 2020-02-07
CN107209386A (zh) 2017-09-26

Similar Documents

Publication Publication Date Title
JP6730286B2 (ja) 拡張現実視野オブジェクトフォロワー
US9934614B2 (en) Fixed size augmented reality objects
US10672103B2 (en) Virtual object movement
CN108780358B (zh) 基于视场显示三维虚拟对象
US9824499B2 (en) Mixed-reality image capture
CN110456626B (zh) 全息键盘显示
KR102281026B1 (ko) 홀로그램 앵커링 및 동적 포지셔닝 기법
CN106489171B (zh) 立体图像显示器
US20150312561A1 (en) Virtual 3d monitor
US20140071163A1 (en) Augmented reality information detail
EP3387608A1 (en) Third party holographic portal
CN107209565B (zh) 用于显示固定大小的增强现实对象的方法和系统
TW201546657A (zh) 目光偵測校正
US20180182160A1 (en) Virtual object lighting
US20180150996A1 (en) Notification artifact display
CN111602104B (zh) 用于与所识别的对象相关联地呈现合成现实内容的方法和设备
US20180158390A1 (en) Digital image modification
KR20230037054A (ko) 사용자의 신체에 대한 디바이스의 디스플레이를 업데이트하기 위한 시스템들, 방법들, 및 그래픽 사용자 인터페이스들
WO2019135894A1 (en) Saccadic breakthrough mitigation for near-eye display
US11699412B2 (en) Application programming interface for setting the prominence of user interface elements
US11321926B2 (en) Method and device for content placement
EP2887639A1 (en) Augmented reality information detail
CN113678173A (zh) 用于虚拟对象的基于图绘的放置的方法和设备
KR20150071613A (ko) 증강 현실 정보 상세도
WO2024064909A2 (en) Methods, systems, and computer program products for alignment of a wearable device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200702

R150 Certificate of patent or registration of utility model

Ref document number: 6730286

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250