JP2023514558A - 複合現実環境における3次元コンテナに対する身体中心コンテンツ位置付け - Google Patents

複合現実環境における3次元コンテナに対する身体中心コンテンツ位置付け Download PDF

Info

Publication number
JP2023514558A
JP2023514558A JP2022547884A JP2022547884A JP2023514558A JP 2023514558 A JP2023514558 A JP 2023514558A JP 2022547884 A JP2022547884 A JP 2022547884A JP 2022547884 A JP2022547884 A JP 2022547884A JP 2023514558 A JP2023514558 A JP 2023514558A
Authority
JP
Japan
Prior art keywords
user
prism
content
content item
mixed reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022547884A
Other languages
English (en)
Other versions
JP7455985B2 (ja
JPWO2021162769A5 (ja
Inventor
ロヒット アニル タルウォーカー,
コール パーカー ハイナー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2023514558A publication Critical patent/JP2023514558A/ja
Publication of JPWO2021162769A5 publication Critical patent/JPWO2021162769A5/ja
Priority to JP2024038853A priority Critical patent/JP2024072853A/ja
Application granted granted Critical
Publication of JP7455985B2 publication Critical patent/JP7455985B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Optics & Photonics (AREA)
  • Architecture (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

「プリズム」と称される、コンテナ内に3Dコンテンツを表示し、3Dコンテンツと相互作用するための双方向メニュー等の関連コンテンツアイテムもまた表示する、複合現実システムが、開示される。ユーザにアクセス可能なコンテンツアイテムを維持するために、本システムは、ユーザが、プリズムに対して移動するにつれて、プリズムに対してコンテンツアイテムを再位置付けする。例えば、注釈ツールバーのコンテキストにおいて、本システムは、ユーザが、プリズムの周囲を歩行する、プリズムに進入する、またはプリズムにおいて頭部姿勢を変化させることに応答して、ツールバーをプリズムの片面から反対面に移動させてもよい。

Description

本開示は、拡張現実および複合現実システムに関し、より具体的には、ユーザ移動に基づいて、3次元(3D)コンテナ、いわゆる「プリズム」に対してコンテンツを位置付けるためのユーザインターフェースおよびプロセスに関する。
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」、「拡張現実」、および「複合現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、現実のように現れるようにユーザに提示される。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴う。拡張現実、すなわち、「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。複合現実、すなわち、「MR」シナリオは、典型的には、実世界および仮想世界を融合し、物理的および仮想オブジェクトが、共存し、リアルタイムで相互作用する、新しい環境を生産することを伴う。本明細書で使用されるように、用語「複合現実」は、拡張現実を包含するように意図される。
(その開示が参照することによってその全体として組み込まれる)米国特許第2019/0197785号に開示されるように、複合現実システムが、「プリズム」と称される、3Dの境界された体積またはコンテナの使用をサポートし、仮想コンテンツの表示を管理してもよい。プリズムが、矩形または他の形状を有し得、ユーザの実世界環境に対して固定された場所に位置付けら得る。ある場合には、複数のアプリケーションが、3Dコンテンツをプリズムの中にレンダリングし、ユニバースアプリケーションが、本コンテンツの表示を管理することができる。
3D環境内での複数のコンテンツアイテムの表示に直面する1つの問題は、プリズム内に表示されるコンテンツを含む、異なるアイテムのコンテンツの間の潜在的干渉を伴う。一実施例として、いくつかの複合現実アプリケーションは、ユーザが3D環境内に表示されるコンテンツを作成または修正するように、相互作用し得る、ツールバー等の双方向メニューをエクスポーズする。ユーザが、周囲を移動するにつれて、本メニューの表示は、1つまたはそれを上回るコンテンツアイテムと重複する、または背後に現れ、メニューとの相互作用を困難にし得る。関連問題が、そこでメニューが、ユーザが周囲を移動するにつれて、容易に見られ、アクセスされ得る、場所に、双方向メニューを維持することを伴う。
本開示は、ユーザが、プリズムに対して移動するにつれて、プリズム(または他の境界される3D体積またはコンテナ)の境界に対する、コンテンツアイテムの表示位置および/または配向を調節するための表示プロセスを提供することによって、上記および他の問題に対処する。コンテンツアイテムは、例えば、双方向メニュー(例えば、ツールバー)等の双方向ディスプレイオブジェクトであり得る。別の実施例として、コンテンツアイテムは、通知、またはディスプレイオブジェクトまたは通知を表示するペインであってもよい。
いくつかの実施形態またはユースケースでは、プロセスは、プリズムに対するユーザの移動に基づいて、および/またはユーザの配向(例えば、頭部姿勢)における変化に基づいて、コンテンツアイテムをプリズムの1つの表面からプリズムの別の表面に再位置付けすることを伴う。例えば、プリズムは、矩形形状を有し、ユーザが、プリズムの中および外に歩行することができる、十分なサイズであると仮定する。ユーザが、最初にプリズムの外側に立ち、プリズムに向く場合、双方向メニュー(または他のコンテンツアイテム)が、最初にプリズムの最も近い垂直表面上に、外向きに向いた配向で表示され得る。ユーザが、次いで、本表面を通して、プリズムの中に歩行する場合、双方向メニューは、後面(すなわち、歩行して通過した表面から真向いの、それに平行な表面)に再位置付けされ、内向きに向いた配向で表示されてもよい。(下記に議論されるように、これらの平行表面の間に該当する表示位置もまた、可能性として考えられる。)ユーザが、次いで、矩形プリズムの他の2つの垂直表面の1つに向くように、右または左に方向転換する場合、双方向メニューは、ユーザが向いている表面に再位置付けされてもよい。プロセスは、それによって、ユーザの視野内にメニューを維持する一方、メニューとプリズム内でレンダリングされた他のコンテンツとの間の干渉を低減または排除し得る。
プロセスはまた、アプリケーションが、コンテンツアイテムに干渉する他のタイプのコンテンツをレンダリングすることができないように、プリズムの1つまたはそれを上回る部分またはコンテンツアイテムの表示のためのその表面の留保を伴ってもよい。例えば、複数の垂直表面を有するプリズムに関して、上側部分またはストリップが、双方向メニューの表示のために留保されてもよい。本特徴は、プリズム内でレンダリングされたコンテンツが、メニューまたは他のコンテンツアイテムにアクセスするためのユーザの能力を妨害し得る尤度をさらに低減または排除し得る。
プロセスは、いくつかの実施形態では、ユーザが、プリズムに対して移動する間、有利なこととして、コンテンツアイテムにアクセスするためのユーザの能力を促進し、さらにコンテンツアイテムが「邪魔にならないように」保つ。例えば、コンテンツアイテムが、プリズム内でレンダリングされた3Dコンテンツに注釈を付けるための注釈ツールバーである場合、ツールバーは、(1)ツールバーが、概して、ユーザに可視のままであって(例えば、ユーザの視野内に留まり)、(2)プリズム内の3Dコンテンツおよび注釈が、ツールバーへのユーザのへのアクセスを妨害しないように、ユーザが周囲を移動するにつれて、複数のセット場所とプリズムに対する配向との間で移動してもよい。
プロセスは、複合現実システムの1つまたはそれを上回るハードウェアプロセッサによって実行される、実行可能プログラム命令において、実装されてもよい。例えば、プロセスは、複合現実システム上で実行するユニバースアプリケーションの実行可能コード内で実装され、他のアプリケーションによってレンダリングされたコンテンツを管理してもよい。
本発明は、したがって、複合現実システムの1つまたはそれを上回るハードウェアプロセッサによって実行される、プログラム命令の制御下で実施される、コンピュータ化されたプロセスを含み、プロセスは、ユーザによって装着されるヘッドセットのディスプレイ上に、プリズム内に含有される、3次元(3D)コンテンツを、ユーザに表示することであって、プリズムは、その中で3Dコンテンツが表示される体積を画定する、複数の表面を有する、ことと、プリズムの第1の表面上に、ユーザが3Dコンテンツと相互作用する機能を提供する、コンテンツアイテムを表示することと、プリズムに対するユーザの移動を感知することと、感知された移動に応答して、コンテンツアイテムをプリズムの第2の表面に再位置付けすることとを含む。コンテンツアイテムは、例えば、ユーザによって選択可能であるアイコン、またはユーザに3Dコンテンツに注釈を付けるための機能を提供する、注釈メニューを有する、ツールバーであってもよい。感知された移動は、ユーザの場所における変化、またはユーザの頭部姿勢における変化を備えてもよい。コンテンツアイテムは、ユーザの視野内に留まるように再位置付けされてもよい。いくつかの実施形態では、プリズムは、その中で3Dコンテンツが表示されることが可能ではない、留保される領域を備え、プロセスは、コンテンツアイテムを留保される領域内の第1および第2の表面上に表示することを含む。
該コンピュータ化されたプロセスのいくつかの実施形態では、第1および第2の表面は、相互に垂直である、垂直表面である。そのような実施形態では、コンテンツアイテムの再位置付けは、コンテンツアイテムを90度回転させることを含んでもよい。
該コンピュータ化されたプロセスのいくつかの実施形態では、第1および第2の表面は、相互に平行であり、感知された移動は、第1の表面を通して、プリズムの外側からプリズムの内側へのユーザの移動を備える。そのような実施形態では、コンテンツアイテムを再位置付けすることは、プリズムの外側から内側へのユーザの移動に応答して、コンテンツアイテムを、第1の表面と第2の表面との間に該当する中間位置に表示することを含む。
該コンピュータ化されたプロセスのいくつかの実施形態では、プロセスは、ユーザが、プリズムの外側に位置するとき、ユーザ場所に基づいて、コンテンツアイテムの表示位置を決定することと、ユーザが、プリズムの内側に位置するとき、ユーザの姿勢に基づいて、コンテンツアイテムの表示位置を決定することとを含む。
本発明はまた、ユーザによって装着されるように構成される、頭部搭載可能ディスプレイシステムと、ユーザの移動を感知するように構成される、1つまたはそれを上回るセンサと、1つまたはそれを上回るプロセッサを備える、コンピューティングシステムであって、コンピューティングシステムは、頭部搭載可能ディスプレイシステム上に、プリズム内に含有される、3次元(3D)コンテンツを表示するための実行可能命令を用いてプログラムされ、プリズムは、境界された体積を画定する、表面を有し、プリズムは、ユーザの実世界環境内に固定された場所を有する、コンピュータシステムとを備える、複合現実システムを備える。コンピューティングシステムは、コンテンツアイテムを、プリズムの第1の表面上に表示し、プリズムに対するユーザの感知された移動に応答して、コンテンツアイテムをプリズムの第2の表面に再位置付けすることによって、ユーザにアクセス可能なコンテンツアイテムを維持するように構成される。コンテンツアイテムが、例えば、双方向メニューであってもよい。感知された移動は、プリズムに対するユーザの場所における変化、プリズムの外側からプリズムの内側へのユーザの移動、および/またはユーザの姿勢における変化を備えてもよい。プリズムは、その中で3Dコンテンツが表示可能ではない、留保される領域を備えてもよく、その場合、コンピューティングシステムは、留保される領域内の第1および第2の表面上にコンテンツアイテムを表示するようにプログラムされてもよい。いくつかの実施形態では、コンピューティングシステムは、ユーザが、プリズムの外側に位置するとき、ユーザ場所に基づいて、コンテンツアイテムの表示位置を決定し、ユーザが、プリズムの内側に位置するとき、ユーザの姿勢に基づいて、コンテンツアイテムの表示位置を決定するようにプログラムされる。コンピューティングシステムは、3Dコンテンツをレンダリングする、第1のアプリケーションを実行し、プリズム内の3Dコンテンツのディスプレイを管理する、第2のアプリケーションを実行してもよい。
本発明はさらに、1つまたはそれを上回る記憶装置デバイスを備える、非一過性コンピュータ記憶装置を備え、非一過性コンピュータ記憶装置は、複合現実システムに、ユーザによって装着されるヘッドセットのディスプレイ上に、プリズム内に含有される、3次元(3D)コンテンツを、ユーザに表示することであって、プリズムは、その中で3Dコンテンツが表示される体積を画定する、複数の表面を有する、ことと、プリズムの第1の表面上に、ユーザが3Dコンテンツと相互作用する機能を提供する、コンテンツアイテムを表示することと、プリズムに対するユーザの移動を検出することと、検出された移動に応答して、コンテンツアイテムが、ユーザの視野内に留まるように、コンテンツアイテムをプリズムの第2の表面に再位置付けすることとを含む、プロセスを実施するように指示する、実行可能プログラム命令を記憶する。
図1は、その中で本開示の表示プロセスが実装され得る、環境の一実施例を図示する。
図2は、一実施形態による、その中でユーザがプリズム内にレンダリングされた3Dコンテンツを視認する、例示的シナリオを図示し、双方向メニューの位置付けを図示する。
図3は、ユーザが、双方向メニューを使用してアクセス可能な図面ツールを用いて、注釈を追加した後の、図2の実施例を図示する。
図4は、ユーザが、図2の実施例において、プリズムに向かって、次いで、その中に歩行するにつれて、双方向メニューが、再位置付けされ得る方法を図示する。
図5は、一実施形態による、図2の実施例において、プリズムに対する5つのユーザ位置/配向を図示し、5つの対応するメニュー場所を図示する。
図6は、図2-5のプリズムの上下図(俯瞰図)であり、双方向メニューまたは他のコンテンツアイテムの位置および配向をプログラムで選択するために使用され得る、座標系、寸法変数、および領域境界線を図示する。
図7A-7Dは、メニュー位置のプログラムの選択と、プリズム内の4つのユーザ配向のそれぞれに対する配向とを図示する。
図8は、ユーザ移動に応答して、コンテンツアイテムを再位置付けするためのプロセスの一実施形態を図示する。
図面全体を通して、参照番号は、参照される要素間の対応を示すために再使用され得る。図面は、本明細書に説明される例示的実施形態を図示するために提供され、本開示の範囲を限定することを意図するものではない。
詳細な説明
I. 専門用語
本明細書で議論されるシステムおよび方法の理解を促進するために、いくつかの用語が、下記に説明される。これらの用語および本明細書で使用される他の用語は、提供される記述、通常および慣例の意味の用語、および/または個別の用語に関する任意の他の含意される意味を含むと解釈されるべきであり、そのような構造は、用語のコンテキストと一致する。したがって、下記の記述は、これらの用語の意味を限定するものではなく、例示的記述のみを提供する。
頭部姿勢:ウェアラブルヘッドセット(またはヘルメット等の他の頭部搭載可能システム)と、その代理として、実世界におけるユーザの頭部の位置および/または配向。頭部姿勢は、慣性測定ユニット(IMU)、加速度計、ジャイロスコープ等のセンサを使用して、決定されてもよい。いくつかの実施形態では、頭部姿勢の方向に延在する、頭部姿勢光線は、仮想オブジェクトと相互作用するように使用されてもよい。例えば、ユーザが、プリズムまたはオブジェクトをポイントしている、または見ているとき、オブジェクトまたはプリズムは、ユーザの頭部姿勢光線によって交差される。ユーザの配向は、加えて、または代替として、眼姿勢、胴体姿勢、またはユーザの身体のある他の部分の姿勢に基づいて、決定され得る。
プリズム:複合現実コンテンツまたは複合現実空間と関連付けられる、3次元コンテナまたはエンクロージャ。例えば、プリズムが、ユーザによって選択可能であり得る、1つまたはそれを上回る仮想コンテンツアイテムを含有してもよい。プリズムの境界または表面は、ユーザに表示されてもよいが、その必要はない。プリズムが、アプリケーションが、立ち上げられると、スポーンし得、次いで、フレキシブルなレイアウトを作成するために兄弟または子プリズムをスポーンし得る。プリズムが、典型的には、グラフィカルユーザインターフェースのウィンドウのものに類似する機能を果たすが、3Dコンテンツ内に表示することが可能な3Dオブジェクトである。プリズムが、ユーザが3Dコンテンツを協働して共有および操作することを有効にするために、いくつかの環境において使用されることができる。
コントローラ:手で保持されるように構成され、複合現実環境と相互作用するために使用される、デバイス。例えば、コントローラは、プリズムを用いてレンダリングされるコンテンツアイテム、またはプリズムと関連付けられるメニューと相互作用するために使用されてもよい。コントローラが、6DoF(6自由度)等の複数の自由度移動を提供してもよい。いくつかの実施形態では、ユーザの手または他の実世界オブジェクトが、例えば、ユーザ相互作用可能な仮想コンテンツにユーザ入力を提供するために、コントローラの代わりに、またはそれに加え、使用されてもよい。
コントローラ姿勢:コントローラの位置および/または配向。コントローラ姿勢が、そこでコントローラがポイントする、複合現実環境の面積、体積、または点を決定するために使用されることができる。いくつかの実施形態では、コントローラ姿勢は、コントローラから延在する光線としてユーザに視覚的に描写され、ユーザがコントローラを用いてコンテンツアイテムをポイントし、選択することを有効にする。
II. プリズムを伴う例示的複合現実環境
図1は、複合現実システムにおけるプリズムを使用して、コンテンツを管理および表示するための例示的物理的環境およびコンピューティングシステムを示す。代表的環境100は、頭部搭載システムまたはヘッドセット160を通してユーザ103によって視認されるような、ユーザのランドスケープ110を含む。ユーザのランドスケープ110は、ユーザ設置コンテンツが実世界の上に合成され得る、世界の3Dビューである。ヘッドセット160は、任意の好適な頭部搭載ディスプレイシステムまたはデバイスであり得、例えば、類似ゴーグル、眼鏡、またはユーザによって装着されるヘルメットあり得る。
ヘッドセット160は、ユーザの実世界ビューを補完し得る、種々のタイプのコンテンツを表示する、ディスプレイ162を含む。図1に示される実施例では、部屋内に立ち、部屋の実世界ビューを含む、ランドスケープ110を視認しているユーザは、個別のプリズム113a、113b内にレンダリングされるデジタルコンテンツ115aおよび115bで補完される。ディスプレイ162は、ヘッドセットの透明または半透明レンズ(または1つのそのようなレンズ)の中に統合され得、その場合、レンズを通したユーザのビューは、ディスプレイ162上にレンダリングされるコンテンツで補完される。例えば、ディスプレイ162は、米国特許公開第2018/0157398号(その開示は、参照することによって本明細書に組み込まれる)に開示されるような、レンズの中に組み込まれる、導波管を使用して実装されてもよい。代替として、ディスプレイ162は、ヘッドセットの1つまたはそれを上回る外向きに向いたカメラによって捕捉されるような、実世界ビューの補完される表現を表示する不透明ディスプレイであってもよい。
ヘッドセット160は、ユーザのランドスケープ、位置、および配向を感知するための1つまたはそれを上回るタイプのセンサ164を含む。センサ164は、例えば、物理的オブジェクトおよび他の周囲を感知するための1つまたはそれを上回る外向きに向いたカメラまたはスキャナを含み得、頭部姿勢および場所を感知するための加速度計、慣性測定ユニット、コンパス、無線デバイス、および/またはジャイロスコープ等の、1つまたはそれを上回るタイプのデバイスを含み得る。ヘッドセットはまた、眼追跡のための1つまたはそれを上回る内向きに向いたカメラまたは他のセンサを含んでもよい。ユーザの眼の追跡された状態は、「眼姿勢」と称される。ヘッドセット160はまた、オーディオスピーカおよびマイクロホン(図示せず)を含んでもよい。
代表的環境100はさらに、ウェアラブルコンピューティングデバイス170を含む。ウェアラブルコンピューティングデバイスは、1つまたはそれを上回るハードウェアプロセッサ(図示せず)、アプリケーションコードおよびコンテンツを記憶するメモリまたは他の記憶装置デバイス137、およびローカルおよび/または遠隔システムコンポーネントと通信するための1つまたはそれを上回る無線送受信機を含んでもよい。ウェアラブルコンピューティングデバイスの回路のいくつかまたは全ては、代替として、ヘッドセット160の中に統合される、またはユーザによって装着されない定常コンピューティングデバイスに位置してもよい。ウェアラブルコンピューティングデバイス170は、無線ネットワークを経由して、遠隔サーバまたはローカル処理ノードと通信してもよい。いくつかの実施形態では、ウェアラブルコンピューティングデバイス170は、ケーブルによってヘッドセット160に接続され、ヘッドセット160から受信したビデオおよびセンサデータを処理するように構成される。図1において、外部データベース(DB)150によって描写されるように、ウェアラブルコンピューティングデバイス170は、ネットワークを経由して、外部記憶装置にアクセスしてもよい。
用語「コンピューティングシステム」は、これらのコンポーネントが、単一コンピューティングデバイスまたはノード内に含有される、または複数のコンピューティングデバイスまたはノードを横断して分散されるかどうかにかかわらず、システムの種々のハードウェアコンピューティングコンポーネント(ハードウェアプロセッサ、記憶装置デバイス等)を集合的に指すために本明細書で使用される。いくつかの実施形態では、システムの処理コンポーネントの全ては、コンピューティングシステムが、ウェアラブルコンピューティングシステムであるように、ユーザによって装着されるように構成される。
図1の実施形態では、ウェアラブルコンピューティングデバイス170は、2つのタイプのアプリケーション、すなわち、ユニバースアプリケーション130および1つまたはそれを上回る付加的アプリケーション140(時として、「ランドスケープアプリケーション」と呼ばれる)を実行する。アプリケーション140は、プリズム113a、113bの中にレンダリングされたコンテンツ115a、115bを含む、コンテンツを発生させる。図示される実施形態では、各プリズム113a、113bは、境界された矩形体積であり、実世界オブジェクトまたは構造にピン留めまたはアンカされる。プリズム113aは、壁117aにアンカされ、壁に取り付けられるようにユーザに現れる、仮想コンテンツ115aを表示する。プリズム113bは、テーブル117bにアンカされ、テーブルの上に位置するようにユーザに現れる、3Dの木の形態で仮想コンテンツ115bを表示する。付加的図に示され、下記に議論されるように、いくつかのプリズムは、ユーザがプリズムの中におよびそこから外に歩行することを有効にするように、サイズ決めおよび位置付けられてもよい。
ユニバースアプリケーション130は、プリズム113a、113bを作成し、デジタルコンテンツ115a、115bの表示を管理することに関与する。ユニバースアプリケーション130は、例えば、アプリケーション140が、仮想コンテンツをユーザのランドスケープ110上にレンダリングする必要があるとき、プリズムを作成してもよい。複数のアプリケーション140が、同一プリズム113a、113bの中にコンテンツをレンダリングしてもよい。各プリズムは、ユニバースアプリケーション130が、プリズム自体を管理することによって、複合現実環境におけるコンテンツの設置および表示を管理することを可能にする、特性および性質を有してもよい。2つの異なるタイプのアプリケーションが、図1に示されるが、本発明は、2つの異なるタイプのアプリケーションを要求しない。加えて、プリズムの境界線が、図1および後続図面に示されるが、境界線は、ユーザに表示される場合とそうではない場合がある。
複合現実システムはまた、ユーザによって保持され、種々の機能を実施するために使用されることができる、コントローラ206(図2参照)を含んでもよい。コントローラ206は、1つまたはそれを上回る入力デバイスまたは要素、例えばボタン、タッチパッド、回転可能ホイール等を含んでもよい。一実施形態では、コントローラはまた、オブジェクトを選択するためにユーザによって使用され得る、仮想レーザポインタとしての役割を果たす。例えば、ユーザは、所望のオプションとしてコントローラをポイントすることによって、メニュー(図2に示されるツールバー208等)上のメニューオプションを選択するために、コントローラ206を使用することができる。コントローラの正面から延在する、仮想レーザまたは光線(図示せず)が、選択アクションを促進するために、ユーザに表示されてもよい。いくつかの実施形態では、ユーザは、代替として、指を使用して、または頭部姿勢光線を使用して、メニューオプションを選択することができる。
ユーザがプリズム内に表示されるコンテンツと相互作用する、いくつかのシナリオでは、ユーザがプリズムの周囲またはその中に歩行するにつれて、可視およびアクセス可能なままである、コンテンツアイテムをユーザにエクスポーズすることが望ましい。例えば、ユーザが、プリズム内でコンテンツを作成する、編集する、またはそれに注釈を付ける場合、メニュー(ツールバー等)またはプリズムの近傍における他の双方向コンテンツアイテムを表示し、ユーザが周囲を移動するにつれてアクセス可能なままであるように、本双方向コンテンツアイテムを動的に再位置付けすることが望ましくあり得る。別の実施例として、その中でユーザがプリズム内のコンテンツを発生または修正するために他のユーザと協働する、協働セッションのコンテキストにおいて、他の参加者についての情報を表示する、通知ペインを表示し、動的に再位置付けすることが望ましくあり得る。
本開示は、ユーザの場所および/または配向における変化に応答して、コンテンツアイテム(限定ではないが、メニューまたは通知ペイン等)を動的に再位置付けするためのプロセスを提供することによって、本問題点に対処する。いくつかの実施形態では、プロセスは、プリズムに対するユーザの移動に基づいて、および/またはユーザの配向(例えば、頭部姿勢)における変化に基づいて、コンテンツアイテムをプリズムの1つの表面からプリズムの別の表面に再位置付けすることを伴う。コンテンツアイテムはまた、いくつかのシナリオでは、プリズム内の場所等の他の場所に位置付けられてもよい。プロセスはまた、ユーザに対してその適切な配向を維持するために、コンテンツアイテムを再配向(例えば、180度水平に回転)させてもよい。
一実施形態では、プロセスは、ユニバースアプリケーション130の実行可能命令内で実装される。プロセスは、代替として、アプリケーション140の1つの実行可能コード、オペレーティングシステム、または別のタイプのソフトウェアコンポーネントで実装され得る。
III. ツールバータイプメニューの例示的再位置付け
例示的ユースケースシナリオが、図2-5を参照して、ここで説明されるであろう。本ユースケースシナリオでは、ユーザは、航空機の3Dモデル202と相互作用する(例えば、作成する、編集する、または注釈を付ける)。モデル202は、プリズム200の内側に位置付けられ、モデルの位置および配向は、ユーザが周囲を移動するにつれて、実/物理的世界に対して固定されたままである。本実施例におけるコンテンツアイテムは、注釈メニュー、具体的には、複数の選択可能アイコン(円形として示される)を含む、注釈ツールバー208であり、そのそれぞれは、コントローラ206をアイコンにポイントすることによって、ユーザによって選択されることができる。異なるアイコンは、図面ツール、ハイライトツール、消去ツール、テキストエントリツール等の異なる注釈ツールを表し得る。他のシナリオでは、注釈メニューは、複数のドロップダウンサブメニューを有する、テキストメニューの形態にあってもよい。注釈ツールバー208は、2Dオブジェクトであり、ユーザに平坦に現れるが、いくつかの実施形態では、オブジェクトは、代わりに、3Dであり得ることを意味する。図2-5において、プリズムの境界または縁を示す線は、典型的には、ユーザに表示されないが、いくつかの実施形態では、表示されてもよい。図2では、ツールバー208は、プリズムの表面「上に表示される」ように説明され得、概して、プリズムの表面のものと一致する、その位置および配向を意味する。語句「表面上に表示される」は、表面自体がユーザに可視であることを含意するように意図されない。いくつかの実施形態では、「表面上に表示される」は、コンテンツアイテムによって作成された平面が、プリズムの面から作成された平面と整合され得ることを意味し得る。
図2-5の実施例では、ツールバー208は、常時、プリズムの上側領域210内に表示されるが、ユーザの場所および配向に応じて、本領域内の異なる場所にも表示される。いくつかの実施形態では、本上側領域210は、ユーザが周囲を移動するにつれて、動的に再位置付けされる、メニュー(ツールバー等)および/または他のタイプのコンテンツアイテムの表示のために留保される。したがって、モデル202等の他のタイプのコンテンツ、ユーザによって追加される任意の注釈、および他のタイプのユーザ作成コンテンツは、図示される実施形態では、上側領域210内に位置することができない。
留保される領域210の本使用は、ユーザ作成コンテンツとツールバー208との間の干渉を低減または排除させ、例えば、ユーザ作成コンテンツは、ツールバーアイコンを選択するために、ツールバー208のユーザのビューまたはユーザの能力を妨害しない。留保される領域210が、図2-5の実施例において使用されるが、開示されるプロセスは、留保される領域を使用せずに、実装されることができる。さらに、垂直表面の下側部分または側面等のプリズムの異なる部分が、留保される領域として使用されることもできる。
図2では、ユーザ103は、プリズム200の外側に立ち、それに向いている。注釈ツールバー208は、ユーザに最も近いプリズムの表面上(留保される領域210内)の中心位置に外向きに向いた配向で表示される。これは、ユーザが、モデル202を視認している間、ツールバー208を容易に閲覧およびアクセスすることを可能にする。ユーザは、例えば、図面ツールを注釈ツールバー208から選択するためにコントローラ206を使用し得、次いで、モデル上またはその周囲に描くために(図3において2つの波線300によって示されるように)、コントローラを使用し得る。図示される実施形態では、ツールバー208は、ユーザの頭部姿勢が変化するにつれて、その上でそれが図2および3に表示される、表面に沿って、移動することができない。いくつかの実施形態では、かつ下記に説明される代替実施形態では、ツールバーは、その上でそれが表示される表面に沿って、水平に「スライド」することができる。
図4は、ツールバー208が、ユーザ103がプリズム200に向かって、次いで、その中に歩行するにつれて、再位置付けされ得る方法を図示する。最初に、ツールバーは、場所208aに位置付けられ、これは、図2および3に示される位置である。ユーザが、プリズム200に接近するにつれて、ツールバー208は、ユーザの目線からプリズム200の正面と後面との間の真ん中に該当する、中間位置に再位置付けされる。これは、ツールバー208が、ユーザに可視およびアクセス可能のままであることを有効にする。場所208aから208bへの遷移と、本明細書に説明される他の場所の遷移とは、すぐに生じ得る、またはより徐々に生じ得る(例えば、1つの場所から別の場所に移動するツールバーを示すように、アニメーションを使用することによって)。ユーザ103が、プリズム200にステップインし、前方に歩行を継続した後、注釈メニュー208は、位置208cによって示されるように、プリズムの後面に再位置付けされる。ツールバーの配向は、変化しないままであり、ツールバーは、したがって、位置208cに内向きに向いた配向を有する。ユーザが、後面を通して前方に歩行を継続した後、ツールバーは、外向きに向いた配向を有するように、180度水平に回転されてもよい。
単一中間位置208bのみが、図4に示されるが、複数の中間位置が、使用されてもよい。使用される中間位置の数は、該当する場合、プリズムの寸法に基づいてもよい。加えて、プロセスは、中間表示位置の使用を伴わずに、実装され得、例えば、ツールバー208は、常時、プリズムの表面の1つ上に表示され得る。
図5は、5つの異なるユーザ位置および配向を図示し、5つの対応するツールバー場所および配向を示す。図5に示される最初の3つの実施例は、図4に示されるものと同一である。実施例4は、プリズムの側面に向いたプリズム200におけるユーザ103を示し、内向きに向いた配向を伴う側面上に表示されるツールバーを示す。ツールバーは、例えば、ユーザが、プリズムの中への歩行の後、右に90度方向転換する場合、本場所に再位置付けされてもよい。ユーザの配向は、頭部姿勢によって決定されるが、代替として、眼姿勢、身体、または胴体姿勢、またはある他の配向測定に基づいて、決定されてもよい。図5における実施例5は、他側に向いたプリズム200の外側に立つユーザ103を示し、外向きに向いた配向で側面上に位置付けられるツールバー208を示す。図5の図示される実施例では、ツールバー208は、それが、プリズムの任意の所与の表面上または中間位置に表示される間、固定された中心位置に表示されるが、いくつかの実施形態では、例えば、右にそろえられる、左にそろえられる、面積210等の角または側からオフセットされる等、他の位置が、使用されてもよい。
これらの実施例によって図示されるように、ツールバー208の可視性およびアクセス性を維持することに加え、プロセスは、ユーザから便宜的距離に位置付けられるツールバーを維持することを求める。例えば、ユーザが、図5においてユーザ位置5にいるとき、ツールバーは、代替として、ツールバー位置4に表示され得るが、ユーザとツールバーとの間の有意な距離は、特に、プリズムが、大きい場合、ツールバーから視認および選択するように、ユーザの能力を妨害する可能性が高いであろう。いくつかの実施形態では、プロセスは、2~12フィート、3~10フィート、または4~8フィート等の選択された範囲内で、ツールバー208とヘッドセット160との間の分離を維持するように求めてもよい。ツールバーは、ユーザが、プリズム200から閾値距離より遠くに位置すると、ユーザのランドスケープから除去されてもよい。
図2-5に図示される表示プロセスは、他のプリズム形状および構成と併用するために適合されてもよい。例えば、プリズムが、上部から視認されるように、5角形の形状にある場合、プロセスは、ユーザの位置および配向に基づいて、5つの垂直表面のうちの1つから選択してもよい。プリズムが、湾曲表面を含む場合、表示プロセスは、その上にそれが表示される、湾曲プリズム表面に合致するように、ツールバーまたは他の2Dコンテンツアイテムをワーピングしてもよい。
図6は、図2-5の実施例において、ツールバー/メニュー表示位置をプログラムで選択するように、システムによって使用され得る座標系および関連付けられる参照を図示する。図面は、プリズム200の上からの図を含み、プリズムに対する座標系のXおよびZ軸を示す。Y軸は、垂直軸であり、したがって、示されない。プリズムの中心は、X=0およびZ=0における、点である。X方向におけるプリズムの長さは、Lと表され、Z方向におけるプリズムの長さは、Lと表される。2本の領域分割線または境界線600、602が、示され、そのそれぞれが矩形の2つの対向頂点と交差する。これらの分割線は、領域1、2、3、および4と示される、4つの領域を画定するために使用される。これらの領域はそれぞれ、さらに内部(すなわち、プリズムの内側)および外部領域に細分される。本図面では、ユーザ103は、領域4の外部に示され、ツールバー(メニュー)208は、外向きに向いた配向で領域4のプリズム表面上に位置付けられる。ツールバーは、ユーザが、領域4の外部、または内部領域と外部領域とに分割する線から閾値距離内に留まる限り、本場所に固定されたままであり得る。
一実施形態では、ツールバー208は、プリズムの垂直表面上に表示のみされ(中間表示位置は、使用されない)、以下のルールに従って表示される。(1)ユーザが、プリズムの外側にいる場合、ツールバーは、その中にユーザが位置する領域に該当する、表面上に、外向きに向いた配向で表示される、(2)ユーザが、プリズムの内側にいる場合、ツールバーは、ユーザが向いている表面(例えば、ユーザの頭部姿勢を表す、方向ベクトルまたは光線によって交差される表面)上に内向きに向いた配向で表示される。これらのルールは、図5の位置2等の1つまたはそれを上回る中間表示位置の表示をサポートするために、適切に修正または拡張されてもよい。
図7A-7Dは、4つの内部ユーザ場所および配向と、4つの対応するメニュー/ツールバー場所とを示す。これらの図における方向ベクトル212は、頭部姿勢ベクトル等のユーザ方向または姿勢ベクトルを表す。いずれの場合も、メニュー208は、ユーザがその中にいる、4つの内部領域に関わらず、方向ベクトル212によって交差される、垂直プリズム表面上に内向きに向いた配向で表示される。図7Aでは、ユーザは、領域2の表面に向き、メニュー208は、ゼロのメニュー角度で表面上に表示される。図7Bでは、ユーザは、領域1の表面に向き、メニュー208は、3π/2ラジアンまたは270度のメニュー角度で表面上に表示される。図7Cでは、ユーザは、領域3の表面に向き、メニュー208は、π/2ラジアンまたは90度の角度で表面上に表示される。図7Dでは、ユーザは、領域4の表面に向き、メニュー208は、πラジアンまたは180度の角度で表面上に表示される。換言すると、いくつかの実施形態では、メニュー208は、ユーザが位置する場所にかかわらず、ユーザに向いて回転してもよい。上記に解説されるように、1つまたはそれを上回る中間表示場所はまた、ユーザが、プリズム内またはその近くにいるとき、使用され得、例えば、図7Bにおいて、ユーザと領域1の表面との間の距離が、閾値を超える場合、メニュー208は、代替として、ユーザとその表面との間に該当する中間位置に表示され得る。
上記に述べられたように、ユーザの配向および/または場所における変化が、ツールバー208の場所および/または配向における変化をトリガすると、アニメーションが、随意に、ツールバーをその新しい場所および/または配向に移動および/または回転させることを示すために、使用され得る。ユーザ体験をさらに改良するために、ヒステリシスタイプ機能が、ツールバー208が、わずかなユーザ移動に応答して、短い時間インターバルで場所の間を往復して「ジャンプ」することを防止するために、使用されてもよい。例えば、図6では、ユーザが、領域1および4の外部の間の境界線600に沿って立っていた場合、ヒステリシス機能は、メニュー208が、わずかなユーザ移動に応答して、領域1および4の表面の間をジャンプすることを防止し得る。図6における境界線600および602のそれぞれの厚さは、使用されるヒステリシスの程度を表す。ユーザが、プリズムの内側にいるとき、ヒステリシス機能は、ユーザが、プリズムの角に向くとき、メニュー208が、表面の間を往復して急速に移動することを防止し得る。ヒステリシスは、加えて、または代替として、メニュー208が、いったんその場所が、変更されると、再び、一定の期間(例えば、1秒または2秒)再位置付けされることを防止する、時間ベースの制限を課すことによって実装されてもよい。
図8は、ツールバー、別のタイプのメニュー、またはユーザ移動に基づく別のタイプのコンテンツアイテムを再配置および再配向するために使用され得る、プロセスを図示する。プロセスは、コンピューティングシステム(例えば、システムのウェアラブルコンピューティングデバイス170および/または別の処理コンポーネント)によって実行されるプログラムコードで、実装されてもよい。例えば、プロセスは、ユニバースアプリケーション130(図1)または別のアプリケーション140のプログラムコードで実装されてもよい。プロセスが、フレーム(例えば、60フレーム/秒のフレームレートが使用される場合、60回/秒)毎に実行されるように図示されるが、あまり頻繁に実行されなくてもよい(例えば、1フレームおきまたは3フレームおき)。図8の決定ブロック802では、プロセスは、ユーザの座標と、プリズム200の座標および寸法とに基づいて、ユーザがプリズムの内側200にいるかどうかを決定する。ユーザの座標は、データ収集に基づく、またはヘッドセット160(またはいくつかの実施形態では、コントローラ206または別のコンポーネントによって)によって発生されてもよい。
ユーザが、プリズム内にいる場合、その中でコンテンツアイテムが表示され得る領域は、図7A-7Dを参照して、上記に説明されるように、ユーザが向いている方向を表す、方向ベクトル(ブロック804)に基づいて決定される。方向ベクトルは、頭部姿勢に基づき得るが、代替として、眼姿勢、胴体姿勢、またはある他の姿勢、または配向測定に基づき得る。ブロック805では、プロセスは、内向きに向いた配向で、領域の表面上にコンテンツアイテムを表示するための回転を算出するために、決定される領域を使用する。
ユーザが、プリズムの外側にいる場合、プロセスは、図6を参照して議論されるように、ユーザの場所(ブロック810)に基づいて、領域を決定する。ブロック812では、プロセスは、次いで、外向きに向いた(すなわち、ユーザに向かって向いた)配向で、識別された領域の表面上にコンテンツアイテムを表示するための回転を算出する。
ブロック814では、プロセスは、領域に基づいて、XおよびZ座標を算出する。例えば、プロセスは、コンテンツアイテムが、識別された表面上に中心合わせし得るように、これらの座標を算出してもよい。Y座標は、上記に説明されるように、留保される領域210に対応する固定値であってもよい。ブロック816および818では、プロセスは、それが変化した場合、新しい回転を設定し、それが変化した場合、新しい位置(XおよびZ座標)を設定する。上記に述べられたように、アニメーションが、その新しい位置および配向に移動するコンテンツアイテムを表示するために、実行されてもよい。
以下の方程式は、図8のブロック804および810において領域を決定するために使用され得、XおよびZは、座標であり、Lは、Z方向におけるプリズム長であり(図6参照)、Lは、X方向におけるプリズム長であり、δは、随意のヒステリシス値である。
A=X(L
B=Z(L
領域1=(A-B)>δかつ(A+B)>δ
領域2=(A-B)>δかつ(A+B)<-δ
領域3=(A-B)<-δかつ(A+B)<-δ
領域4=(A-B)<-δかつ(A+B)>δ
領域0=領域1-4のいずれにも該当しない場所
ヒステリシス値δは、ヒステリシスを提供しないゼロの値と、よりヒステリシスを提供するより大きい値とを用いて、例えば、0~0.8の値に設定されてもよい。領域0は、図6に示される領域分割境界線600および602によって表される領域であって、これらのバーの厚さまたは幅は、δに対応する。図8においてヒステリシス機能を実装するために、ブロック804または810で決定される領域は、領域0であり、何のアクションも、行われない(すなわち、回転および位置は、ブロック816および818で更新されない)。表1は、ユーザが、プリズムの外側にいるとき、5つの領域毎にコンテンツアイテムを表示するために使用される角度を示し、表2は、ユーザが、プリズムの内側にいるときに使用される角度を示す。
Figure 2023514558000002
Figure 2023514558000003
図8のプロセスは、コンテンツアイテムが、上記に説明されるように、表面の間の中間位置に表示されることを有効にするように、適切に修正されてもよい。
明白となるであろうように、上記に説明される表示プロセスは、多数の方法で変動されることができる。例えば、一実施形態では、ユーザが、プリズム200にいるとき、ツールバー208は、ツールバーが、留保される領域210内のユーザの真正面に留まる(例えば、頭部姿勢に基づいて)ように、ユーザが移動するにつれて、ユーザが向くプリズム表面に沿って、左右に(水平に)「スライド」してもよい。ツールバーが、プリズムの角に到達すると、ツールバーの一部が、1つの表面上に表示され、残りの部分が、隣接する表面上に表示される間、スライドを継続し得るように、隣接する表面にジャンプし得るか、または90度折り畳まれ得るかのいずれかとなる。左右移動はまた、ユーザが、プリズムの外側にいるとき、実装されてもよい。
別の実施形態では、ユーザが、プリズム200の内側にいるとき、ツールバー208または他のコンテンツアイテムは、全ての4つの垂直表面上または2つの対向表面上の中心合わせした場所に、持続的に表示され得、したがって、本実施形態におけるツールバー208は、ユーザが、プリズムにいるとき、再位置付けされず、ユーザは、ツールバーの複数のインスタンスのうちのいずれか1つを見るおよび使用することができる。別の実施例として、ツールバーのサイズは、ユーザが、その上でそれが表示される表面に向かって移動するにつれて減少され得、ユーザが、表面から離れて移動するにつれて、増加され得る。
IV. 結論
本明細書に説明されるプロセスおよびタスクは全て、1つまたはそれを上回るコンピューティングデバイス(例えば、ウェアラブルコンピューティングデバイス170、ヘッドセット160、および/または他のデバイス)を含む、コンピューティングシステムによって実施および完全に自動化されてもよい。各そのようなコンピューティングデバイスは、典型的には、プログラム命令を実行するハードウェアプロセッサ(または複数のハードウェアプロセッサ)、またはメモリまたは他の非一過性コンピュータ可読記憶媒体内に記憶されるモジュールを含む。本明細書に開示される種々の機能は、そのようなプログラム命令に具現化され得るが、開示される機能のいくつかのまたは全ては、代替として、コンピューティングシステムの特定用途向け回路(例えば、ASICまたはFPGA)に実装されてもよい。コンピューティングシステムが、複数のコンピューティングデバイスを含む場合、これらのデバイスは、共同設置される必要はない。
本開示のシステムおよび方法は、それぞれ、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されない。上記に説明される種々の特徴およびプロセスは、相互に独立して使用され得る、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。本開示に説明される実装の種々の修正が、当業者に容易に明白であり得、本明細書に定義される一般原理は、本開示の精神または範囲から逸脱することなく、他の実装に適用され得る。したがって、請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
とりわけ、「~できる(can)」、「~し得る(could)」、「~し得る(might)」、「~し得る(may)」、「例えば(e.g.)」、および同等物等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、および/またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図される。したがって、そのような条件文は、概して、特徴、要素、および/またはステップが、1つまたはそれを上回る実施形態に対していかようにも要求されること、または1つまたはそれを上回る実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/またはステップが任意の特定の実施形態において含まれる、または実施されるべきかどうかを決定するための論理を必然的に含むことを含意することを意図されない。用語「~を備える(comprising)」、「~を含む(including)」、「~を有する(having)」、および同等物は、同義語であり、非限定的方式で包括的に使用され、付加的要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つまたはそれを上回る」または「少なくとも1つ」を意味するように解釈されるべきである。
本明細書で使用されるように、項目のリスト「~のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある実施例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、およびA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つがそれぞれ存在するように要求することを示唆することを意図するものではない。
同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序で、または連続的順序で実施される、または全ての図示される動作が実施される必要はないと認識されるべきである。さらに、上記に説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。

Claims (20)

  1. 複合現実システムの1つまたはそれを上回るハードウェアプロセッサによって実行されるプログラム命令の制御下で実施されるコンピュータ化されたプロセスであって、前記プロセスは、
    ユーザによって装着されるヘッドセットのディスプレイ上に、プリズム内に含有される3次元(3D)コンテンツをユーザに表示することであって、前記プリズムは、その中で前記3Dコンテンツが表示される体積を画定する複数の表面を有する、ことと、
    前記プリズムの第1の表面上に、前記ユーザが前記3Dコンテンツと相互作用する機能を提供するコンテンツアイテムを表示することと、
    前記プリズムに対する前記ユーザの移動を感知することと、
    前記感知された移動に応答して、前記コンテンツアイテムを前記プリズムの第2の表面に再位置付けすることと
    を含む、プロセス。
  2. 前記感知された移動は、前記ユーザの場所における変化を備える、請求項1に記載のプロセス。
  3. 前記感知された移動は、前記ユーザの頭部姿勢における変化を備え、前記コンテンツアイテムは、前記ユーザの視野内に留まるように再位置付けされる、請求項1に記載のプロセス。
  4. 前記プリズムは、その中で前記3Dコンテンツが表示されることが可能ではない留保される領域を備え、前記プロセスは、前記コンテンツアイテムを前記留保される領域内の前記第1および第2の表面上に表示することを含む、請求項1に記載のプロセス。
  5. 前記第1および第2の表面は、相互に垂直である垂直表面である、請求項1に記載のプロセス。
  6. 前記コンテンツアイテムを再位置付けすることは、前記コンテンツアイテムを90度回転させることを含む、請求項5に記載のプロセス。
  7. 前記第1および第2の表面は、相互に平行であり、前記感知された移動は、前記第1の表面を通して、前記プリズムの外側から前記プリズムの内側への前記ユーザの移動を備える、請求項1に記載のプロセス。
  8. 前記コンテンツアイテムを再位置付けすることは、前記プリズムの外側から内側への前記ユーザの移動に応答して、前記コンテンツアイテムを、前記第1の表面と第2の表面との間に該当する中間位置に表示することを含む、請求項7に記載のプロセス。
  9. 前記コンテンツアイテムは、前記ユーザによって選択可能であるアイコンを有するツールバーである、請求項1に記載のプロセス。
  10. 前記コンテンツアイテムは、ユーザに前記3Dコンテンツに注釈を付けるための機能を提供する注釈メニューである、請求項1に記載のプロセス。
  11. 前記プロセスは、前記ユーザが、前記プリズムの外側に位置するとき、ユーザ場所に基づいて、前記コンテンツアイテムの表示位置を決定することと、前記ユーザが、前記プリズムの内側に位置するとき、前記ユーザの姿勢に基づいて、前記コンテンツアイテムの表示位置を決定することとを含む、請求項1に記載のプロセス。
  12. 複合現実システムであって、
    ユーザによって装着されるように構成される頭部搭載可能ディスプレイシステムと、
    前記ユーザの移動を感知するように構成される1つまたはそれを上回るセンサと、
    1つまたはそれを上回るプロセッサを備えるコンピューティングシステムであって、前記コンピューティングシステムは、前記頭部搭載可能ディスプレイシステム上に、プリズム内に含有される3次元(3D)コンテンツを表示するための実行可能命令を用いてプログラムされ、前記プリズムは、境界された体積を画定する表面を有し、前記プリズムは、前記ユーザの実世界環境内に固定された場所を有する、コンピューティングシステムと
    を備え、
    前記コンピューティングシステムは、コンテンツアイテムを、前記プリズムの第1の表面上に表示し、前記プリズムに対する前記ユーザの感知された移動に応答して、前記コンテンツアイテムを前記プリズムの第2の表面に再位置付けすることによって、前記ユーザにアクセス可能な前記コンテンツアイテムを維持するように構成される、複合現実システム。
  13. 前記コンテンツアイテムは、双方向メニューである、請求項12に記載の複合現実システム。
  14. 前記感知された移動は、前記プリズムに対して、前記ユーザの場所における変化を備える、請求項12に記載の複合現実システム。
  15. 前記感知された移動は、前記プリズムの外側から前記プリズムの内側への前記ユーザの移動を備える、請求項12に記載の複合現実システム。
  16. 前記感知された移動は、前記ユーザの姿勢における変化を備える、請求項12に記載の複合現実システム。
  17. 前記プリズムは、その中で前記3Dコンテンツが表示可能ではない留保される領域を備え、前記コンピューティングシステムは、前記留保される領域内の前記第1および第2の表面上に前記コンテンツアイテムを表示するようにプログラムされる、請求項12に記載の複合現実システム。
  18. 前記コンピューティングシステムは、前記ユーザが、前記プリズムの外側に位置するとき、ユーザ場所に基づいて、前記コンテンツアイテムの表示位置を決定し、前記ユーザが、前記プリズムの内側に位置するとき、前記ユーザの姿勢に基づいて、前記コンテンツアイテムの表示位置を決定するようにプログラムされる、請求項12に記載の複合現実システム。
  19. 前記コンピューティングシステムは、前記3Dコンテンツをレンダリングする第1のアプリケーションを実行し、前記プリズム内の3Dコンテンツのディスプレイを管理する第2のアプリケーションを実行する、請求項12に記載の複合現実システム。
  20. 1つまたはそれを上回る記憶装置デバイスを備える非一過性コンピュータ記憶装置であって、前記非一過性コンピュータ記憶装置は、実行可能プログラム命令を記憶しており、前記実行可能プログラム命令は、複合現実システムに、
    前記ユーザによって装着されるヘッドセットのディスプレイ上に、プリズム内に含有される3次元(3D)コンテンツをユーザに表示することであって、前記プリズムは、その中で前記3Dコンテンツが表示される体積を画定する複数の表面を有する、ことと、
    前記プリズムの第1の表面上に、前記ユーザが前記3Dコンテンツと相互作用する機能を提供するコンテンツアイテムを表示することと、
    前記プリズムに対する前記ユーザの移動を検出することと、
    前記検出された移動に応答して、前記コンテンツアイテムが、前記ユーザの視野内のままであるように、前記コンテンツアイテムを前記プリズムの第2の表面に再位置付けすることと
    を含むプロセスを実施するように指示する、非一過性コンピュータ記憶装置。
JP2022547884A 2020-02-10 2020-12-03 複合現実環境における3次元コンテナに対する身体中心コンテンツ位置付け Active JP7455985B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2024038853A JP2024072853A (ja) 2020-02-10 2024-03-13 複合現実環境における3次元コンテナに対する身体中心コンテンツ位置付け

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062972481P 2020-02-10 2020-02-10
US62/972,481 2020-02-10
PCT/US2020/063102 WO2021162769A1 (en) 2020-02-10 2020-12-03 Body-centric content positioning relative to three-dimensional container in a mixed reality environment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024038853A Division JP2024072853A (ja) 2020-02-10 2024-03-13 複合現実環境における3次元コンテナに対する身体中心コンテンツ位置付け

Publications (3)

Publication Number Publication Date
JP2023514558A true JP2023514558A (ja) 2023-04-06
JPWO2021162769A5 JPWO2021162769A5 (ja) 2023-11-30
JP7455985B2 JP7455985B2 (ja) 2024-03-26

Family

ID=77178262

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022547884A Active JP7455985B2 (ja) 2020-02-10 2020-12-03 複合現実環境における3次元コンテナに対する身体中心コンテンツ位置付け
JP2024038853A Pending JP2024072853A (ja) 2020-02-10 2024-03-13 複合現実環境における3次元コンテナに対する身体中心コンテンツ位置付け

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024038853A Pending JP2024072853A (ja) 2020-02-10 2024-03-13 複合現実環境における3次元コンテナに対する身体中心コンテンツ位置付け

Country Status (5)

Country Link
US (2) US11276248B2 (ja)
EP (1) EP4104034A4 (ja)
JP (2) JP7455985B2 (ja)
CN (1) CN115087905A (ja)
WO (1) WO2021162769A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7455985B2 (ja) 2020-02-10 2024-03-26 マジック リープ, インコーポレイテッド 複合現実環境における3次元コンテナに対する身体中心コンテンツ位置付け

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US20180096432A1 (en) * 2010-11-04 2018-04-05 Reconstructor Holdings Llc Methods and systems for representing relational information in 3d space
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
KR101997845B1 (ko) 2010-12-24 2019-10-01 매직 립, 인코포레이티드 인체공학적 머리 장착식 디스플레이 장치 및 광학 시스템
CN103635891B (zh) 2011-05-06 2017-10-27 奇跃公司 大量同时远程数字呈现世界
WO2013049861A1 (en) 2011-09-29 2013-04-04 Magic Leap, Inc. Tactile glove for human-computer interaction
BR112014010230A8 (pt) 2011-10-28 2017-06-20 Magic Leap Inc sistema e método para realidade virtual e aumentada
KR102223290B1 (ko) 2012-04-05 2021-03-04 매직 립, 인코포레이티드 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9740006B2 (en) 2012-09-11 2017-08-22 Magic Leap, Inc. Ergonomic head mounted display device and optical system
EP4027222A1 (en) 2013-03-15 2022-07-13 Magic Leap, Inc. Display system and method
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
EP4321915A3 (en) 2013-10-16 2024-05-01 Magic Leap, Inc. Virtual or augmented reality headsets having adjustable interpupillary distance
CN109445095B (zh) 2013-11-27 2021-11-23 奇跃公司 虚拟和增强现实系统与方法
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
CA2928248C (en) * 2014-01-20 2023-03-21 Sony Corporation Image display device and image display method, image output device and image output method, and image display system
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
WO2016018488A2 (en) 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification
US10423234B2 (en) 2015-03-27 2019-09-24 Lucasfilm Entertainment Company Ltd. Facilitate user manipulation of a virtual reality environment
US10078919B2 (en) 2016-03-31 2018-09-18 Magic Leap, Inc. Interactions with 3D virtual objects using poses and multiple-DOF controllers
KR102548818B1 (ko) 2016-04-21 2023-06-28 매직 립, 인코포레이티드 시야 주위의 시각적 아우라
IL290933B2 (en) 2016-05-20 2023-10-01 Magic Leap Inc Contextual awareness of user interface menus
JP6795683B2 (ja) 2016-08-11 2020-12-02 マジック リープ, インコーポレイテッドMagic Leap,Inc. 3次元空間内の仮想オブジェクトの自動配置
US10536691B2 (en) 2016-10-04 2020-01-14 Facebook, Inc. Controls and interfaces for user interactions in virtual spaces
WO2018106542A1 (en) 2016-12-05 2018-06-14 Magic Leap, Inc. Virtual user input controls in a mixed reality environment
KR102471422B1 (ko) 2017-02-17 2022-11-30 엔제트 테크놀러지스 인크. 외과수술 환경에서의 비접촉 제어를 위한 방법 및 시스템
KR20230108352A (ko) * 2017-05-01 2023-07-18 매직 립, 인코포레이티드 콘텐츠를 공간 3d 환경에 매칭
WO2019079790A1 (en) * 2017-10-21 2019-04-25 Eyecam, Inc ADAPTIVE GRAPHIC USER INTERFACE SYSTEM
EP3729382A4 (en) 2017-12-22 2021-01-20 Magic Leap, Inc. PROCESS AND SYSTEM FOR MANAGING AND DISPLAYING VIRTUAL CONTENT IN A MIXED REALITY SYSTEM
US10812711B2 (en) * 2018-05-18 2020-10-20 Samsung Electronics Co., Ltd. Semantic mapping for low-power augmented reality using dynamic vision sensor
US10818093B2 (en) * 2018-05-25 2020-10-27 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
US11164367B2 (en) * 2019-07-17 2021-11-02 Google Llc Illumination effects from luminous inserted content
US11340756B2 (en) * 2019-09-27 2022-05-24 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11204678B1 (en) * 2019-12-11 2021-12-21 Amazon Technologies, Inc. User interfaces for object exploration in virtual reality environments
US11126320B1 (en) * 2019-12-11 2021-09-21 Amazon Technologies, Inc. User interfaces for browsing objects in virtual reality environments
JP7455985B2 (ja) 2020-02-10 2024-03-26 マジック リープ, インコーポレイテッド 複合現実環境における3次元コンテナに対する身体中心コンテンツ位置付け
US11727650B2 (en) * 2020-03-17 2023-08-15 Apple Inc. Systems, methods, and graphical user interfaces for displaying and manipulating virtual objects in augmented reality environments

Also Published As

Publication number Publication date
EP4104034A1 (en) 2022-12-21
EP4104034A4 (en) 2024-02-21
JP7455985B2 (ja) 2024-03-26
US11276248B2 (en) 2022-03-15
JP2024072853A (ja) 2024-05-28
US20210248837A1 (en) 2021-08-12
WO2021162769A1 (en) 2021-08-19
US11538230B2 (en) 2022-12-27
CN115087905A (zh) 2022-09-20
US20220139059A1 (en) 2022-05-05

Similar Documents

Publication Publication Date Title
US10949057B2 (en) Position-dependent modification of descriptive content in a virtual reality environment
US10928974B1 (en) System and method for facilitating user interaction with a three-dimensional virtual environment in response to user input into a control device having a graphical interface
US10521028B2 (en) System and method for facilitating virtual interactions with a three-dimensional virtual environment in response to sensor input into a control device having sensors
US9829989B2 (en) Three-dimensional user input
EP3172644B1 (en) Multi-user gaze projection using head mounted display devices
US20230325004A1 (en) Method of interacting with objects in an environment
US11595637B2 (en) Systems and methods for using peripheral vision in virtual, augmented, and mixed reality (xR) applications
CN108292166A (zh) 虚拟现实中的有限视场
US10438419B2 (en) System and method for modifying virtual objects in a virtual environment in response to user interactions
JP2024072853A (ja) 複合現実環境における3次元コンテナに対する身体中心コンテンツ位置付け
EP3814876B1 (en) Placement and manipulation of objects in augmented reality environment
CN107209565A (zh) 固定大小的增强现实对象
US20150206351A1 (en) Method and apparatus for multiple mode interface
JP2017004356A (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
KR20240049629A (ko) 물리적 액션-기반 증강 현실 통신 교환들
US11688148B2 (en) Methods and systems for selection of objects
JP6867104B2 (ja) フローティング・グラフィカルユーザインターフェース
US20210278954A1 (en) Projecting inputs to three-dimensional object representations
JP2017004539A (ja) 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
WO2024049579A1 (en) Physical gesture interaction with objects based on intuitive design

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231121

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231121

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20231121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240313

R150 Certificate of patent or registration of utility model

Ref document number: 7455985

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150