JP2022539313A - 仮想コンテンツのための仮想場所の選択 - Google Patents

仮想コンテンツのための仮想場所の選択 Download PDF

Info

Publication number
JP2022539313A
JP2022539313A JP2021576036A JP2021576036A JP2022539313A JP 2022539313 A JP2022539313 A JP 2022539313A JP 2021576036 A JP2021576036 A JP 2021576036A JP 2021576036 A JP2021576036 A JP 2021576036A JP 2022539313 A JP2022539313 A JP 2022539313A
Authority
JP
Japan
Prior art keywords
location
display
new content
user
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021576036A
Other languages
English (en)
Inventor
サイラス ウォーレン,
オマール カーン,
サミュエル エー. ミラー,
トゥシャー アローラ,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2022539313A publication Critical patent/JP2022539313A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Figure 2022539313000001
拡張現実システム内にコンテンツを設置するための方法。拡張現実システム内に表示するための新しいコンテンツの可用性に関する通知が、受信される。新しいコンテンツの受入を示す確認が、受信される。物理的環境を説明する3次元情報が、外部コンピューティングデバイスに提供され、外部コンピューティングデバイスが新しいコンテンツのための物理的環境内の割当場所を選択するために使用されることを可能にする。割当場所を示す場所情報が、外部コンピューティングデバイスから受信される。新しいコンテンツが物理的環境内の割当場所においてオーバーレイとして表示されているようにユーザに見えるように新しいコンテンツを表示するための拡張現実システムのディスプレイシステム上の表示場所が、場所情報に基づいて、決定される。新しいコンテンツが、ディスプレイシステム上に、表示場所において表示される。

Description

(関連出願の相互参照)
本願は、2019年6月24日に出願された米国仮出願第62/865,756号の利益を主張し、これは、参照により、その全体が本明細書に援用される。
(分野)
本明細書は、概して、複合現実(MR)デバイスに関する。
(背景)
従来のデバイス上でコンテンツを閲覧するための典型的方法は、表示画面(例えば、コンピュータ、スマートフォン、タブレット等のモニタ)上にコンテンツを表示することができるアプリケーションを開くことである。ユーザは、アプリケーションにナビゲートし、コンテンツを閲覧することができる。通常、ユーザがディスプレイの表示画面を見ているとき、コンテンツがアプリケーション内およびディスプレイデバイスの表示画面上に表示される方法に関する固定されたフォーマットが、存在する。
本明細書に説明される主題の革新的側面は、拡張現実(AR)システム内でのコンテンツの設置に関する。
仮想現実(VR)、拡張現実(AR)、および/または複合現実(MR)システムを用いて、アプリケーションは、空間3次元(3D)環境内にコンテンツを表示することができる。特に、コンテンツアイテムの場所は、新しいコンテンツストリームの可用性の通知を受信することに応答して選択されることができる。したがって、1つの一般的実装によると、ユーザは、モバイルデバイスを、新しいコンテンツアイテムの仮想表示のための場所を選択するためのコントローラとして使用することができる。ユーザの環境の表現が、モバイルデバイス上に表示されることができ、ユーザは、新しいコンテンツを仮想的に表示するためのユーザの物理的環境内の場所に対応するものとして、表現内のある場所を選択することができる。ユーザの選択された場所のインジケーションが、モバイルデバイスによってARシステムに提供されることができる。モバイルデバイスから場所情報を受信することに応答して、ARシステムは、新しいコンテンツストリームがユーザの物理的環境内の選択された場所においてオーバーレイとしてユーザに見えるように、新しいコンテンツストリームを仮想的に表示することができる。
説明される実装によると、拡張現実システム内に表示するための新しいコンテンツの可用性に関する通知が、受信される。拡張現実システムは、コンテンツがユーザの物理的環境内の割当場所において添着されているようにユーザに見えるように、ディスプレイシステム上にコンテンツを提示するように構成される。新しいコンテンツの受入を示す確認入力が、受信される。確認入力を受信することに応答して、物理的環境を説明する3次元情報が、拡張現実システムの外部にある外部コンピューティングデバイスに提供され、外部コンピューティングデバイスが新しいコンテンツのための物理的環境内の割当場所を選択するために使用されることを可能にする。新しいコンテンツのための物理的環境内の割当場所を示す場所情報が、外部コンピューティングデバイスから受信される。新しいコンテンツが物理的環境内の割当場所においてオーバーレイとして表示されているようにユーザに見えるように新しいコンテンツを表示するためのディスプレイシステム上の表示場所が、場所情報に基づいて、決定される。新しいコンテンツが、ディスプレイシステム上に、表示場所において表示される。
説明されるコンテンツ設置アプローチは、ユーザがモバイルデバイスをARシステムのためのコントローラとして使用することができる点において有利である。モバイルデバイスは、ARシステムから3D情報を受信し、新しいコンテンツおよび既存のコンテンツのための仮想表示場所の選択を可能にするユーザの環境の表現を表示することができる。ユーザは、ユーザの環境の表現を使用して、新しいコンテンツの仮想表示のための場所を選択することができ、ARシステムは、環境の表現を使用して選択される場所に対応する物理的場所において、新しいコンテンツをオーバーレイとして仮想的に表示することができる。
この側面の他の実装は、対応するシステムと、装置と、コンピュータ記憶デバイス上に記録されるコンピュータプログラムとを含み、各々が、本方法の動作を実施するように構成される。
本明細書に説明される主題の1つ以上の実装の詳細が、付随の図面および下記の説明に記載される。本主題の他の特徴、側面、および利点が、説明、図面、および請求項から明白な状態になる。
図1Aは、頭部搭載型ARシステムが使用される部屋のある場面を図示する。
図1Bは、例示的モバイルデバイスユーザインターフェースを図示する。
図1Cは、頭部搭載型ARシステムが新しいコンテンツアイテムを仮想的に表示するある部屋の更新された場面を図示する。
図2は、モバイルデバイスの統合を含むARシステムの例示的実装を図示する。
図3は、ARシステム内でコンテンツを表示するための方法のフローチャートを描写する。
種々の図面における同様の参照番号および記号は、同様の要素を示す。
(詳細な説明)
図1Aは、頭部搭載型ARシステム101が使用される部屋100のある場面を図示する。頭部搭載型ARシステム101は、複合現実世界と相互作用して複合現実世界を体験するためのインターフェースをユーザに提示する複合現実デバイスであってもよい。複合現実世界は、ユーザの物理的環境内にコンピュータ発生コンテンツと現実世界の物理的オブジェクトとを含むことができる。頭部搭載型ARシステム101は、例えば、ユーザの視野内に、物理的オブジェクトと混合された仮想オブジェクトの画像を提供することができる。
複合現実世界は、ユーザによって、頭部搭載型ARシステム101の接眼レンズ(単数または複数)を通して見られることができる。例えば、頭部搭載型ARシステム101の右の接眼レンズ104を通して見られるような単眼ビュー102が、示される。頭部搭載型ARシステム101の接眼レンズ(右の接眼レンズ104を含む)は、少なくとも部分的に透明であり、「光学シースルー」ディスプレイとしての役割を果たすことができ、それを通して、ユーザは、ユーザの物理的環境内で実オブジェクトを視認することができる。ユーザの物理的環境は、ユーザがあちこち移動して頭部搭載型ARシステム101を通して現実世界オブジェクトを視認するときの、ユーザの物理的な周囲環境である。例えば、ユーザの物理的環境は、単眼ビュー102内に見られるように、椅子106と、テーブル108と、本棚110とを含む。本棚110は、棚111を含む個々の棚のグリッドを含む仕切付きの棚である。
頭部搭載型ARシステム101は、ユーザに、頭部搭載型ARシステム101の接眼レンズを通して、物理的現実に対する拡張として知覚されることができる仮想コンテンツを提示するように構成されることができる。例えば、頭部搭載型ARシステム101は、部分的に透明な物理的表面上に転置される仮想オブジェクトの画像を生産することができる。例えば、仮想コンテンツ112は、頭部搭載型ARシステム101が、テーブル108が頭部搭載型ARシステム101の視野内にあることを決定すると、頭部搭載型ARシステム101の接眼レンズを通して、テーブル108の上部表面114上に仮想的に表示されることができる。本明細書に説明されるような「コンテンツの仮想表示」は、物理的環境内の特定の3次元場所においてコンテンツがオーバーレイとして表示されているようにユーザに見えるように、ディスプレイシステムまたは(右の接眼レンズ104等の)デバイス上にコンテンツを表示することを指す。頭部搭載型ARシステム101は、ユーザがその頭部を方向転換して上または下を見たときに、頭部搭載型ARシステム101内の表示デバイスが、テーブル108の上部表面114に添着されたままであるように見えるように仮想コンテンツ112をレンダリングし続けるように、構成されることができる。
仮想コンテンツは、いくつかの実施例を挙げると、ウェブページ、ブログ、デジタル写真、ビデオ、ニュース記事、ニュースレター、または音楽を含む、または、それらに対応してもよい。仮想デジタルコンテンツは、頭部搭載型ARシステム101によってアクセス可能である記憶デバイス上に記憶されるコンテンツに対応してもよい、または、仮想コンテンツは、ライブビデオフィード等のストリーミングコンテンツの表現であってもよい。仮想コンテンツの複数のアイテムが、部屋100内の複数の異なる物理的表面上に仮想的に表示され、ユーザのための作業空間面積全体を拡大させ得、作業空間面積上に、仮想コンテンツが表示され得る。種々の平面が、例えば、仮想ディスプレイとして指定されてもよい。
頭部搭載型ARシステム101は、新しいコンテンツアイテムが、頭部搭載型ARシステム101による仮想表示のために利用可能であることを決定することができる。頭部搭載型ARシステム101は、新しいコンテンツが利用可能であることの内部決定を行うことができ、かつ/または、外部システムから、新しいコンテンツが利用可能であることの告知を受信し得る。頭部搭載型ARシステム101は、例えば、ボットまたは別のコンテンツソースをサブスクライブしてもよい。
新しいコンテンツは、種々のタイプのプッシュ型コンテンツであってもよい。プッシュ型コンテンツは、ユーザがコンテンツを検索または選択する必要なく、ユーザの環境の中にレンダリングされることができるコンテンツであり得る。例えば、プッシュ型コンテンツは、(a)株価通知、ニュースフィード等の種々のアプリケーションからの通知、(b)優先順位付けされたコンテンツ(例えば、ソーシャルメディアアプリケーションからの更新および通知、電子メール更新、または連絡先からのメッセージ)、(c)広範な標的群および/または具体的な標的群を標的とするメッセージ、または、(d)他のタイプのコンテンツまたはコンテンツストリームを含み得る。
新しいコンテンツアイテムが仮想表示のために利用可能であることを決定することに応答して、通知116が、ユーザに表示されることができる。通知116は、新しい株価チャートコンテンツアイテムが利用可能であることを示す。通知116はまた、ユーザに、新しい株価チャートを仮想的に表示するための物理的環境内の場所を選択するように促している。
通知116は、頭部搭載型ARシステム101によって、ユーザに仮想的に表示されることができる。通知116は、部屋100内の特定の物理的表面上に示されることができる、または、「空間内」に出現しているかのように表示されることができる。別の実施例として、通知116は、単眼ビュー102内に、接眼レンズ104の1つ以上の縁に対して表示されることができる。他の実施例は、通知116が、コンピューティングデバイス(図示せず)の物理的ディスプレイ上に、または(例えば、頭部搭載型ARシステム101または別の接続されるコンピューティングデバイスのスピーカを通して再生されるような)ユーザへのオーディオ通知として、表示されることを含む。
ユーザは、通知116および他の新しいコンテンツ告知の表示を制御するための種々の設定を構成することができる。例えば、ユーザは、新しいコンテンツ通知を仮想的に表示するための特定の場所(例えば、物理的表面、物理的コンピューティングデバイスディスプレイ)を構成することができる。別の実施例として、ユーザは、通知頻度(例えば、即座に表示する、周期的に表示する)および告知を表示するためのコンテンツタイプを構成することができる。
ユーザは、通知116と相互作用し、通知116の受入/確認を示し、かつ/または、新しいコンテンツまたはコンテンツストリームを仮想的に表示するための場所(例えば、部屋100の物理的環境内)の選択を開始することができる。ユーザは、種々の方法において特定の場所を選択することができる。場所を選択するための1つのアプローチは、ユーザのモバイルデバイス上に表示されるユーザインターフェースを使用することによる。
図1Bは、例示的モバイルデバイスユーザインターフェース140を図示する。ユーザインターフェース140は、AR環境内に表示されることができる新しいコンテンツアイテムに関する通知(例えば、図1Aに関して上記に説明される通知116)をユーザが受信することに応答して、ユーザのユーザデバイス142上に表示されることができる。
ユーザインターフェース140は、図1Aに関して上記に説明される部屋100の3Dモデル144を含む空間3次元(3D)環境を表示する。3Dモデル144は、部屋100の簡略化された幾何モデルであり得る。例えば、3Dモデル144は、部屋100のデジタル3D平面マップ(例えば、「ミニマップ」)であり得る。
3Dモデル144は、部屋100の静的な事前構築された表現であり得る。別の実施例として、3Dモデル144は、図1Aの頭部搭載型ARシステム101によって発生される情報に基づいて、近リアルタイムで発生されることができる。例えば、頭部搭載型ARシステム101は、3Dモデル144を表示するために、ユーザデバイス142によって使用されることができる3Dモデル情報を発生させ、送信することができる。いくつかの実装では、頭部搭載型ARシステム101は、ユーザの頭部姿勢および/または眼球運動の変化に応答することができ、更新された3Dモデル144がユーザインターフェース140内に表示されることができるように、更新された3Dモデル情報をユーザデバイス142に送信することができる(例えば、更新される3Dモデル144は、ユーザの現在の視点からの部屋100のビューを表す)。
部屋100の簡略化および処理されたビューを提示することができるユーザインターフェース140は、部屋100内の物理的オブジェクトの表現を含むことができる。例えば、ユーザインターフェース400は、それぞれ、椅子106、テーブル108、および本棚110に対応する、椅子オブジェクト146と、テーブルオブジェクト148と、本棚オブジェクト150とを含む。ユーザは、ユーザインターフェース140を、3Dモデル144の特定の面積上に集束させるように、拡大およびパンすることができる。
ユーザデバイス140は、AR環境のためのコントローラ、制御パネル、および/またはナビゲータとして使用されることができる。例えば、ユーザは、仮想コンテンツの設置のためにユーザインターフェース140と相互作用することができる。既存の仮想コンテンツは、オブジェクトまたはアイコンによってユーザインターフェース140内に表されることができる。例えば、図1Aの仮想コンテンツ112は、アイコン152として、ユーザインターフェース140内に表される。ユーザは、アイコン152を選択し、アイコン152をユーザインターフェース140内の別の場所までドラッグすることができる。アイコン152をユーザインターフェース140内の別の場所まで移動させることに応答して、仮想コンテンツ112は、頭部搭載型ARシステム101を使用するユーザによって見られるようなAR環境内の対応する場所においてオーバーレイとして表示されることができる。
いくつかの実装では、ユーザインターフェース140内のオブジェクトのある表面が、コンテンツ設置のための提案される表面として、(ユーザデバイス142または頭部搭載型ARシステム101によって)識別される。例えば、椅子オブジェクト146の椅子の背もたれ154が、椅子106の背もたれがコンテンツのための推奨される場所であることを示すような(例えば、特定の色において)強調される様式において示されることができる。別の実施例として、本棚オブジェクト150の最上位の2列のある棚(例えば、棚156、158、160、および162)が、本棚110の対応する個々の棚がコンテンツの設置に適していることを示すように強調されることができる。本棚110の棚のより低い列は、頭部搭載型ARシステム101が、本棚110の棚のより低い列がユーザにとって現在可視でない(例えば、テーブル108が、より低い棚のビューを遮断し得る)ことを決定し得るため、コンテンツのための提案される場所として識別されない場合がある。一般に、提案される表面は、現在の頭部姿勢または視線に対する視野、表面輪郭、表面質感、表面サイズ、表面上に設置され得るコンテンツのタイプ(例えば、既存コンテンツまたは新しいコンテンツのタイプ)、または、表面が現在仮想コンテンツによって占有されているかどうかを含む種々の要因に基づいて、決定されることができる。
いくつかの実装では、提案される表面は、新しいコンテンツの仮想表示のために適し得る表面として、新しいコンテンツの通知に応答して強調される。例えば、提案される表面は、ユーザに、新しい株価チャートコンテンツアイテムのための場所を選択するように命令する通知164に応答して、ユーザインターフェース内で強調されることができる。通知164は、通知116に対応し、ビュー102内の通知116の表示と連動してまたは通知116とのユーザ相互作用(例えば、通知116の確認)に応答して、ユーザインターフェース140内に自動的に表示されることができる。
ユーザは、通知164に応答して、新しい株価チャートの仮想表示のための場所として、ユーザインターフェース140内で特定のオブジェクトの表面を選択することができる。ユーザは、部屋100内の「空間内に浮動している」場所を表す場所等、3Dモデル144内の提案される表面、いくつかの他の表面、またはいくつかの他の場所を選択することができる。ユーザの指166によって示されるように、ユーザは、本棚110の棚111が新しい株価チャートの仮想表示のための選択された場所であることを示すために、本棚オブジェクト150の棚158を選択する。
本棚オブジェクト150の棚158の選択のインジケーションが、頭部搭載型ARシステム101に伝送されることができる。例えば、棚158の3D情報(例えば、座標、領域識別子等)が、頭部搭載型ARシステム101に送信されることができる。
いくつかの実装では、新しい株価チャートの仮想表示のための場所としての棚158の選択に応答して、新しい株価チャートを表す新しいアイコンが、ユーザインターフェース140内に、棚158の中/上に表示される。いくつかの実装では、通知164の表示に応答して(または通知164の表示と連動して)、新しい株価チャートを表すアイコンが、ユーザインターフェース140内の初期/デフォルト場所において表示される。ユーザは、新しいアイコンを所望の場所まで移動させ、新しい株価チャートのための場所の選択を終了させることができる。初期/デフォルト場所は、例えば、ユーザインターフェース140の中心、最高適合性スコアを有する表面等の特定の提案される表面、または構成されるユーザ選好に基づいて選択される表面または場所であり得る。新しい株価チャートを表す新しいアイコンが表示される場合、新しいアイコンは、少なくともユーザが新しい株価チャートのための場所を終了させるまで、アイコン152と異なる外観(例えば、異なる色、閃光、他の強調)を有することができる。
ユーザインターフェース140は、アイコンを特定の表面まで移動させるとき、アイコンが表面に「スナップ」するように構成されることができる。別の実施例として、ユーザは、「ドラッグ・アンド・ドロップ」動作を使用することによって、アイコンを移動させることができ、いくつかの場合には、ユーザは、ドラッグ・アンド・ドロップ動作が完了した後、最終目的地/場所を確認することができる。
棚158の選択に応答して、通知164が、ユーザインターフェース140から除去されることができる。いくつかの実装では、選択確認告知(例えば、「株価チャート場所が確認されました」、「株価チャートの場所を選択していただきありがとうございました」)が、棚158の選択に応答して表示される。棚158の選択後、3Dモデル144は、ユーザがAR環境との他の相互作用を実施し、新しいコンテンツの将来の通知を受信すること等を可能にするように、ユーザインターフェース140内に表示されたままであることができる。
図1Cは、頭部搭載型ARシステム182が新しいコンテンツアイテムを仮想的に表示する、部屋180の更新された場面を図示する。部屋180は、部屋100に対応し、頭部搭載型ARシステム182の接眼レンズ186を通して見られるビュー184が、新しいコンテンツアイテムを仮想的に表示するための場所の選択に応答して更新されている。例えば、頭部搭載型ARシステム182は、図1Bのユーザインターフェース140内に棚158のユーザ選択を示す情報を受信することができる。
頭部搭載型ARシステム182は、新しい株価チャートコンテンツアイテムのための場所としての棚158のユーザ選択を示す情報を受信することに応答して、本棚190の棚188を、本棚オブジェクト150の棚158に対応するものとして識別することができる。頭部搭載型ARシステム182は、仮想の株価チャートコンテンツアイテム192を棚188の中/上に仮想的に表示することができる。例えば、仮想株価チャートコンテンツアイテム192は、仮想株価チャートコンテンツアイテム192が棚188の上部にオーバーレイとして表示されているようにユーザに見えるように、実質的に現実世界の棚188にわたってレンダリングおよび重畳されることができる。
頭部搭載型ARシステム182は、仮想株価チャートコンテンツアイテム192への棚188の1対1のマッピングを維持することができる。頭部搭載型ARシステム182を使用して、ユーザは、仮想株価チャートコンテンツアイテム192を、マップ/合致された棚188上に出現しているかのように視認することができる。仮想株価チャートコンテンツアイテム192は、投影を通してかつユーザによって知覚されるように、棚188上に物理的に付着されているものとして見えるように表示されることができる。
図2は、モバイルデバイスの統合を含むARシステム200の例示的実装を図示する。頭部搭載型ARシステム202は、物理的現実に対する拡張として知覚されることができる仮想コンテンツをユーザに提示するように構成されることができる。例えば、AR環境発生器204が、ユーザの視野内の物理的オブジェクトと混合されることができる仮想オブジェクトの画像を提供することができる。
頭部搭載型ARシステム202は、新しいコンテンツ通知部206から、新しいコンテンツアイテムが頭部搭載型ARシステム202による仮想表示のために利用可能であることの通知を受信することができる。新しいコンテンツサブスクライバ208が、例えば、新しいコンテンツ通知部206~の通知をサブスクライブおよび受信することができる。別の実施例として、頭部搭載型ARシステム202は、新しいコンテンツがユーザへの仮想表示のために利用可能であることの内部決定を行うことができる。
AR環境発生器204は、頭部搭載型ARシステム202によって新しいコンテンツを表示するために、仮想コンテンツアイテムを発生させることができる。仮想コンテンツアイテムは、デフォルト場所においてユーザに仮想的に見えるように、頭部搭載型ARシステム202によって表示されることができる、または、仮想コンテンツアイテムは、ユーザ選択された場所においてユーザに仮想的に見えるように表示されることができる。頭部搭載型ARシステム202は、通信インターフェース212を使用して、情報をモバイルデバイス210に送信し、ユーザが、モバイルデバイス210を使用して、仮想コンテンツアイテムを仮想的に表示するための、ユーザの環境内の場所を選択することを可能にすることができる。AR環境発生器204は、ユーザの環境についての3D情報を発生させることができ、3D情報は、通信インターフェース212を使用して、モバイルデバイス210に送信されることができる。頭部搭載型ARシステム202はまた、新しいコンテンツアイテムについての情報(例えば、コンテンツの説明)、および、新しいコンテンツアイテムのための場所の選択に関する要求を送信することもできる。
モバイルデバイス210は、通信インターフェース214を使用して、ユーザの環境についての3D情報および新しいコンテンツアイテムついての情報を受信することができる。ARコントローラアプリケーション218の3Dモデルレンダラ216が、ARコントローラアプリケーション218内でユーザの環境の3D表現をレンダリングすることができる。3D表現は、環境内の物理的オブジェクトの表現と、適用可能である場合、ユーザの環境内で頭部搭載型ARシステム202によって現在仮想的に表示されている既存の仮想コンテンツの表現とを含むことができる。
ARコントローラアプリケーション218は、新しいコンテンツアイテムの仮想表示のための場所を選択するための命令をユーザに表示することができる。コンテンツ場所セレクタ220が、ユーザが、新しいコンテンツアイテムの仮想表示のための場所に対応するものとして、ユーザの環境の3D表現上の場所を選択することを可能にすることができる。場所は、ユーザの環境内の物理的オブジェクトに対応するレンダリングされたオブジェクトの表面であり得る、または、場所は、物理的オブジェクトに対応する場合と対応しない場合とがある3D座標であり得る。
ARコントローラアプリケーション218は、通信インターフェース214を使用して、新しいコンテンツアイテムの選択された場所のための場所情報を頭部搭載型ARシステム202に送信することができる。場所情報は、3D座標、領域情報、オブジェクト情報、または他のタイプの情報または識別子であり得る。AR環境発生器204は、仮想コンテンツアイテムが、ユーザに、モバイルデバイス210から受信される場所情報に対応するユーザの物理的環境内の場所に位置しているように見えるように、仮想コンテンツアイテムを提示または投影することができる。
図3は、ARシステム内にコンテンツを表示するための方法300のフローチャートを描写する。拡張現実システム内に表示するための新しいコンテンツの可用性に関する通知が、受信される(310)。拡張現実システムは、コンテンツがユーザの物理的環境内の割当場所において添着されているようにユーザに見えるように、ディスプレイシステム上にコンテンツを提示するように構成される。通知は、拡張現実システムの外部にある外部ソースから受信されることができる。別の実施例として、通知は、新しいコンテンツが利用可能であるという拡張現実システムによる内部決定の結果として受信されることができる。通知は、ディスプレイシステム上に表示されることができる。
新しいコンテンツの受入を示す確認入力が、受信される(320)。確認入力は、通知、音声コマンド、またはいくつかの他のタイプの入力との相互作用であり得る。通知は、確認入力を受信することに応答して、ディスプレイシステムから除去されることができる。
確認入力を受信することに応答して、物理的環境を説明する3次元情報が、拡張現実システムの外部にある外部コンピューティングデバイスに提供される(330)。3次元情報は、外部コンピューティングデバイスが、新しいコンテンツのための物理的環境内の割当場所を選択するために使用されることを可能にするために、提供されることができる。外部コンピューティングデバイスは、モバイルデバイスまたはいくつかの他のタイプのコンピューティングデバイスであり得る。
3次元情報は、新しいコンテンツのための候補割当場所に関する3次元情報を含むことができる。候補割当場所は、新しいコンテンツの表示をオーバーレイすることに適していると決定される場所であり得る。候補割当場所は、物理的環境内の物理的表面に対応することができる。3次元情報は、ディスプレイシステム上に現在表示されている既存のコンテンツの割当場所を含むことができる。
3次元表現は、物理的環境の静的表現に対応することができる。別の実施例として、3次元情報は、ディスプレイシステムを通して見られるような、ユーザの現在の視点に対応することができる。更新された3次元情報が、ユーザ視点の変化の検出に応答して、発生され、外部コンピューティングデバイスに提供されることができる。
新しいコンテンツのための物理的環境内の割当場所を示す場所情報が、外部コンピューティングデバイスから受信される(340)。場所情報は、3D座標、領域識別子(単数または複数)、オブジェクト識別子、またはいくつかの他のタイプの場所情報であり得る。場所情報は、外部コンピューティングデバイス上に表示される、ユーザが物理的環境の3次元表現上で選択する場所に対応することができる。
表示場所が、場所情報に基づいて決定される(350)。表示場所は、新しいコンテンツが物理的環境内の割当場所においてオーバーレイとして表示されているようにユーザに見えるように新しいコンテンツを表示するための、ディスプレイシステム上の場所である。
新しいコンテンツが、ディスプレイシステム上に、表示場所において表示される(360)。
加えて、または、代替として、第1の既存のコンテンツアイテムのための更新された割当場所が、外部コンピューティングデバイスから受信されることができる。ディスプレイシステム上の更新された表示場所が、更新された割当場所に基づいて決定されることができる。第1の既存のコンテンツアイテムは、第1の既存のコンテンツアイテムが物理的環境内の更新された割当場所において更新されたオーバーレイとして表示されているようにユーザに見えるように、ディスプレイシステム上に、更新された表示場所において表示されることができる。
説明されるシステム、方法、および技法は、デジタル電子回路網、コンピュータハードウェア、ファームウェア、ソフトウェア内に、またはこれらの要素の組み合わせにおいて実装されてもよい。これらの技法を実装する装置は、適切な入力および出力デバイスと、コンピュータプロセッサと、プログラマブルプロセッサによる実行のために機械可読記憶デバイス内に有形に具現化されるコンピュータプログラム製品とを含んでもよい。これらの技法を実装するプロセスが、命令のプログラムを実行するプログラマブルプロセッサによって実施され、入力データに作用して適切な出力を発生させることによって所望の機能を実施してもよい。技法は、データ記憶システム、少なくとも1つの入力デバイス、および少なくとも1つの出力デバイスからデータおよび命令を受信してそれらにデータおよび命令を伝送するために結合される少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行可能である命令を含む1つ以上のコンピュータプログラムまたは非一過性コンピュータ可読記憶媒体を使用して、実装されてもよい。
各コンピュータプログラムは、所望される場合、高次プロシージャまたはオブジェクト指向プログラミング言語内、あるいは、アセンブリまたは機械言語において実装されてもよく、いずれの場合においても、言語は、コンパイラ型言語またはインタープリタ型言語であってもよい。適したプロセッサは、実施例として、汎用目的マイクロプロセッサおよび特殊目的マイクロプロセッサの両方を含む。概して、プロセッサは、読取専用メモリおよび/またはランダムアクセスメモリから命令およびデータを受信する。コンピュータプログラム命令およびデータを有形に具現化することに適した記憶デバイスは、実施例として、半導体メモリデバイス(例えば、消去可能プログラマブル読取専用メモリ(EPROM)、電気的に消去可能プログラマブル読取専用メモリ(EEPROM)、およびフラッシュメモリデバイス)、磁気ディスク(例えば、内部ハードディスクおよびリムーバブルディスク)、光磁気ディスク、およびコンパクトディスク読取専用メモリ(CD-ROM)を含む、あらゆる形態の不揮発性メモリを含む。前述のもののいずれも、特別に設計されたASIC(特定用途向け集積回路)によって補完され得る、または、その中に組み込まれ得る。
コンピュータ可読媒体は、機械可読記憶デバイス、機械可読ストレージ基板、メモリデバイス、機械可読伝搬信号をもたらす組成物、またはそれらのうちの1つ以上のものの組み合わせであってもよい。用語「データ処理装置」は、実施例として、プログラマブルプロセッサ、コンピュータ、または複数のプロセッサあるいはコンピュータを含む、データを処理するための全ての装置、デバイス、および機械を包含する。本装置は、ハードウェアに加えて、当該コンピュータプログラムのための実行環境を生成するコード(例えば、プロセッサファームウエア、プロトコルスタック、データベース管理システム、オペレーティングシステム、またはそれらのうちの1つ以上のものの組み合わせを成すコード)を含んでもよい。伝搬される信号は、人工的に発生される信号(例えば、適した受信機装置への伝送のための情報をエンコードするように発生される機械発生型電気、光学、または電磁信号)である。
プログラム、ソフトウェア、ソフトウェアアプリケーション、スクリプト、プラグイン、またはコードとしても公知であるコンピュータプログラムは、コンパイラ型言語またはインタープリタ型言語を含む任意の形態のプログラミング言語において記述されてもよく、これは、独立型プログラムとしてのもの、または、コンピュータ環境内での使用に適したモジュール、コンポーネント、サブルーチン、または他のユニットとしてのものを含む任意の形態において展開されてもよい。コンピュータプログラムは、必ずしもファイルシステム内のファイルに対応するわけではない。プログラムが、他のプログラムまたはデータを保持するファイルの一部内に、当該プログラム専用の単一のファイル内に、または、複数の協調的ファイル内に記憶されてもよい。コンピュータプログラムが、1つのコンピュータ上で、あるいは、1つの敷地に位置する、または複数の敷地を横断して分散されて通信ネットワークによって相互接続される複数のコンピュータ上で、実行されてもよい。
本明細書に説明されるプロセスおよび論理フローは、入力データに作用して出力を発生させることによってアクションを実施するように、1つ以上のコンピュータプログラムを実行する1つ以上のプログラマブルプロセッサによって、実施され得る。プロセスおよび論理フローはまた、特殊目的論理回路網(例えば、FPGA(フィールドプログラマブルゲートアレイ)またはASIC(特定用途向け集積回路))によって実施され得、装置もまた、特殊目的論理回路網として実装され得る。
コンピュータプログラムの実行に適したプロセッサは、実施例として、汎用目的マイクロプロセッサおよび特殊目的マイクロプロセッサの両方と、任意の種類のデジタルコンピュータの任意の1つ以上のプロセッサとを含む。概して、プロセッサは、読取専用メモリまたはランダムアクセスメモリあるいは両方から命令およびデータを受信する。
コンピュータの要素は、命令を実施するためのプロセッサと、命令およびデータを記憶するための1つ以上のメモリデバイスとを含んでもよい。概して、コンピュータはまた、データを受信する、またはデータを伝達する、あるいは両方のために、データを記憶するための1つ以上の大容量記憶デバイス(例えば、磁気、光磁気ディスク、または光ディスク)を含む、または、それに動作可能に結合される。しかしながら、コンピュータは、そのようなデバイスを有していなくてもよい。また、コンピュータは、別のデバイス(例えば、いくつかのみを挙げると、タブレット型コンピュータ、携帯電話、携帯情報端末(PDA)、モバイルオーディオプレーヤ、VARシステム)内に埋設されてもよい。コンピュータプログラム命令およびデータを記憶することに適したコンピュータ可読媒体は、実施例として、半導体メモリデバイス(例えば、EPROM、EEPROM、およびフラッシュメモリデバイス)、磁気ディスク(例えば、内部ハードディスクまたはリムーバブルディス)光磁気ディスク、およびCD ROMならびにDVD-ROMディスクを含むあらゆる形態の不揮発性メモリ、媒体、およびメモリデバイスを含む。プロセッサおよびメモリは、特殊目的論理回路網によって補完され得る、または、特殊目的論理回路網の中に組み込まれ得る。
本明細書は、多くの詳細を含有するが、これらは、本開示または請求され得るものの範囲に関する限定としてではなく、むしろ、特定の実施形態に特有の特徴の説明として解釈されるべきである。別個の実施形態の文脈において本明細書に説明されるある特徴はまた、単一の実施形態における組み合わせにおいて実装され得る。逆に、単一の実施形態の文脈において説明される種々の特徴もまた、複数の実施形態において別個にまたは任意の適した副次的組み合わせにおいて実装され得る。また、ある組み合わせにおいて作用するものとして特徴が上記に説明され、さらに、そのようなものとして請求され得るが、請求される組み合わせからの1つ以上の特徴は、いくつかの場合では、その組み合わせから削除され得、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。例えば、マッピング動作は、一連の離散動作として説明されるが、種々の動作が、所望の実装に応じて、付加的な動作に分割され得る、より少ない動作に組み合わせられ得る、実行の順序において変動され得る、または、排除され得る。
同様に、上記で説明される実施形態における種々のシステムコンポーネントの分離は、全ての実施形態においてそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムが、概して、単一のソフトウェア製品内でともに統合され得るまたは複数のソフトウェア製品にパッケージ化され得ることを理解されたい。例えば、いくつかの動作が、処理サーバによって実施されているものとして説明されるが、動作のうちの1つ以上のものが、スマートメータまたは他のネットワークコンポーネントによって実施されてもよい。
本明細書、特に添付の請求項(例えば、添付の請求項の本文)において使用される用語は、概して、「非限定的」用語として意図される(例えば、用語「~を含む(including)」は、「限定ではないが、~を含む(including but not limited to)」として解釈されるべきであり、用語「~を有する(having)」は、「少なくとも~を有する(having at least)」として解釈されるべきであり、用語「~を含む(includes)」は、「限定ではないが、~を含む(includes but is not limited to)」として解釈されるべきである等)。
加えて、具体的な数の導入される請求項列挙が、意図される場合、そのような意図は、請求項内に明示的に列挙され、そのような列挙の不在下では、いかなるそのような意図も、存在しない。例えば、理解の一助として、以下の添付される請求項は、請求項列挙を導入するための導入語句「少なくとも1つ」および「1つ以上の」の使用を含有し得る。しかしながら、そのような語句の使用は、同一の請求項が導入語句「1つ以上の」または「少なくとも1つ」および「a」または「an」等の不定冠詞(例えば、「a」および/または「an」は、「少なくとも1つ」または「1つ以上の」を意味するように解釈されるべきである)を含むときでさえ、不定冠詞「a」または「an」による請求項列挙の導入が、そのような導入される請求項列挙を含有する任意の特定の請求項を、1つのそのような列挙のみを含有する実施形態に限定することを含意するように解釈されるべきではなく、同じことが、請求項列挙を導入するために使用される定冠詞の使用にも当てはまる。
加えて、具体的な数の導入される請求項列挙が明示的に列挙される場合でさえ、当業者は、そのような列挙が少なくとも列挙される数を意味する(例えば、他の修飾語句を伴わない「2つの列挙」のそのままの列挙が少なくとも2つの列挙または2つ以上の列挙を意味する)ように解釈されるべきであることを認識する。さらに、「A、B、およびC等のうちの少なくとも1つ」または「A、B、およびC等のうちの1つ以上のもの」に類似する表記法が使用されるそれらの事例では、一般に、そのような構造は、「Aを単独で」、「Bを単独で」、「Cを単独で」、「AとBとをともに」、「AとCとをともに」、「BとCとをともに」、または「AとBとCとをともに」を含むことを意図する。用語「および/または」もまた、このように解釈されることを意図する。
用語「第1」、「第2」、「第3」等の使用は、本明細書においては、必ずしも要素の具体的順序または数を暗示するために使用されるものではない。概して、用語「第1」、「第2」、「第3」等は、一般的な識別子として、異なる要素を区別するために使用される。用語「第1」、「第2」、「第3」等が、具体的な順序を暗示することを示すものがない状態では、これらの用語は、具体的順序を暗示すると理解されるべきではない。さらに、用語「第1」、「第2」、「第3」等が、要素の具体的な数を暗示することを示すものがない状態では、これらの用語は、要素の具体的な数を暗示するものと理解されるべきではない。例えば、第1のウィジェットは、第1の側を有するものとして説明され得、第2のウィジェットは、第2の側を有するものとして説明され得る。第2のウィジェットに対する用語「第2の側」の使用は、第2のウィジェットのそのような側を第1のウィジェットの「第1の側」から区別するためのものであり、第2のウィジェットが2つの側を有することを暗示するものではない場合がある。

Claims (20)

  1. コンピュータ実装方法であって、
    拡張現実システム内に表示するための新しいコンテンツの可用性に関する通知を受信することであって、前記拡張現実システムは、コンテンツがユーザの物理的環境内の割当場所において添着されているように前記ユーザに見えるように、ディスプレイシステム上に前記コンテンツを提示するように構成される、ことと、
    前記新しいコンテンツの受入を示す確認入力を受信することと、
    前記確認入力を受信することに応答して、前記拡張現実システムの外部にある外部コンピューティングデバイスに、前記物理的環境を説明する3次元情報を提供し、前記外部コンピューティングデバイスが前記新しいコンテンツのための前記物理的環境内の割当場所を選択するために使用されることを可能にすることと、
    前記外部コンピューティングデバイスから、前記新しいコンテンツのための前記物理的環境内の前記割当場所を示す場所情報を受信することと、
    前記場所情報に基づいて、前記新しいコンテンツが前記物理的環境内の前記割当場所においてオーバーレイとして表示されているように前記ユーザに見えるように、前記新しいコンテンツを表示するための前記ディスプレイシステム上の表示場所を決定することと、
    前記ディスプレイシステム上に、前記表示場所において前記新しいコンテンツを表示することと
    を含む、コンピュータ実装方法。
  2. 前記外部コンピューティングデバイスは、モバイルデバイスである、請求項1に記載のコンピュータ実装方法。
  3. 前記通知は、前記拡張現実システムの外部にある外部ソースから受信される、請求項1に記載のコンピュータ実装方法。
  4. 前記通知は、新しいコンテンツが利用可能であるという、前記拡張現実システムによる内部決定の結果として受信される、請求項1に記載のコンピュータ実装方法。
  5. 前記ディスプレイシステム上に前記通知を表示することをさらに含む、請求項1に記載のコンピュータ実装方法。
  6. 前記確認入力を受信することに応答して、前記ディスプレイシステムから前記通知を除去することをさらに含む、請求項5に記載のコンピュータ実装方法。
  7. 前記新しいコンテンツのための前記物理的環境内の候補割当場所を決定することをさらに含み、
    前記外部コンピューティングデバイスに提供される前記3次元情報は、前記候補割当場所のための3次元情報を含む、請求項1に記載のコンピュータ実装方法。
  8. 前記3次元情報を決定することは、
    前記ディスプレイシステムを通して見られるような前記ユーザの現在の視点を決定することと、
    前記現在の視点に基づいて前記3次元情報を発生させることと
    を含む、請求項1に記載のコンピュータ実装方法。
  9. 前記ユーザの前記現在の視点が新しい視点に変化していることを決定することと、
    前記新しい視点に基づいて、更新された3次元情報を決定することと、
    前記更新された3次元情報を前記外部コンピューティングデバイスに提供することと
    をさらに含む、請求項8に記載のコンピュータ実装方法。
  10. 前記3次元情報は、前記ユーザの前記物理的環境の静的表現に対応する、請求項1に記載のコンピュータ実装方法。
  11. 前記ディスプレイシステムによって現在表示されている既存のコンテンツを決定することと、
    前記既存のコンテンツのための割当場所を決定することと
    をさらに含み、
    前記外部コンピューティングデバイスに提供される前記3次元情報は、前記既存のコンテンツのための割当場所情報を含む、請求項1に記載のコンピュータ実装方法。
  12. 前記外部コンピューティングデバイスから、第1の既存のコンテンツアイテムのための更新された割当場所を受信することと、
    前記更新された割当場所に基づいて、前記第1の既存のコンテンツアイテムが前記物理的環境内の前記更新された割当場所において更新されたオーバーレイとして表示されているように前記ユーザに見えるように、前記第1の既存のコンテンツアイテムを表示するための前記ディスプレイシステム上の更新された表示場所を決定することと、
    前記ディスプレイシステム上に、前記更新された表示場所において前記第1の既存のコンテンツアイテムを表示することと
    をさらに含む、請求項11に記載のコンピュータ実装方法。
  13. 拡張現実システムであって、
    コンテンツがユーザの物理的環境内の割当場所において添着されているように前記ユーザに見えるように、前記コンテンツを表示するように構成されるディスプレイシステムを備えるフレーム構造物と、
    前記フレーム構造物に結合されるプロセッサであって、前記プロセッサは、
    前記ディスプレイシステム上に表示するための新しいコンテンツの可用性に関する通知を受信することと、
    前記新しいコンテンツの受入を示す確認入力を受信することと、
    前記確認入力を受信することに応答して、前記拡張現実システムの外部にある外部コンピューティングデバイスに、前記物理的環境を説明する3次元情報を提供し、前記外部コンピューティングデバイスが前記新しいコンテンツのための前記物理的環境内の割当場所を選択するために使用されることを可能にすることと、
    前記外部コンピューティングデバイスから、前記新しいコンテンツのための前記物理的環境内の前記割当場所を示す場所情報を受信することと、
    前記場所情報に基づいて、前記新しいコンテンツが前記物理的環境内の前記割当場所においてオーバーレイとして表示されているように前記ユーザに見えるように、前記新しいコンテンツを表示するための前記ディスプレイシステム上の表示場所を決定することと、
    前記ディスプレイシステム上に、前記表示場所において前記新しいコンテンツを表示することと
    を行うように構成される、プロセッサと
    を備える、拡張現実システム。
  14. 前記外部コンピューティングデバイスは、モバイルデバイスである、請求項13に記載の拡張現実システム。
  15. 前記通知は、前記拡張現実システムの外部にある外部ソースから受信される、請求項13に記載の拡張現実システム。
  16. 前記通知は、新しいコンテンツが利用可能であるという、前記拡張現実システムによる内部決定の結果として受信される、請求項13に記載の拡張現実システム。
  17. 命令を備える非一過性コンピュータ可読記憶媒体であって、前記命令は、1つ以上のコンピュータプロセッサによって実行されると、前記1つ以上のコンピュータプロセッサに、
    拡張現実システム内に表示するための新しいコンテンツの可用性に関する通知を受信することであって、前記拡張現実システムは、コンテンツがユーザの物理的環境内の割当場所において添着されているように前記ユーザに見えるように、ディスプレイシステム上に前記コンテンツを提示するように構成される、ことと、
    前記新しいコンテンツの受入を示す、確認入力を受信することと、
    前記確認入力を受信することに応答して、前記拡張現実システムの外部にある外部コンピューティングデバイスに、前記物理的環境を説明する3次元情報を提供し、前記外部コンピューティングデバイスが前記新しいコンテンツのための前記物理的環境内の割当場所を選択するために使用されることを可能にすることと、
    前記外部コンピューティングデバイスから、前記新しいコンテンツのための前記物理的環境内の前記割当場所を示す場所情報を受信することと、
    前記場所情報に基づいて、前記新しいコンテンツが前記物理的環境内の前記割当場所においてオーバーレイとして表示されているように前記ユーザに見えるように、前記新しいコンテンツを表示するための前記ディスプレイシステム上の表示場所を決定することと、
    前記ディスプレイシステム上に、前記表示場所において前記新しいコンテンツを表示することと
    を含む動作を実施させる、非一過性コンピュータ可読記憶媒体。
  18. 前記外部コンピューティングデバイスは、モバイルデバイスである、請求項17に記載の非一過性コンピュータ可読記憶媒体。
  19. 前記通知は、前記拡張現実システムの外部にある外部ソースから受信される、請求項17に記載の非一過性コンピュータ可読記憶媒体。
  20. 前記通知は、新しいコンテンツが利用可能であるという、前記拡張現実システムによる内部決定の結果として受信される、請求項17に記載の非一過性コンピュータ可読記憶媒体。
JP2021576036A 2019-06-24 2020-06-23 仮想コンテンツのための仮想場所の選択 Pending JP2022539313A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962865756P 2019-06-24 2019-06-24
US62/865,756 2019-06-24
PCT/US2020/039151 WO2020263838A1 (en) 2019-06-24 2020-06-23 Virtual location selection for virtual content

Publications (1)

Publication Number Publication Date
JP2022539313A true JP2022539313A (ja) 2022-09-08

Family

ID=74038971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021576036A Pending JP2022539313A (ja) 2019-06-24 2020-06-23 仮想コンテンツのための仮想場所の選択

Country Status (5)

Country Link
US (3) US11094133B2 (ja)
EP (1) EP3987385A4 (ja)
JP (1) JP2022539313A (ja)
CN (1) CN114072752A (ja)
WO (1) WO2020263838A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020263838A1 (en) * 2019-06-24 2020-12-30 Magic Leap, Inc. Virtual location selection for virtual content
EP4111696A1 (en) * 2020-02-28 2023-01-04 Google LLC System and method for playback of augmented reality content triggered by image recognition
EP4339873A4 (en) 2021-11-09 2024-05-01 Samsung Electronics Co., Ltd. METHOD AND APPARATUS FOR PROVIDING CONTENT RELATED TO AN AUGMENTED REALITY SERVICE BETWEEN AN ELECTRONIC DEVICE AND A PORTABLE ELECTRONIC DEVICE
US11682180B1 (en) * 2021-12-09 2023-06-20 Qualcomm Incorporated Anchoring virtual content to physical surfaces

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US9658473B2 (en) 2005-10-07 2017-05-23 Percept Technologies Inc Enhanced optical and perceptual digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US9128281B2 (en) * 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
KR20130136566A (ko) * 2011-03-29 2013-12-12 퀄컴 인코포레이티드 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들
US9288164B2 (en) * 2013-06-07 2016-03-15 Apple Inc. Managing notifications across multiple devices
US20150193982A1 (en) * 2014-01-03 2015-07-09 Google Inc. Augmented reality overlays using position and orientation to facilitate interactions between electronic devices
US10852838B2 (en) * 2014-06-14 2020-12-01 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US20160133230A1 (en) * 2014-11-11 2016-05-12 Bent Image Lab, Llc Real-time shared augmented reality experience
US10332317B2 (en) * 2016-10-25 2019-06-25 Microsoft Technology Licensing, Llc Virtual reality and cross-device experiences
US10895966B2 (en) * 2017-06-30 2021-01-19 Microsoft Technology Licensing, Llc Selection using a multi-device mixed interactivity system
US10304239B2 (en) 2017-07-20 2019-05-28 Qualcomm Incorporated Extended reality virtual assistant
WO2020263838A1 (en) * 2019-06-24 2020-12-30 Magic Leap, Inc. Virtual location selection for virtual content

Also Published As

Publication number Publication date
US11094133B2 (en) 2021-08-17
CN114072752A (zh) 2022-02-18
US20200402316A1 (en) 2020-12-24
US20240096037A1 (en) 2024-03-21
EP3987385A4 (en) 2022-09-14
US11861796B2 (en) 2024-01-02
EP3987385A1 (en) 2022-04-27
US20210390787A1 (en) 2021-12-16
WO2020263838A1 (en) 2020-12-30

Similar Documents

Publication Publication Date Title
JP2022539313A (ja) 仮想コンテンツのための仮想場所の選択
US10726637B2 (en) Virtual reality and cross-device experiences
US20220283632A1 (en) Iinformation processing apparatus, image generation method, and computer program
KR20220035380A (ko) 증강 현실 장면들을 위한 시스템 및 방법
US10540918B2 (en) Multi-window smart content rendering and optimizing method and projection method based on cave system
US20240040211A1 (en) Methods, Systems, and Media For Presenting Interactive Elements Within Video Content
JP6670361B2 (ja) レンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェース、および/またはレンダリングする音響オブジェクトをユーザが選択するためのユーザインタフェースをレンダリングする方法
WO2007123009A1 (ja) 画像閲覧装置、コンピュータの制御方法及び情報記憶媒体
JP7392105B2 (ja) 没入型ビデオコンテンツをフォービエイテッドメッシュを用いてレンダリングするための方法、システム、および媒体
WO2022218146A1 (en) Devices, methods, systems, and media for an extended screen distributed user interface in augmented reality
JP6757404B2 (ja) シースルー・グラス用の補助アイテム選択
JP2015005902A (ja) 情報処理装置、情報処理方法、及びプログラム
CN110709839A (zh) 用于呈现媒体内容预览的方法、系统和介质
US10990251B1 (en) Smart augmented reality selector
WO2024088375A1 (zh) 一种弹幕呈现方法、装置、设备和存储介质
US20220343588A1 (en) Method and electronic device for selective magnification in three dimensional rendering systems
US20210224525A1 (en) Hybrid display system with multiple types of display devices
EP4274238A1 (en) Display of video content
US20200302761A1 (en) Indicator modes
AU2018279783B2 (en) Systems and methods for displaying and interacting with a dynamic real-world environment
CN110874656B (zh) 用于选择座位的方法、终端设备、存储介质及处理器
US20210263636A1 (en) An apparatus, method, computer program for enabling access to mediated reality content by a remote user
WO2014093917A2 (en) Contact environments with dynamically created option groups and associated command options
JP2023002032A (ja) 表示制御装置、表示制御方法および表示制御プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240527

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240618