JP2022542295A - コンピューティングデバイスとエクステンデッドリアリティとの統合 - Google Patents

コンピューティングデバイスとエクステンデッドリアリティとの統合 Download PDF

Info

Publication number
JP2022542295A
JP2022542295A JP2022505614A JP2022505614A JP2022542295A JP 2022542295 A JP2022542295 A JP 2022542295A JP 2022505614 A JP2022505614 A JP 2022505614A JP 2022505614 A JP2022505614 A JP 2022505614A JP 2022542295 A JP2022542295 A JP 2022542295A
Authority
JP
Japan
Prior art keywords
content
displayed
composite representation
display
virtual reality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022505614A
Other languages
English (en)
Other versions
JPWO2021025787A5 (ja
Inventor
ブレムス、ダグラス
ターツ、ロバート
オリバー、ロビン・テレサ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2022542295A publication Critical patent/JP2022542295A/ja
Publication of JPWO2021025787A5 publication Critical patent/JPWO2021025787A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Abstract

モバイルデバイスとエクステンデッドリアリティエクスペリエンスとを統合するための技法が提供される。エクステンデッドリアリティ技術は、仮想現実(VR)、拡張現実(AR)、複合現実(MR)などを含むことができる。いくつかの例では、デバイス(たとえば、モバイルフォンなどのモバイルデバイス、または他のタイプのデバイス)の合成(または仮想)表現が生成され、VRデバイス(たとえば、ヘッドマウントディスプレイ(HMD))によって表示されているVRコンテンツとともに表示され得る。別の例では、デバイスからのコンテンツ(たとえば、デバイスによって表示されている視覚コンテンツおよび/または再生されているオーディオコンテンツ)が、VRデバイスによって表示されているVRコンテンツとともに出力され得る。別の例では、デバイスのカメラによってキャプチャされた1つまたは複数の画像、および/またはデバイスのマイクロフォンによって取得されたオーディオが、仮想現実デバイスによってデバイスから取得され得、仮想現実デバイスによって出力され得る。

Description

[0001] 本開示は、一般に、コンピューティングデバイス(computing device)とエクステンデッドリアリティエクスペリエンス(extended reality experience)との統合(integration)を提供するための技法およびシステムに関する。
[0002] エクステンデッドリアリティ技術(Extended reality technology)は、エクステンデッドリアリティエクスペリエンスをユーザに提供するために、ユーザに仮想コンテンツ(virtual content)を提示するために使用され得、および/または、物理世界からの実環境と仮想環境とを組み合わせることができる。エクステンデッドリアリティ(extended reality)という用語は、仮想現実(virtual reality)、拡張現実(augmented reality)、複合現実(mixed reality)などを包含することができる。エクステンデッドリアリティのこれらの形態の各々は、ユーザが、没入型の仮想環境またはコンテンツ(immersive virtual environments or content)を経験するか、あるいはそれと対話することを可能にする。たとえば、エクステンデッドリアリティエクスペリエンスは、ユーザが、仮想コンテンツで向上または拡張された実環境または物理的環境と対話することを可能にすることができる。エクステンデッドリアリティ技術は、エンターテインメント、ヘルスケア、小売、教育、ソーシャルメディアなど、広範囲のコンテキストにおいてユーザエクスペリエンス(user experience)を向上させるために実装され得る。
[0003] いくつかの例では、コンピューティングデバイスとエクステンデッドリアリティエクスペリエンスとを統合するためのシステム、方法、およびコンピュータ可読媒体が説明される。たとえば、本明細書で説明される技法は、エクステンデッドリアリティエクスペリエンスを享受するユーザが、エクステンデッドリアリティエクスペリエンスを中断することなしに、コンピューティングデバイス(たとえば、モバイルフォン(mobile phone)などのモバイルデバイス(mobile device)、ウェアラブルデバイス、または他のタイプのデバイス)またはコンピューティングデバイスの1つまたは複数の機能(functionality)をシームレスに使用することを可能にすることができる。
[0004] 1つの例示的な例では、ユーザのコンピューティングデバイス(たとえば、モバイルフォンなどのモバイルデバイス、ウェアラブルデバイス、または他のタイプのデバイス)の合成(synthetic)(または仮想)表現が生成され、仮想現実デバイス(virtual reality device)(たとえば、ヘッドマウントディスプレイ(HMD:head-mounted display)によって表示されている仮想現実コンテンツとともに表示され得る。別の例では、コンピューティングデバイスからのコンテンツ(content)(たとえば、デバイスによって表示されているコンテンツ、コンピューティングデバイスによって受信されたメッセージ、コンピューティングデバイスによって生成された通知、および/または他のコンテンツ)が、仮想現実デバイスによって表示されている仮想現実コンテンツとともに表示され得る。別の例では、コンピューティングデバイスからのオーディオコンテンツ(audio content)(たとえば、ボイスメッセージ、ビデオメッセージ、ブラウザコンテンツ、通話、ストリーミングされたまたはローカルに記憶された音楽、および/あるいは他のオーディオコンテンツ)が、(たとえば、仮想現実デバイスの1つまたは複数のスピーカーを通して)仮想現実デバイスによって再生され得る。いくつかの場合には、オーディオコンテンツは、コンピューティングデバイスからの視覚コンテンツ(visual content)を表示する間、仮想現実デバイスによって再生され得る。そのような例では、ユーザは、仮想現実コンテンツとともにコンピューティングデバイスおよび/またはコンピューティングデバイスからのコンテンツを閲覧することができ、ユーザが、仮想現実デバイスを取り外すことなしに(たとえば、依然としてHMDを装着しながら)、コンピューティングデバイスと対話する(たとえば、モバイルフォンの1つまたは複数のアプリケーションを制御する)ことを可能にする。仮想現実コンテンツは、コンピューティングデバイスの合成表現(synthetic representation)が表示されるとき、仮想現実デバイスによって表示され続けることができ、または、コンピューティングデバイスの合成表現が仮想現実デバイスによって表示される間、休止され得る。
[0005] 別の例示的な例では、コンピューティングデバイス(たとえば、モバイルフォンなどのモバイルデバイス、ウェアラブルデバイス、または他のタイプのデバイス)のカメラ(camera)によってキャプチャ(capture)された1つまたは複数の画像(image)が、仮想現実デバイスによってデバイスから取得され得る。仮想現実デバイスは、仮想現実デバイス(たとえば、HMD)を通して閲覧されている仮想現実コンテンツとともに、1つまたは複数の画像を表示することができる。そのような例では、ユーザは、仮想現実デバイスを取り外すことなしに(たとえば、依然としてHMDを装着しながら)、(1つまたは複数の画像によってキャプチャされた)現実世界(real world)を閲覧することができる。いくつかの場合には、コンピューティングデバイスのマイクロフォン(microphone)からのオーディオ(audio)が、仮想現実デバイスに提供され得る。たとえば、コンピューティングデバイスのマイクロフォンからのオーディオを提供することは、ユーザが、仮想現実デバイスを取り外す必要なしに、現実世界において何が進行しているかを知覚することを可能にすることができる。
[0006] 1つの例示的な例によれば、1つまたは複数のオブジェクトの1つまたは複数のサイズを決定する方法が提供される。本方法は、第1のデバイス(first device)によって、仮想現実コンテンツを表示することと、第1のデバイスによって、第2のデバイス(second device)の合成表現を取得することと、第1のデバイスによって、仮想現実コンテンツとともに第2のデバイスの合成表現を表示することと、第1のデバイスによって、第2のデバイスの機能の変更(a change in functionality)を要求する入力(input)を受信することと、第1のデバイスによって受信された入力に基づいて、第2のデバイスの合成表現の変更を表示することと、第2のデバイスの合成表現の変更が、第2のデバイスの機能の変更を表現する、を含む。
[0007] 別の例では、1つまたは複数のオブジェクトの1つまたは複数のサイズを決定するための装置(apparatus)が提供され、本装置は、1つまたは複数の画像を記憶するように構成されたメモリ(memory)と、回路(circuitry)において実装され、メモリに結合された1つまたは複数のプロセッサ(processor)とを含む。1つまたは複数のプロセッサは、仮想現実コンテンツをディスプレイ(display)上に表示させることと、デバイスの合成表現を取得することと、デバイスの合成表現をディスプレイ上に仮想現実コンテンツとともに表示させることと、デバイスの機能の変更を要求する入力を受信することと、受信された入力に基づいて、デバイスの合成表現の変更をディスプレイ上に表示させることと、デバイスの合成表現の変更が、デバイスの機能の変更を表現する、を行うように構成され、それらを行うことができる。
[0008] 別の例では、命令(instruction)を記憶した非一時的コンピュータ可読媒体が提供され、命令は、1つまたは複数のプロセッサによって実行されたとき、1つまたは複数のプロセッサに、仮想現実コンテンツを第1のデバイスによって表示させることと、第1のデバイスによって、第2のデバイスの合成表現を取得することと、第2のデバイスの合成表現を仮想現実コンテンツとともに表示させることと、第1のデバイスによって、第2のデバイスの機能の変更を要求する入力を受信することと、第1のデバイスによって受信された入力に基づいて、第2のデバイスの合成表現の変更を第1のデバイスによって表示させることと、第2のデバイスの合成表現の変更が、第2のデバイスの機能の変更を表現する、を行わせる。
[0009] 別の例では、1つまたは複数のオブジェクトの1つまたは複数のサイズを決定するための装置が提供される。本装置は、第1のデバイスによって、仮想現実コンテンツを表示するための手段と、第1のデバイスによって、第2のデバイスの合成表現を取得するための手段と、第1のデバイスによって、仮想現実コンテンツとともに第2のデバイスの合成表現を表示するための手段と、第1のデバイスによって、第2のデバイスの機能の変更を要求する入力を受信するための手段と、第1のデバイスによって受信された入力に基づいて、第2のデバイスの合成表現の変更を表示するための手段と、第2のデバイスの合成表現の変更が、第2のデバイスの機能の変更を表現する、を含む。
[0010] いくつかの態様では、第2のデバイスの合成表現は、第2のデバイスのディスプレイの合成表現を含み、ここにおいて、第2のデバイスによって表示されるコンテンツが、第2のデバイスのディスプレイの合成表現において表示される。
[0011] いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、第1のデバイスによって、第2のデバイスによって処理された1つまたは複数の入力の指示(indication)を受信することと、第2のデバイスによって処理された1つまたは複数の入力の指示に基づいて、第2のデバイスの合成表現の追加の変更(additional change)を表示することと、第2のデバイスの合成表現の追加の変更が、第2のデバイスの機能の追加の変更を表現する、をさらに備える。
[0012] いくつかの態様では、第2のデバイスの合成表現は、仮想現実コンテンツ上にオーバーレイされる。いくつかの態様では、第1のデバイスは、仮想現実ヘッドマウントディスプレイを含む。いくつかの態様では、第2のデバイスは、モバイルデバイスを含む。
[0013] いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、第1のデバイスによって、第2のデバイスからオーディオコンテンツを取得することと、第1のデバイスによって、第2のデバイスからのオーディオコンテンツを再生することとをさらに備える。
[0014] いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、第1のデバイスによって、第2のデバイスのマイクロフォンによってキャプチャされたオーディオコンテンツを取得することと、第1のデバイスによって、オーディオコンテンツを再生することとをさらに備える。
[0015] いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、第1のデバイスによって、第2のデバイスのカメラによってキャプチャされた1つまたは複数の画像を取得することと、第1のデバイスによって、仮想現実コンテンツとともに1つまたは複数の画像を表示することとをさらに備える。いくつかの態様では、1つまたは複数の画像は、第2のデバイスのカメラによってキャプチャされたビデオ(video)の一部である。いくつかの態様では、1つまたは複数の画像は、第2のデバイスの合成表現の一部として仮想現実コンテンツとともに表示される。いくつかの態様では、1つまたは複数の画像は、第2のデバイスのディスプレイの合成表現内に表示される。
[0016] いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、第1のデバイスによって、第2のデバイスのマイクロフォンによってキャプチャされたオーディオコンテンツを取得することと、第1のデバイスによって、仮想現実コンテンツとともに1つまたは複数の画像を表示する間、オーディオコンテンツを再生することとをさらに備える。
[0017] いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、トリガ(trigger)を受信することと、トリガを受信したことに基づいて、仮想現実コンテンツとともに第2のデバイスの合成表現を表示することとをさらに備える。いくつかの態様では、トリガは、第2のデバイスから受信された情報(information)に基づく。
[0018] いくつかの態様では、上記で説明された方法、装置、およびコンピュータ可読媒体は、削除トリガ(removal trigger)を受信することと、トリガを受信したことに基づいて、第1のデバイスによって、表示(display)から第2のデバイスの合成表現を削除(remove)することとをさらに備える。
[0019] 本発明の概要は、請求される主題の主要なまたは本質的な特徴を識別するものではなく、請求される主題の範囲を決定するために独立して使用されるものでもない。本主題は、本特許の明細書全体、いずれかまたはすべての図面、および各請求項の適切な部分を参照することによって理解されたい。
[0020] 上記のことは、他の特徴および実施形態とともに、以下の明細書、特許請求の範囲、および添付の図面を参照すると、より明らかになろう。
[0021] 本出願の例示的な実施形態が、以下の図を参照しながら以下で詳細に説明される。
[0022] いくつかの例による、仮想現実デバイスによって表示された仮想コンテンツの一例を示す図。 [0023] いくつかの例による、デバイスと仮想コンテンツとの合成表現が仮想現実デバイスによって表示される、仮想コンテンツとともに表示されたデバイスの合成表現の一例を示す図。 [0024] いくつかの例による、デバイスのコンテンツおよび仮想コンテンツが仮想現実デバイスによって表示される、仮想コンテンツとともに表示されたデバイスのコンテンツの一例を示す図。 [0025] いくつかの例による、画像および仮想コンテンツが仮想現実デバイスによって表示される、仮想コンテンツとともに表示されたデバイスによってキャプチャされた画像の一例を示す図。 [0026] いくつかの例による、仮想現実デバイスによる仮想コンテンツの表示と現実世界の表示との間の切替えの一例を示す図。 [0027] いくつかの例による、仮想現実デバイスの構成要素の一例を示す図。 [0028] いくつかの例による、異なる表示レイヤの一例を示す図。 [0029] いくつかの例による、仮想現実デバイスの構成要素の別の例を示す図。 [0030] いくつかの例による、仮想コンテンツを表示するためのプロセスの一例を示す流れ図。 [0031] いくつかの例による、仮想コンテンツを表示するためのプロセスの別の例を示す流れ図。 [0032] いくつかの例による、仮想コンテンツを表示するためのプロセスの別の例を示す流れ図。 [0033] 本明細書で説明される様々な技法を実装することができる例示的なコンピューティングデバイスの例示的なコンピューティングデバイスアーキテクチャの図。
[0034] 本開示のいくつかの態様および実施形態が以下で与えられる。当業者に明らかであるように、これらの態様および実施形態のうちのいくつかは独立して適用され得、それらのうちのいくつかは組み合わせて適用され得る。以下の説明では、説明の目的で、本出願の実施形態の完全な理解を与えるために具体的な詳細が記載される。ただし、様々な実施形態は、これらの具体的な詳細なしに実施され得ることが明らかであろう。図および説明は限定するものではない。
[0035] 以下の説明は、例示的な実施形態のみを与えるものであり、本開示の範囲、適用性、または構成を限定するものではない。そうではなく、例示的な実施形態の以下の説明は、例示的な実施形態を実装することを可能にする説明を当業者に与える。添付の特許請求の範囲に記載されるように、本出願の趣旨および範囲から逸脱することなく、要素の機能および構成において様々な変更が行われ得ることを理解されたい。
[0036] 前に説明されたように、エクステンデッドリアリティ(XR:extended reality)技術は、エクステンデッドリアリティエクスペリエンスをユーザに提供するために、ユーザに仮想コンテンツを提供し、および/あるいは実環境または物理的環境と(仮想コンテンツからなる)仮想環境とを組み合わせることができる。エクステンデッドリアリティエクスペリエンスは、仮想現実(VR)、拡張現実(AR)、複合現実(MR)、および/または他の没入型のコンテンツ(immersive content)を含む。本明細書で説明される例は、説明の目的でVRを使用する。しかしながら、本明細書で説明される技法は、ARおよびMRなど、他のエクステンデッドリアリティエクスペリエンスに適用され得ることを、当業者は諒解されよう。たとえば、いくつかの場合には、本明細書で説明される技法は、ARデバイスおよび/またはMRデバイスのために使用され得る。MRデバイスは、仮想コンテンツとともに物理的現実をレンダリングするために、(たとえば、図5に示されており、図5に関して以下で説明される)ビデオパススルー(video pass-through)を使用することができる。しかしながら、一般的なビデオパススルーデバイスの不十分な品質により、ユーザがMRデバイス(たとえば、MRヘッドセット(headset)またはヘッドマウントディスプレイ)にフォーン(phone)をかざす場合、ユーザはユーザのフォーンの輪郭を見ることができるが、ビデオパススルーに関連する解像度、ひずみ、ちらつき、および/またはレイテンシにより、コンテンツを見る/読み取ることが可能でないことがある。以下で説明される技法を使用して、コンテンツは、MRデバイスディスプレイ(たとえば、MRヘッドセットのディスプレイまたはヘッドマウントディスプレイ)上でユーザによって容易に閲覧され得る。
[0037] VRは、一見したところ現実的または物理的なやり方で対話され得る、3次元の、コンピュータ生成されることがある環境を表す。VR環境を体験しているユーザが現実世界において移動するにつれて、仮想環境においてレンダリングされる画像も変化し、ユーザが仮想環境内で移動しているという知覚をユーザに与える。たとえば、ユーザは、左または右を向き、見上げるかまたは見下ろし、および/あるいは前方または後方に移動し、したがって、仮想環境のユーザの視点を変更することができる。ユーザに提示されるVRコンテンツは、ユーザのエクスペリエンスが現実世界の場合と同程度にシームレスであるように、ユーザが移動するにつれて、相応に変化することができる。VRコンテンツは、いくつかの場合には、VRビデオを含むことができ、VRビデオは、極めて高い品質でキャプチャおよびレンダリングされ、真に没入型の仮想現実エクスペリエンスを潜在的に提供することができる。VRアプリケーションは、ゲーミング、トレーニング、教育、ビデオ(たとえば、特に、スポーツイベント、ムービー、ショー)、オンラインショッピング、遠隔操作(たとえば、特に、ロボットの遠隔制御、無人航空機、遠隔手術)、および/または他のアプリケーションを含む。
[0038] 様々なデバイスが、XRコンテンツをレンダリングするために使用され得る。たとえば、VRコンテンツは、ヘッドマウントディスプレイ(HMD)または他のVRヘッドセットなど、VR機器を使用してレンダリングおよび表示され得、VR機器は、VRエクスペリエンス中にユーザの眼を完全に覆う。図1は、ユーザ100によって装着されているVRヘッドセット102によって表示された仮想コンテンツの一例を示す図である。図示のように、ユーザは、(VRフレーム110によって示されている)VR環境に完全に没入している。
[0039] VR機器が、ユーザの眼およびいくつかの場合にはユーザの耳を完全に覆うことがあるので、ユーザは、仮想現実環境(virtual reality environment)に没入している間、他のデバイス(たとえば、モバイルフォン)および/または現実世界と対話することができないことがある。たとえば、いくつかの場合には、ユーザのフォーンまたは他のコンピューティングデバイスは、VRヘッドセット(または他のVRデバイス)のためのコントローラとして使用され得るが、ユーザが、VRエクスペリエンスに没入している間、フォーンのアプリケーションおよび/または他の機能と対話する能力がない。さらに、VRヘッドセットを使用するとき、ユーザは、無防備であると感じ、ユーザの周りの現実世界環境(real-world environment)において起こっていることと接触がないと感じることがある。いくつかの場合には、VRヘッドセットによって提供されるオーディオは、ユーザが外界からの音を聞くのを妨げることがある。VRエクスペリエンスに関与するとき、ユーザが、VRヘッドセットを取り外すことなしに、および仮想現実エクスペリエンスを休止または停止することなしに、現実世界において起こっていることを視覚的におよび/または可聴的にチェックするための容易なやり方を提供することが有益であろう。ユーザが物理的な周囲をチェックし、および/または別のデバイスと対話することができるように、VRヘッドセットが取り外され得る(その場合、VRコンテンツは休止または停止される必要があり得る)が、ユーザが、自身のフォーン(または他のコンピューティングデバイス)を閲覧することまたは環境をチェックすることを希望するたびの、ヘッドセットの取外しは、冗長になることがあり、不十分なVRユーザエクスペリエンスにつながることがある。
[0040] コンピューティングデバイスとエクステンデッドリアリティエクスペリエンスとを統合するためのシステム、方法、およびコンピュータ可読媒体が、本明細書で説明される。上述のように、XRエクスペリエンスの一例としてVRを使用する例が、本明細書で提供される。しかしながら、本明細書で説明される技法は他のタイプのXRエクスペリエンスに適用され得ることを、当業者は諒解されよう。
[0041] 本明細書で説明される技法によれば、VRデバイスが、複数の異なる動作モードを含むことができる。VRデバイスは、ヘッドマウントディスプレイ(HMD)などのVRヘッドセットを含むことができる。VRデバイスは、ユーザが、VRデバイスによって表示されているVRエクスペリエンスを休止または停止することなしに、複数のモード間でトグル(toggle)することを可能にすることができる。たとえば、ユーザがその間でトグルすることができる様々なモードは、通常VRモード(図1に示されている、上記で説明された)、実際の現実のコンピューティングデバイスおよび/またはコンピューティングデバイスからのコンテンツの合成表現がVRコンテンツの上にオーバーレイされたVRモード(図2および図3に示されており、以下で説明される)、外界の覗き見(peek)がVRコンテンツの上にオーバーレイされたVRモード(図4に示されており、以下で説明される)、ならびに/あるいは、VRコンテンツを閲覧することと、VRデバイスを通して現実世界環境を閲覧することとの間の完全な切替え(図5に示されており、以下で説明される)を含む。コンピューティングデバイスは、モバイルデバイス(たとえば、モバイルフォン、タブレットコンピュータ、または他のモバイルデバイス)、ウェアラブルデバイス(たとえば、スマートウォッチ、心拍数モニタ、または他のウェアラブルデバイス)、モノのインターネット(IoT)デバイス、リモートコントローラ(たとえば、テレビジョン遠隔制御装置(television remote)、または他のリモートコントローラ)、または他のタイプのデバイスを含むことができる。
[0042] ユーザは、1つまたは複数の入力を使用して、異なるモード間でトグルすることができる。モードのうちの1つまたは複数に切り替えるための入力は、VRデバイスおよび/またはコンピューティングデバイスのオーディオ入力デバイス(たとえば、マイクロフォン)を使用して検出されるボイス入力(voice input)、VRデバイスおよび/またはコンピューティングデバイスのタッチインターフェース上でのタッチ入力、VRデバイスおよび/またはコンピューティングデバイスの1つまたは複数のセンサーを使用して検出されるジェスチャー入力(gesture input)、VRデバイスまたはコンピューティングデバイスの物理的ボタンの選択、VRデバイスを制御することができるVRコントローラデバイス上の物理的ボタン、VRデバイスまたはコンピューティングデバイスによって表示されるアイコンまたは仮想ボタンの選択(たとえば、ユーザがアイコンを押すこと、視線検出を使用して検出される、ユーザがアイコンを注視すること、または他のタイプの選択)、それらの任意の組合せ、ならびに/あるいは他の入力など、ユーザによって提供される任意の好適な入力を含むことができる。モード変更を引き起こすことができるタッチ入力の一例は、1秒、2秒、またはより多くの秒の間など、しきい値時間量の間、および/あるいは(たとえば、加速度計(accelerometer)、あるいは圧力または力を測定することができる他の構成要素によって測定される)ある量の圧力で、コンピューティングデバイスのタッチスクリーン上に指を押しつけることを含むことができる。タッチ入力の別の例は、ストロークジェスチャーを含むことができ、これは、ユーザが1つのストロークでタッチスクリーンの周りに円を描くこと、および/または何らかの他のストロークジェスチャーを含むことができる。タッチ入力の別の例は、タッチスクリーン上での強いタップジェスチャーを含むことができ、これは、(たとえば、加速度計によって測定される)力しきい値(force threshold)を上回る圧力または力によるタッチスクリーン上での指タップを含むことができる。
[0043] いくつかの例では、モード(たとえば、実際のコンピューティングデバイスおよび/またはコンピューティングデバイスからのコンテンツの合成表現がVRコンテンツの上にオーバーレイされたVRモード、外界の覗き見がVRコンテンツの上にオーバーレイされたVRモードなど)のうちの1つまたは複数をトリガするために、しきい値量を超えるコンピューティングデバイスの移動(たとえば、加速度、速度など)が検出および使用され得る。いくつかの例では、VRデバイスは、ユーザがVRデバイス(たとえば、HMD)の前にフォーンを置いたことを(たとえば、VRデバイスの外向きカメラを使用して、光センサーを使用して、動き検出または他の好適な技法を使用して)検出することができ、その場合、VRデバイスは、モード(たとえば、実際のコンピューティングデバイスおよび/またはコンピューティングデバイスからのコンテンツの合成表現がVRコンテンツの上にオーバーレイされたVRモード、外界の覗き見がVRコンテンツの上にオーバーレイされたVRモードなど)のうちの1つまたは複数に切り替えることができる。
[0044] いくつかの例では、VRデバイスは、6自由度(6DOF:6-degrees of freedom)入力インターフェースを使用して、ユーザ入力を検出することができる。VRヘッドセットなどのXRデバイスは、VR機能を実施するために、物理世界におけるそれら自体のロケーションを常にまたは周期的に追跡することができる。そのような追跡は、インサイドアウト6DOF追跡(inside-out 6DOF tracking)と呼ばれることがあり、デバイスがいかなる外部ビーコンまたは送信機もなしにそれ自体を追跡することができるので、インサイドアウトであり、デバイスが3つの回転ベクトル(ピッチ、ヨー、ロール)および3つの並進ベクトル(上/下、左/右、前方/後方)に関してそれ自体の位置を追跡することができるので、6DOFである。1つまたは複数の慣性測定ユニット(IMU:inertial measurement unit)、1つまたは複数の全地球測位システム(GPS:global positioning system)デバイス、1つまたは複数の加速度計、1つまたは複数のジャイロスコープ(gyroscope)、それらの任意の組合せ、および/または他のセンサーなど、1つまたは複数のセンサーが、ユーザ入力を検出し、および/または追跡を実施するために、使用され得る。いくつかの場合には、追跡は、視覚慣性オドメトリ(VIO:Visual Inertial Odometry)を用いて達成され得、これは、物理世界におけるデバイスの移動した距離を測定するために、(1つまたは複数のカメラセンサーからの)視覚データが(ジャイロスコープおよび加速度計からの)慣性データとともに融合されるプロセスである。VIOは、世界におけるデバイスの位置を決定(位置特定)し、デバイスに関連する(世界における)シーンをマッピングするために、同時に使用され得る。
[0045] 図2は、VRヘッドセット102が、VRコンテンツのフレーム210の上にオーバーレイされた実際のモバイルデバイス204(物理デバイス)の合成表現214を表示することを可能にする、VRヘッドセット102のVRモードの一例を示す図である。図2に示されているように、モバイルデバイス204の合成表現214は、モバイルデバイス204のディスプレイ(またはスクリーン)の合成表現216を含む。現実世界において実際のモバイルデバイス204によって表示されているコンテンツは、モバイルデバイス204のディスプレイの合成表現216において仮想コンテンツとして表示される。このVRモードでは、ユーザ100は、VRヘッドセット102のディスプレイによって提示される、モバイルデバイス204ディスプレイの表現を見ることができる。いくつかの例では、モバイルデバイス204からのオーディオコンテンツが、モバイルデバイス204の合成表現214を表示する間、VRヘッドセット102によって再生され得る。たとえば、ユーザがモバイルデバイス204上でボイスメッセージングアプリケーションを選択するとき、ボイスメッセージが再生され得る。他の例では、ビデオ(ビデオの視覚部分とオーディオ部分とを含む)、ビデオメッセージ、ウェブブラウザからのオーディオ、通話、ネットワークロケーションからの(たとえば、インターネットベースプロバイダからの)ストリーミングされた音楽、ローカルに記憶された音楽(たとえば、前にダウンロードされた音楽)、および/または他のオーディオコンテンツが再生され得る。VRコンテンツは、モバイルデバイス204の合成表現が表示されるとき、および/またはオーディオコンテンツが再生されているとき、VRヘッドセット102によって表示され続けることができ、あるいは、モバイルデバイス204の合成表現が表示される間、および/またはオーディオコンテンツがVRヘッドセット102によって再生されているとき、休止され得る。
[0046] ユーザは、(ユーザの頭部からVRヘッドセット102を取り外すことなしに)実際のモバイルデバイス204と対話することができ、モバイルデバイス204が表示するあらゆるものを見る(およびいくつかの場合にはモバイルデバイス204によって出力されているオーディオを聞く)ことができ、ただし、VRヘッドセット102の内側において、それを見ることができる。いくつかの場合には、ユーザは、モバイルデバイス204の(1つまたは複数の)入力インターフェース(たとえば、タッチスクリーン、プッシュボタン、ボイス入力、タッチホバーフィードバック(touch hover feedback)など)を使用して、実際のモバイルデバイス204と対話することができ、モバイルデバイス204の機能の変更は、モバイルデバイス204のディスプレイの合成表現216上に表示される。いくつかの場合には、ユーザは、ジェスチャー入力(gesture input)、視線入力(gaze input)、ボイス入力、VRリモートコントローラ、それらの任意の組合せ、および/またはVRヘッドセット102に提供され得る他の好適な入力を使用してなど、VRヘッドセット102に入力を提供することによって、モバイルデバイス204と対話することができる。1つの例示的な例では、ユーザ100は、下方向に人さし指を移動することを含む、ジェスチャー入力をVRヘッドセット102に提供することができ、これは、VRヘッドセット102によって検出されると、モバイルデバイス204のディスプレイの合成表現216上に表示されたコンテンツを下方向にスクロールさせることができる。別の例示的な例では、ユーザ100は、(たとえば、ユーザがアイコンを選択しているかのように)VRヘッドセット102から離れる深さ方向に人さし指を移動することを含む、ジェスチャー入力をVRヘッドセット102提供することができ、これは、VRヘッドセット102によって検出されると、モバイルデバイス204のディスプレイの合成表現216上に表示されたコンテンツのアイテムを選択させることができる。別の例示的な例では、ユーザは、VRリモートコントローラをポインタとして使用して、モバイルデバイス204と対話することができる。
[0047] モバイルデバイス204のディスプレイの合成表現216上に表示されるコンテンツの変更を引き起こす入力(たとえば、ジェスチャー、視線、ボイスなど)が、実際のモバイルデバイス204によって表示されるコンテンツを変化させることもできる。1つの例示的な例では、VRヘッドセット102によって検出されたジェスチャーを使用するメッセージングアイコンの選択が、メッセージングアプリケーションを、モバイルデバイス204のディスプレイの合成表現216上に、および実際のモバイルデバイス204のディスプレイ上に表示させることができる。
[0048] いくつかの例では、ユーザは、タッチホバーフィードバックを使用して、実際のモバイルデバイス204と対話することができる。たとえば、タッチホバーフィードバックは、ユーザが、モバイルデバイス204の物理的ディスプレイからある距離(たとえば、0.5センチメートル(cm)、0.75cm、1cm、1.25cm、または他の好適な距離)のところに、指または親指を保持することを含むことができ、指または親指が覆うアイテムに対応する表示要素(たとえば、モバイルデバイス204のディスプレイの合成表現216における、アイコン、リスト中のアイテム、または他の表示要素)が、モバイルデバイス204のディスプレイの合成表現216においてフォーカス状態を示すことができる(たとえば、表示要素は、ハイライトされ、より大きくされ、および/または別様に強調され得る)。表示要素の選択が、次いで、(たとえば、上記で説明されたように、ジェスチャー入力、視線入力、タッチ入力、ボイス入力、および/または他の入力を使用して)ハイライトされた表示要素を選択することによって、ユーザによって実施され得る。タッチホバーフィードバックは、ユーザが、選択を行う前に指を正しく配置することを可能にすることによって、モバイルデバイス204の合成表現214との対話がより有効になることを可能にする。これは、ユーザが、選択をターゲットにするためにモバイルデバイス204ディスプレイを直接閲覧することができない、図2に示されている例において特に役立つことができる。
[0049] いくつかの実装形態では、アクション通知(action notification)215が、フレーム210上に表示され得る。アクション通知215は、アクションがモバイルデバイス204において発生したことをユーザに示す。いくつかの例では、アクション通知215は、メッセージがモバイルデバイス204によって受信されたという通知(たとえば、新しいテキストメッセージが受信された、新しい電子メールが受信された、モバイルデバイス204への着信フォーンの通知、ソーシャルメディアポスト(social media post)がモバイルデバイス204によって通知された、緊急警報(emergency alert)がモバイルデバイス204によって受信された、および/または他のメッセージ)を含むことができる。いくつかの例では、アクション通知215は、受信された実際のメッセージを含むことができる。いくつかの場合には、ユーザは、モバイルデバイス204の合成表現214を表示させるために、アクション通知215を選択することができる(まだ表示されていない場合)。
[0050] モバイルデバイス204の合成表現214は、様々な技法を使用してVRヘッドセット102によって生成され得る。1つの例示的な例では、VRヘッドセット102のユーザは、使用されているモバイルデバイス204のタイプ(たとえば、Samsung(登録商標)Galaxy S10(登録商標)など、モバイルデバイス204の種類、モデル、およびバージョン)を示す入力を提供することができ、VRヘッドセット102は、そのタイプのモバイルデバイスと同じ特徴および寸法を有する仮想表現を生成または取得することができる。別の例では、VRヘッドセット102は、モバイルデバイス204の1つまたは複数の画像をキャプチャすることができ、VRヘッドセット102は、1つまたは複数の画像を使用してモバイルデバイス204の仮想表現を生成することができる。
[0051] モバイルデバイス204の合成表現214は、VR座標系における様々なロケーションにおいて表示され得る。たとえば、いくつかの場合には、合成表現214は、フォーンの実際の現実世界ロケーションにおいて見えるように表示され得る。1つの例示的な例では、ユーザがモバイルフォンをユーザの右手でユーザの前に差し出す場合、モバイルデバイス204の合成表現214は、フレーム210の右下隅において表示され得る。他の例では、合成表現214は、合成表現214が、VRコンテンツと、および/またはフレーム210内の最も重要な領域(たとえば、VRユーザの視野に対応するフレーム210の中心)と重ならないように、フレーム210のエッジまたはフレーム210における別のロケーション上に表示され得る。いくつかの例では、モバイルデバイス204の合成表現214が表示されるロケーションは、ユーザ選択可能であり得る。たとえば、ユーザは、合成表現214が、VRヘッドセット102によって表示されるフレームの左上隅において表示されるべきであることを示すことができる。
[0052] いくつかの場合には、実際のモバイルデバイス204によって表示されているコンテンツおよび/または出力されているオーディオコンテンツは、VRヘッドセット102に送信またはストリーミングされ得、VRヘッドセット102は、モバイルデバイス204のディスプレイの合成表現216においてコンテンツを表示することができる。いくつかの場合には、モバイルデバイス204によって表示されているコンテンツは、VRヘッドセット102のディスプレイ上で(たとえば、ピアツーピアWiFi Direct(登録商標)規格を使用するMiracast、またはAirPlay(登録商標)など、スクリーンミラーリングを使用して)ミラーリングされ得る。
[0053] 図6は、VRデバイス(たとえば、VRヘッドセット102の、または他のVRデバイス)、MRデバイス、および/またはARデバイスなど、XRデバイスの構成要素の一例を示す図である。構成要素は、実際のモバイルデバイス204(たとえば、モバイルデバイス204)によって表示されているコンテンツおよび/または出力されているオーディオコンテンツが、XRデバイスによって表示されることを可能にするように動作する。XRデバイスは、1つまたは複数のアプリケーション632を含むことができる。アプリケーションは、ランタイムエンジン(Runtime engine)634によって提供されるランタイムサービス(たとえば、レンダリングおよび/または他のランタイムサービス)について登録することができる。ランタイムエンジン634は、XRデバイスによって表示され得る各表示レイヤまたはグラフィックレイヤのためのレンダリングを扱うことができる。ランタイムエンジン634はまた、各レイヤについて、頭部追跡ポーズ(head tracking pose)と入力イベント(たとえば、コントローラ、手のジェスチャー、ボイス、および/または他の入力イベント)とを処理することができる。いくつかの場合には、ランタイムエンジン634は、1つまたは複数のアプリケーション632からのアプリケーションの一部、オペレーティングシステム(OS)638の一部であり得るか、または、ランタイムエンジン634が、合成を含み得るXRアクティビティを協調させる場合、合成器エンジン(compositor engine)636と組み合わせられ得る。
[0054] 合成器エンジン636は、XR(たとえば、VRセッション)内で閲覧するために、複数のグラフィックレイヤ(たとえば、特に、ウィンドウ、タイル)を織り合わせる(weave together)ことができる。合成器エンジン636はまた、特に、タイムワープ(timewarp)、スペースワープ(spacewarp)など、プロセスXR関係プロセスを実施することができる。いくつかの場合には、合成器エンジン636は、上記で説明されたように、ランタイムエンジン634の一部であり得るか、またはOS638の一部であり得る。OS638は、Android(登録商標)または他の好適なOSなど、任意の好適なOSであり得る。
[0055] 図7は、ランタイムエンジン634によって扱われ得る、異なるグラフィックレイヤの一例を示す図である。たとえば、図7に示されているレイヤAが、モバイルデバイス(たとえば、モバイルデバイス204)によって表示されているコンテンツに対応し、レイヤBが、XRデバイス(たとえば、VRヘッドセット102)によって表示されているXRコンテンツに対応する。VRコンテンツが、XRコンテンツの一例として使用される。しかしながら、XRコンテンツが、MRコンテンツ、ARコンテンツ、および/または他のコンテンツを含むことができることを、当業者は諒解されよう。OS638(たとえば、Androidまたは他のOS)は、モバイルデバイスユーザインターフェース(UI:user interface)を1つのディスプレイ(たとえば、1次ディスプレイ)に割り当てることができ、VRビューが、別のディスプレイ(たとえば、2次ディスプレイ)に割り当てられ得る。ランタイムエンジン634は、レイヤ(たとえば、図7中のレイヤA)として、モバイルデバイスコンテンツに割り当てられた1次ディスプレイをレンダリングすることができ、これは、別のレイヤ(たとえば、図7中のレイヤB)としてレンダリングされる2次VRディスプレイ上でビデオストリームとして閲覧され得る。合成器エンジン636は、モバイルデバイスビューレイヤ(レイヤA)がフォアグラウンドで見え、VRビューレイヤ(レイヤB)がレイヤAの後ろのバックグラウンドで動作するように、各レイヤを織り合わせることができる。
[0056] ランタイムエンジン634は、レイヤードVRセッションからの入力イベント(たとえば、コントローラ、手のジェスチャー、ボイスなど)を扱うことができる。たとえば、モバイルデバイスレイヤ(レイヤA)上のアイテムを選択する入力イベントが、ランタイムエンジン634に、入力イベントをタッチイベントにマッピングさせることができ、タッチイベントは、次いで、処理されるためにモバイルデバイスに渡されて戻る。別の例では、VRレイヤ(レイヤB)上のアイテムを選択する入力イベントが、処理されるために、ランタイムエンジン634に、入力イベントをVRデバイスに渡させることができる。
[0057] 図8は、仮想現実デバイスの構成要素の別の例を示す図である。図示のように、XRアプリケーション832が、XRアプリケーション832のXRアプリケーションユーザインターフェース(UI:user interface)833を制御する。モバイルデバイス804が、モバイルデバイス804のモバイルデバイスUI835を制御する。モバイルデバイス804にユーザによって提供されるユーザ入力が、モバイルデバイス804によってモバイルデバイスUI835に提供され得る。同様に、XRデバイスにユーザによって提供されるユーザ入力が、XRデバイスによってXRアプリケーションUI833に提供され得る。ユーザは、特に、コントローラ、ポインタ、視線、手追跡入力(hand tracking input)、ボイスなど、入力デバイスを使用して、モバイルデバイスUI835および/またはXRアプリケーションUI833と対話することができる。XRランタイムエンジン834が、ユーザ入力を処理することができ、XRデバイスの1つまたは複数のXRデバイスディスプレイ846によってXRシーンユーザインターフェース844において表示され得る各グラフィックレイヤのためのレンダリングを扱うことができる。XRシーンユーザインターフェース844は、XRデバイス上のXRアプリケーションUI833および/または他のXRアプリケーションのUIのコンテンツを含む、XRデバイスによって表示されているすべてのコンテンツを含む。
[0058] いくつかの場合には、モバイルデバイス(たとえば、モバイルフォン)は、複数のディスプレイを有することができ、これは、XRアプリケーション対話および表示と同時に、UI対話(たとえば、スマートフォンUI対話)および表示をサポートし得る。モバイルデバイスディスプレイ84上にモバイルデバイス804(たとえば、モバイルデバイスUI835)によって表示されるコンテンツは、その全体がXRシーンユーザインターフェース844において表現され得る(たとえば、モバイルデバイスによって表示されるすべてのコンテンツが、XRコンテンツとともに表示され得る)か、または構成要素形態で表現され得る(たとえば、単一のアプリケーションUIまたは単一のアプリケーションUIのUIフラグメントが、XRコンテンツとともに表示され得る)。
[0059] モバイルデバイスUI835は、モバイルデバイスディスプレイ842上で、1つまたは複数のXRデバイスディスプレイ846上で、モバイルデバイスディスプレイ842と1つまたは複数のXRデバイスディスプレイ846の両方の上で視認可能であるか、またはいずれのディスプレイ上でも視認可能でないことがある。いくつかの場合には、XRランタイムエンジン834は、XRアプリケーション832の内部にまたは外部に常駐することができる。いくつかの場合には、XRランタイムエンジン834は、上記で説明されたように、OSの内部にまたは外部に常駐することができる。いくつかの場合には、XRランタイムエンジン834は、モバイルデバイス上とXRデバイス上とに共に常駐(co-resident)することができる。いくつかの場合には、XRランタイムエンジン834は、モバイルデバイスを組み込む一体型VRヘッドセットなど、接続されたデバイス上に常駐することができる。XRデバイスと、接続されたデバイスとの間の接続は、(たとえば、WiFi(登録商標)、Bluetooth(登録商標)、Zigbee(登録商標)、または他のワイヤレス接続を使用して、ワイヤードまたはワイヤレスであり得る。
[0060] 図2に示されているモードを使用して、ユーザ100は、依然としてVRコンテンツを閲覧する間、VRヘッドセット102のディスプレイ上に提示されたモバイルデバイス204を閲覧することができ(およびいくつかの場合にはモバイルデバイス204からのオーディオコンテンツを聞くことができ)、ユーザがモバイルデバイス204と直接対話しているかのように、モバイルデバイス204の機能のすべてと対話することができる。いくつかの場合には、VRコンテンツは、ユーザ100がモバイルデバイス204と対話している間、再生し続けることができる。いくつかの場合には、VRヘッドセット102は、ユーザ100が、モバイルデバイス204と対話する間、VRコンテンツを休止するためのオプションを提供することができる。いずれの場合も、ユーザは、VRヘッドセット102を取り外す必要なしに、モバイルデバイス204と対話することができる。
[0061] 図3は、VRヘッドセット102が、VRコンテンツのフレーム310の上にオーバーレイされたモバイルデバイス204からのコンテンツを表示することを可能にする、VRヘッドセット102のVRモードの一例を示す図である。現実世界において実際のモバイルデバイス204によって表示されているコンテンツは、仮想コンテンツのフレーム310上に仮想コンテンツ317として表示される。VRモードでは、ユーザ100は、モバイルデバイス204によって何が表示されているかを見ることができ、ただし、モバイルデバイス204の合成表現を表示することなしに、それを見ることができる。仮想コンテンツ317は、VR座標系における様々なロケーションにおいて表示され得る。たとえば、いくつかの場合には、仮想コンテンツ317は、フォーンの実際の現実世界ロケーションにおいて見えるように表示され得る。他の例では、仮想コンテンツ317は、仮想コンテンツ317が、VRコンテンツと、および/または最も重要な領域(たとえば、VRユーザの視野に対応するフレーム310の中心)と衝突しないように、(たとえば、図3に示されているように)フレーム310のエッジ上に表示されるか、またはフレーム310において別様に位置することができる。いくつかの例では、仮想コンテンツ317が表示されるロケーションは、ユーザ選択可能であり得る。
[0062] いくつかの例では、モバイルデバイス204からのオーディオコンテンツが、モバイルデバイス204からのコンテンツを表示する間、VRヘッドセット102によって再生され得る。VRコンテンツは、モバイルデバイス204からのコンテンツが表示されるとき、および/またはオーディオコンテンツが再生されているとき、VRヘッドセット102によって表示され続けることができ、あるいは、モバイルデバイス204からのコンテンツが表示される間、および/またはオーディオコンテンツがVRヘッドセット102によって再生されているとき、休止され得る。
[0063] 図2に示されているモードに関して説明されたものと同様に、ユーザは、(VRヘッドセット102を取り外すことなしに)実際のモバイルデバイス204と対話することができ、フォーンによって表示されるあらゆるものを見ることができ、ただし、VRヘッドセット102の内側において、それを見ることができる。ユーザは、図2に関して上記で説明されたものと同様に、モバイルデバイス204の(1つまたは複数の)入力インターフェースを使用して実際のモバイルデバイス204と対話することができ、および/またはVRヘッドセット102に入力を提供することによってモバイルデバイス204と対話することができる。
[0064] モバイルデバイス204の合成表現214は、使用されているモバイルデバイス204のタイプを示すユーザによって提供された入力に基づいて、VRヘッドセット102によってキャプチャされたモバイルデバイス204の1つまたは複数の画像に基づいて、および/または任意の他の好適な技法を使用して、VRヘッドセット102によって生成され得る。実際のモバイルデバイス204によって表示されているコンテンツは、VRヘッドセット102に送信またはストリーミングされ得るか、VRヘッドセット102のディスプレイ上に(たとえば、スクリーンミラーリングを使用して)ミラーリングされ得るか、または任意の他の好適な技法を使用してVRヘッドセット102に提供され得る。
[0065] 図2に関して説明されたものと同様に、アクション通知315が、フレーム310上に表示され得る。アクション通知315は、メッセージまたは通話が受信されることなど、アクションがモバイルデバイス204において発生したことを示すことができる。いくつかの例では、アクション通知315は、受信された実際のメッセージを含むことができる。ユーザは、モバイルデバイス204からの仮想コンテンツ317を表示させるために、アクション通知315を選択することができる(まだ表示されていない場合)。たとえば、アクション通知315の選択に応答して、モバイルデバイス204からのメッセージングアプリケーションが、VRデバイス102上に表示され得る。
[0066] 図3に示されているモードを使用して、ユーザ100は、依然としてVRコンテンツを閲覧する間、VRヘッドセット102のディスプレイ上に提示されたモバイルデバイス204からのコンテンツを閲覧することができ、ユーザがモバイルデバイス204と直接対話しているかのように、モバイルデバイス204の機能のすべてと対話することができる。
[0067] 図4は、VRヘッドセット102が、VRコンテンツのフレーム410の上にオーバーレイされたオーバーレイとして、モバイルデバイス204によってキャプチャされた(画像418を含む)1つまたは複数の画像を表示することによって、外界の覗き見を提供することを可能にする、VRヘッドセット102のVRモードの一例を示す図である。1つまたは複数の画像は、モバイルデバイス204の1つまたは複数のカメラによってキャプチャされ得、1つまたは複数の静止画像、または複数の連続する画像を含むビデオを含むことができる。いくつかの場合には、1つまたは複数の画像をキャプチャするために使用されるモバイルデバイス204のカメラは、(モバイルデバイス204の裏面上にある)後向きカメラ、および/またはモバイルデバイス204の別のカメラ(たとえば、前向きカメラ、前向きカメラおよび後向きカメラ、複数の前向きおよび/または後向きカメラなど)であり得る。モバイルデバイス204は、VRヘッドセット102に1つまたは複数の画像を送信することができ、VRヘッドセット102は、次いで、VRヘッドセット102のディスプレイ上に1つまたは複数の画像を表示することができる。いくつかの場合には、モバイルデバイス204のマイクロフォンからのオーディオが、VRヘッドセット102に提供され得、VRヘッドセット102は、VRヘッドセット102の1つまたは複数のスピーカーを使用してオーディオを出力することができる。モバイルデバイス204のマイクロフォンからのオーディオを提供することは、ユーザが、ヘッドセットを取り外す必要なしに、現実世界において何が進行しているかを知覚することを可能にするための、より多くの情報をユーザに提供することができる。
[0068] 図4に示されている例は、モバイルデバイス204の合成表現414の一部として表示された画像418を含む。いくつかの実装形態では、(画像418を含む)モバイルデバイス204によってキャプチャされた1つまたは複数の画像は、仮想コンテンツ上に表示され、その場合、モバイルデバイス204の合成表現414は、VRヘッドセット102によって表示されない。いくつかの実装形態では、1つまたは複数の画像は、(たとえば、フルスクリーンモードで)VRヘッドセット102のディスプレイ上に完全に表示され得、その場合、VRコンテンツは、1つまたは複数の画像が表示される間、VRヘッドセット102によって表示されない。いくつかの実装形態では、ユーザ100は、1つまたは複数の画像を表示するためにVRヘッドセット102ディスプレイのうちのどのくらいが使用されるかを制御することができる。
[0069] 図4に示されているモードを使用して、ユーザ100は、依然としてVRコンテンツを閲覧する間、VRヘッドセット102のディスプレイ上に提示された、モバイルデバイス204のカメラからの現実世界環境のビュー(view)を見ることができる。上述のように、ユーザは、モバイルデバイス204のマイクロフォンからのオーディオをも提供され得、これは、ユーザが、現実世界環境において発生している任意の音を聞くことを可能にすることができる。いくつかの場合には、VRヘッドセット102は、ユーザ100が、モバイルデバイス204からの1つまたは複数の画像を閲覧する間、VRコンテンツを休止するためのオプションを提供することができる。いずれの場合も、ユーザは、VRヘッドセット102を取り外す必要なしに、現実世界環境のビューを見ることができる(およびいくつかの場合には、現実世界環境において何が起こっているかを聞くことができる)。
[0070] 図5は、VRヘッドセット102が仮想VRコンテンツの表示と現実世界の表示との間で切り替えることを可能にする、VRヘッドセット102のVRモードの一例を示す図である。たとえば、VRコンテンツの(フレーム510を含む)フレームが、VRヘッドセット102によって表示され得、これは、ユーザのポーズに基づく仮想環境のシーンを含む。ユーザ入力に応答して、VRヘッドセット102は、現実世界表示モードに切り替えることができ、現実世界表示モードに入ると、ユーザのポーズに基づく現実世界環境の(フレーム520を含む)ビューを表示することができる。
[0071] いくつかの場合には、VRヘッドセット102の一部である外部カメラが、現実世界環境の画像をキャプチャするために使用され得る。キャプチャされた画像は、ユーザが現実世界表示モードに切り替えるとき、VRヘッドセット102のディスプレイによって表示され得る。キャプチャされた画像は、1つまたは複数の静止画像、または複数の連続する画像を含むビデオを含むことができる。(1つまたは複数の)静止画像、またはビデオは、ユーザが、VRコンテンツが1つまたは複数の静止画像なしに表示される完全なVRモードに切り替え復帰するように、VRヘッドセット102に命令する入力を提供するまで、表示され得る。
[0072] 図5に示されているモードを使用して、ユーザ100は、現実世界環境と対話するためにVRヘッドセット102を外す必要なしに、VR世界のビューと、ユーザが位置する現実世界環境のビューとの間でトグルすることができる。たとえば、ユーザ100は、ユーザ100が、依然としてVRヘッドセット102を装着しながら、部屋中のオブジェクトと対話することができるように、ユーザ100がその中に座っている部屋の完全なビューを提供され得る。
[0073] 次に、本明細書で説明される技法を使用して実施されるプロセスの例が説明される。図9は、仮想コンテンツを表示するためのプロセス900の一例を示すフローチャートである。ブロック902において、プロセス900は、第1のデバイスによって、仮想現実コンテンツを表示することを含む。第1のデバイスは、図1~図5に示されている仮想現実(VR)ヘッドセット102など、VRヘッドセット(たとえば、HMDまたは他のタイプのVRヘッドセット)を含むことができる。
[0074] ブロック904において、プロセス900は、第1のデバイスによって、第2のデバイスの合成表現を生成することを含む。第2のデバイスは、図1~図4に示されているモバイルデバイス204など、モバイルデバイスを含むことができる。ブロック906において、プロセス900は、第1のデバイスによって、仮想コンテンツとともに第2のデバイスの合成表現を表示することを含む。いくつかの例では、第2のデバイスの合成表現は、仮想コンテンツ上にオーバーレイされる。たとえば、例示的な例として図2を使用して、モバイルデバイス204の合成表現214が、仮想コンテンツフレーム210とともに表示される。
[0075] 第2のデバイスの合成表現(たとえば、図2に示されている合成表現214)は、第2のデバイスのディスプレイの合成表現を含むことができる。第2のデバイスによって表示されるコンテンツが、第2のデバイスのディスプレイの合成表現において表示される。たとえば、図2に示されているように、モバイルデバイス204の合成表現214は、モバイルデバイス204のディスプレイの合成表現216をも含み、モバイルデバイス204によって表示されているコンテンツが、モバイルデバイス204のディスプレイの合成表現216において示される。
[0076] いくつかの場合には、プロセス900は、第2のデバイスによって処理された1つまたは複数の入力の指示に基づいて、第2のデバイスの合成表現の変更を表示することを含むことができる。第2のデバイスの合成表現の変更は、第2のデバイスの機能の変更を表現する。たとえば、ユーザは、第2のデバイスに1つまたは複数の機能(たとえば、特に、メッセージングアプリケーションを使用してテキストメッセージを送る、ソーシャルネットワーキングアプリケーションを使用してソーシャルネットワーキングアカウントにメッセージをポスティングする、電子メールを送る)を実施させるために、第2のデバイス(たとえば、モバイルデバイス)と対話することができる。第2のデバイスの機能の変更に基づいて第2のデバイスによって表示されるコンテンツの変更も、第2のデバイスの機能の変更を表現する第2のデバイスの合成表現の変更として表示され得る。
[0077] いくつかの場合には、プロセス900は、第1のデバイスによって受信された入力に基づいて、第2のデバイスの合成表現の変更を表示することを含むことができる。第2のデバイスの合成表現の変更は、第2のデバイスの機能の変更を表現する。たとえば、ユーザは、第2のデバイスに1つまたは複数の機能(たとえば、特に、メッセージングアプリケーションを使用してテキストメッセージを送る、ソーシャルネットワーキングアプリケーションを使用してソーシャルネットワーキングアカウントにメッセージをポスティングする、電子メールを送る)を実施させるために、第1のデバイス(たとえば、VRヘッドセット)または第2のデバイスと対話することができる。ユーザは、上記で説明されたものなどの任意の好適な入力を使用して(たとえば、モバイルデバイスの(1つまたは複数の)入力インターフェースを使用して、VRヘッドセットに入力を提供することによって、タッチホバーフィードバックまたは他の好適な入力を使用して)、第2のデバイスに1つまたは複数の機能を実施させるために、第2のデバイスと対話することができる。第2のデバイスの機能の変更に基づいて第2のデバイスによって表示されるコンテンツの変更も、第2のデバイスの機能の変更を表現する第2のデバイスの合成表現の変更として表示され得る。
[0078] いくつかの例では、プロセス900は、トリガを検出することと、トリガに応答して(第2のデバイスによって表示されるコンテンツとともに)第2のデバイスの合成表現を表示することとを含む。いくつかの場合には、トリガは、第2のデバイスから受信された情報に基づく。1つの例示的な例では、第2のデバイスから受信された情報は、メッセージが第2のデバイスによって受信された(たとえば、新しいテキストメッセージまたは電子メールが受信された)という通知、第2のデバイスによって受信された入力(たとえば、第2のデバイスに提供されたユーザ入力)、および/または他の通知を含む。いくつかの場合には、トリガは、第2のデバイスがしきい値量を超えて移動されることに基づく。たとえば、第2のデバイスの加速度計または他のセンサーが、第2のデバイスの移動量を示す情報を提供することができる。いくつかの場合には、トリガは、(たとえば、6DOF追跡を使用して)第1のデバイスによって検出された、第2のデバイスに向けられたユーザの視線の検出に基づく。いくつかの場合には、トリガは、時間量に基づく。たとえば、(第2のデバイスによって表示されるコンテンツと一緒の)第2のデバイスの合成表現は、他のトリガが受信されていない場合、しきい値時間間隔ごとに(たとえば、5分ごとに、10分または他の好適な時間期間ごとに)仮想コンテンツとともに第1のデバイスによって表示され得る。いくつかの場合には、トリガは、仮想コンテンツとともに表示されるアイコンの選択に基づく。たとえば、ユーザは、ジェスチャー、視線、ボイスコマンド、および/または他の入力を使用して、アイコンを選択することができる。いくつかの例では、トリガは、ユーザによって提供されるボイス入力に基づく。たとえば、ユーザは、「私のモバイルデバイスを見せて」または他のフレーズを声に出して言うことができ、これは、第1のデバイスによって入力として受信され、第2のデバイスの合成表現を表示させるトリガとして解釈され得る。いくつかの例では、トリガは、ユーザが、モバイルデバイスを持ち上げること、および/または(たとえば、指紋入力を介して、ハードボタンを押すことによって、顔認識または顔識別(ID)を介して、またはデバイスをアンロックするための別の機構を使用して)モバイルデバイスをアンロックすることに基づく。
[0079] 第2のデバイスの合成表現は、様々な削除トリガに基づいて第1のデバイスによって表示から削除され得る。たとえば、ユーザは、第1のデバイスまたは第2のデバイスに、タッチ入力(たとえば、ユーザインターフェース上でのスワイプ入力)、ボイス入力、視線入力、ジェスチャー入力、および/または他の入力を提供することができ、これは、表示されているものから第2のデバイスの合成表現を削除するように第1のデバイスをトリガする、削除トリガとして第1のデバイスによって解釈され得る。別の例では、削除トリガは、ユーザが、特定のポイントに第2のデバイスを移動すること、または(たとえば、第2のデバイスの加速度計または他のセンサーによって検出される、デバイスを下げることによる)特定の動きを使用することに基づくことができ、第1のデバイスに表示から第2のデバイスの合成表現を削除させる。別の例では、第2のデバイスの合成表現は、第2のデバイスとの最後の対話からの時間量に基づいて削除され得る。たとえば、入力が第2のデバイスから受信されたときから、またはユーザが第2のデバイスの合成表現と対話したときから、しきい値時間量が過ぎた場合、合成表現は、表示から削除され得る。表示から第2のデバイスの合成表現を削除することの結果として、仮想コンテンツは、第2のデバイスの合成表現なしに表示される。
[0080] 図10は、仮想コンテンツを表示するためのプロセス1000の別の例を示すフローチャートである。ブロック1002において、プロセス1000は、第1のデバイスによって、仮想現実コンテンツを表示することを含む。第1のデバイスは、図1~図5に示されている仮想現実(VR)ヘッドセット102など、VRヘッドセット(たとえば、HMDまたは他のタイプのVRヘッドセット)を含むことができる。
[0081] ブロック1004において、プロセス1000は、第1のデバイスによって、第2のデバイスによって表示されるコンテンツを取得することを含む。第2のデバイスは、図1~図4に示されているモバイルデバイス204など、モバイルデバイスを含むことができる。ブロック1006において、プロセス1000は、第1のデバイスによって、仮想コンテンツとともにコンテンツを表示することを含む。いくつかの場合には、コンテンツは、電子メールアプリケーション、メッセージングアプリケーション、ソーシャルネットワーキングアプリケーション、ビジネスアプリケーション、マップアプリケーション、および/または他の好適なアプリケーションなど、第2のデバイスによって実行される少なくとも1つのアプリケーションからの情報を含む。いくつかの例では、コンテンツは、仮想コンテンツ上にオーバーレイされる。たとえば、例示的な例として図3を使用して、モバイルデバイス204によって表示されるコンテンツは、仮想コンテンツのフレーム310上に仮想コンテンツ317として表示される。いくつかの例では、第2のデバイスの合成表現が、仮想コンテンツ上にオーバーレイされ、コンテンツは、(たとえば、図2に示されているように)第2のデバイスの合成表現とともに表示され得る。
[0082] いくつかの場合には、プロセス1000は、第2のデバイスによって処理された1つまたは複数の入力の指示に基づいて、第2のデバイスのコンテンツの変更を表示することを含むことができる。コンテンツの変更は、第2のデバイスの機能の変更を表現する。たとえば、ユーザは、第2のデバイスに1つまたは複数の機能(たとえば、特に、メッセージングアプリケーションを使用してテキストメッセージを送る、ソーシャルネットワーキングアプリケーションを使用してソーシャルネットワーキングアカウントにメッセージをポスティングする、電子メールを送る)を実施させるために、第2のデバイス(たとえば、モバイルデバイス)と対話することができる。第2のデバイスの機能の変更に基づいて第2のデバイスによって表示されるコンテンツの変更も、第2のデバイスの機能の変更を表現するコンテンツの変更として表示され得る。
[0083] いくつかの例では、プロセス1000は、第1のデバイスによって受信された入力に基づいて、第2のデバイスのコンテンツの変更を表示することを含むことができる。第2のデバイスのコンテンツの変更は、第2のデバイスの機能の変更を表現する。たとえば、ユーザは、第2のデバイスに1つまたは複数の機能(たとえば、特に、メッセージングアプリケーションを使用してテキストメッセージを送る、ソーシャルネットワーキングアプリケーションを使用してソーシャルネットワーキングアカウントにメッセージをポスティングする、電子メールを送る)を実施させるために、第1のデバイス(たとえば、VRヘッドセット)と対話することができる。第2のデバイスの機能の変更に基づいて第2のデバイスによって表示されるコンテンツの変更も、第2のデバイスの機能の変更を表現する第2のデバイスのコンテンツの変更として表示され得る。
[0084] いくつかの例では、プロセス1000は、トリガを検出することと、トリガに応答して仮想コンテンツとともにコンテンツを表示することとを含む。いくつかの場合には、トリガは、第2のデバイスから受信された情報に基づく。1つの例示的な例では、第2のデバイスから受信された情報は、メッセージが第2のデバイスによって受信された(たとえば、新しいテキストメッセージまたは電子メールが受信された)という通知、第2のデバイスによって受信された入力(たとえば、第2のデバイスに提供されたユーザ入力)、および/または他の通知を含む。いくつかの場合には、トリガは、第2のデバイスがしきい値量を超えて移動されることに基づく。たとえば、第2のデバイスの加速度計または他のセンサーが、第2のデバイスの移動量を示す情報を提供することができる。いくつかの場合には、トリガは、第1のデバイスによって検出された、第2のデバイスに向けられたユーザの視線の検出に基づく。いくつかの場合には、トリガは、時間量に基づく。たとえば、第2のデバイスからのコンテンツは、他のトリガが受信されていない場合、しきい値時間間隔ごとに(たとえば、5分ごとに、10分または他の好適な時間期間ごとに)仮想コンテンツとともに第1のデバイスによって表示され得る。いくつかの場合には、トリガは、仮想コンテンツとともに表示されるアイコンの選択に基づく。たとえば、ユーザは、ジェスチャー、視線、ボイスコマンド、および/または他の入力を使用して、アイコンを選択することができる。いくつかの例では、トリガは、ユーザによって提供されるボイス入力に基づく。たとえば、ユーザは、「私のモバイルデバイスを見せて」または他のフレーズを声に出して言うことができ、これは、第1のデバイスによって入力として受信され、第2のデバイスによって表示されるコンテンツを表示させるトリガとして解釈され得る。いくつかの例では、トリガは、ユーザが、モバイルデバイスを持ち上げること、および/または(たとえば、指紋入力を介して、ハードボタンを押すことによって、顔認識または顔識別(ID)を介して、またはデバイスをアンロックするための別の機構を使用して)モバイルデバイスをアンロックすることに基づく。
[0085] 第2のデバイスによって表示されるコンテンツは、様々な削除トリガに基づいて第1のデバイスによって表示から削除され得る。たとえば、ユーザは、第1のデバイスまたは第2のデバイスに、タッチ入力(たとえば、ユーザインターフェース上でのスワイプ入力)、ボイス入力、視線入力、ジェスチャー入力、および/または他の入力を提供することができ、これは、第1のデバイス上に表示されているものから、第2のデバイスによって表示されるコンテンツを削除するように第1のデバイスをトリガする、削除トリガとして第1のデバイスによって解釈され得る。別の例では、削除トリガは、ユーザが、特定のポイントに第2のデバイスを移動すること、または(たとえば、第2のデバイスの加速度計または他のセンサーによって検出される、デバイスを下げることによる)特定の動きを使用することに基づくことができる。別の例では、第2のデバイスによって表示されるコンテンツは、第2のデバイスとの最後の対話からの時間量に基づいて削除され得る。たとえば、入力が第2のデバイスから受信されたときから、または、ユーザが、第1のデバイスによって表示されている第2のデバイスからのコンテンツと対話したときから、しきい値時間量が過ぎた場合、第2のデバイスによって表示されるコンテンツは、第1のデバイス上の表示から削除され得る。表示から第2のデバイスによって表示されるコンテンツを削除することの結果として、仮想コンテンツは、第2のデバイスによって表示されるコンテンツなしに表示される。
[0086] 図11は、仮想コンテンツを表示するためのプロセス1100の別の例を示すフローチャートである。ブロック1102において、プロセス1100は、第1のデバイスによって、仮想現実コンテンツを表示することを含む。第1のデバイスは、図1~図5に示されている仮想現実(VR)ヘッドセット102など、VRヘッドセット(たとえば、HMDまたは他のタイプのVRヘッドセット)を含むことができる。
[0087] ブロック1104において、プロセス1100は、第1のデバイスによって、第2のデバイスのカメラによってキャプチャされた1つまたは複数の画像を取得することを含む。第2のデバイスは、図1~図4に示されているモバイルデバイス204など、モバイルデバイスを含むことができる。ブロック1106において、プロセス1100は、第1のデバイスによって、仮想コンテンツとともに1つまたは複数の画像を表示することを含む。いくつかの例では、1つまたは複数の画像は、仮想コンテンツ上にオーバーレイされる。たとえば、例示的な例として図4を使用して、モバイルデバイス204によってキャプチャされた画像418が、仮想コンテンツフレーム410とともに表示される。いくつかの例では、1つまたは複数の画像は、第2のデバイスのカメラによってキャプチャされたビデオを含む。いくつかの例では、1つまたは複数の画像は、第2のデバイスのカメラによってキャプチャされた少なくとも1つの静止画像を含む。
[0088] いくつかの実装形態では、プロセス1100は、第1のデバイスを使用して、仮想コンテンツとともに第2のデバイスの合成表現を表示することを含む。1つまたは複数の画像は、第2のデバイスの合成表現の一部として仮想コンテンツとともに表示され得る。たとえば、1つまたは複数の画像は、第2のデバイスのディスプレイの合成表現内に表示され得る。説明の目的で図4を使用する一例では、モバイルデバイス204の合成表現414が、モバイルデバイス204の実際のディスプレイを表現するディスプレイの合成表現において表示される画像418とともに示されている。
[0089] いくつかの例では、プロセス900、1000、および/または1100は、図12に示されているコンピューティングデバイスアーキテクチャ1200を有するコンピューティングデバイスなど、コンピューティングデバイスまたは装置によって実施され得る。1つの例示的な例では、(たとえば、プロセス900、1000、および/または1100を実施する)コンピューティングデバイスは、ヘッドマウントディスプレイ(HMD)または他のタイプのXRヘッドセットなど、エクステンデッドリアリティディスプレイデバイスを含むことができる。
[0090] いくつかの場合には、コンピューティングデバイスまたは装置は、プロセス900、1000、および/または1100のステップを行うように構成された、入力デバイス、出力デバイス、1つまたは複数のプロセッサ、1つまたは複数のマイクロプロセッサ、1つまたは複数のマイクロコンピュータ、および/または(1つまたは複数の)他の構成要素を含み得る。コンピューティングデバイスの構成要素(たとえば、1つまたは複数のプロセッサ、1つまたは複数のマイクロプロセッサ、1つまたは複数のマイクロコンピュータ、および/または他の構成要素)は、回路において実装され得る。たとえば、構成要素は、本明細書で説明される様々な動作を実施するために、1つまたは複数のプログラマブル電子回路(たとえば、マイクロプロセッサ、グラフィックス処理ユニット(GPU)、デジタル信号プロセッサ(DSP)、中央処理ユニット(CPU)、および/または他の好適な電子回路)を含むことができる、電子回路もしくは他の電子ハードウェアを含むことができ、および/またはそれらを使用して実装され得、ならびに/あるいは、コンピュータソフトウェア、ファームウェア、もしくはそれらの任意の組合せを含むことができ、および/またはそれらを使用して実装され得る。コンピューティングデバイスは、(出力デバイスの一例として、または出力デバイスに加えて)ディスプレイ、データを通信および/または受信するように構成されたネットワークインターフェース、それらの任意の組合せ、ならびに/あるいは(1つまたは複数の)他の構成要素をさらに含み得る。ネットワークインターフェースは、インターネットプロトコル(IP)ベースのデータまたは他のタイプのデータを通信および/または受信するように構成され得る。
[0091] プロセス900、1000、および/または1100は、論理流れ図として示されており、その動作は、ハードウェア、コンピュータ命令、またはそれらの組合せにおいて実施され得る動作のシーケンスを表現する。コンピュータ命令のコンテキストでは、動作は、1つまたは複数のプロセッサによって実行されたとき、具陳された動作を実施する1つまたは複数のコンピュータ可読記憶媒体(computer-readable storage medium)に記憶されたコンピュータ実行可能命令を表現する。概して、コンピュータ実行可能命令は、特定の機能を実施するか、または特定のデータタイプを実装する、ルーチン、プログラム、オブジェクト、構成要素、データ構造などを含む。動作が説明される順序は、限定として解釈されるものではなく、任意の数の説明される動作は、プロセスを実装するために任意の順序でおよび/または並行して組み合わせられ得る。
[0092] さらに、プロセス900、1000、および/または1100は、実行可能命令で構成された1つまたは複数のコンピュータシステムの制御下で実施され得、まとめて1つまたは複数のプロセッサ上で、ハードウェアによって、またはそれらの組合せで実行するコード(たとえば、実行可能命令、1つまたは複数のコンピュータプログラム、または1つまたは複数のアプリケーション)として実装され得る。上述のように、コードは、たとえば、1つまたは複数のプロセッサによって実行可能な複数の命令を備えるコンピュータプログラムの形態で、コンピュータ可読または機械可読記憶媒体に記憶され得る。コンピュータ可読または機械可読記憶媒体は非一時的であり得る。
[0093] 図12は、本明細書で説明される様々な技法を実装することができる例示的なコンピューティングデバイスの例示的なコンピューティングデバイスアーキテクチャ1200を示す。バスなどの接続1205を使用して互いと電気通信している、コンピューティングデバイスアーキテクチャ1200の構成要素が示されている。例示的なコンピューティングデバイスアーキテクチャ1200は、処理ユニット(CPUまたはプロセッサ)1210とコンピューティングデバイス接続1205とを含み、コンピューティングデバイス接続1205は、読取り専用メモリ(ROM)1220およびランダムアクセスメモリ(RAM)1225など、コンピューティングデバイスメモリ1215を含む様々なコンピューティングデバイス構成要素を、プロセッサ1210に結合する。
[0094] コンピューティングデバイスアーキテクチャ1200は、プロセッサ1210と直接接続された、プロセッサ1210に極めて近接した、またはプロセッサ1210の一部として統合された、高速メモリのキャッシュを含むことができる。コンピューティングデバイスアーキテクチャ1200は、プロセッサ1210による迅速なアクセスのために、メモリ1215および/または記憶デバイス1230からキャッシュ1212にデータをコピーすることができる。このようにして、キャッシュは、データを待機する間のプロセッサ1210遅延を回避する性能の向上を提供することができる。これらのモジュールおよび他のモジュールは、様々なアクションを実施するために、プロセッサ1210を制御することができ、またはプロセッサ1210を制御するように構成され得る。他のコンピューティングデバイスメモリ1215も、使用のために利用可能であり得る。メモリ1215は、異なる性能特性をもつ、複数の異なるタイプのメモリを含むことができる。プロセッサ1210は、任意の汎用プロセッサ、ならびに、プロセッサ1210を制御するように構成された、記憶デバイス1230に記憶されたサービス1 1232、サービス2 1234、およびサービス3 1236などの、ハードウェアまたはソフトウェアサービス、ならびにソフトウェア命令がプロセッサ設計に組み込まれる専用プロセッサを含むことができる。プロセッサ1210は、複数のコアまたはプロセッサと、バスと、メモリコントローラと、キャッシュなどとを含んでいる、自己完結型システムであり得る。マルチコアプロセッサは、対称的または非対称的であり得る。
[0095] コンピューティングデバイスアーキテクチャ1200とのユーザ対話を可能にするために、入力デバイス1245は、音声のためのマイクロフォン、ジェスチャーまたはグラフィカル入力のためのタッチセンシティブスクリーン、キーボード、マウス、動き入力、音声など、任意の数の入力機構を表現することができる。出力デバイス1235も、ディスプレイ、プロジェクタ、テレビジョン、スピーカーデバイスなど、当業者に知られているいくつかの出力機構のうちの1つまたは複数であり得る。いくつかの事例では、マルチモーダルコンピューティングデバイスは、ユーザが、コンピューティングデバイスアーキテクチャ1200と通信するために複数のタイプの入力を提供することを可能にすることができる。通信インターフェース1240は、概して、ユーザ入力およびコンピューティングデバイス出力を統制および管理することができる。任意の特定のハードウェア構成上で動作することに対する制限はなく、したがって、ここでの基本的特徴は、改善されたハードウェア構成またはファームウェア構成が開発されるにつれて、それらで容易に代用され得る。
[0096] 記憶デバイス1230は、不揮発性メモリであり、磁気カセット、フラッシュメモリカード、固体メモリデバイス、デジタル多用途ディスク、カートリッジ、ランダムアクセスメモリ(RAM)1225、読取り専用メモリ(ROM)1220、およびそれらのハイブリッドなど、コンピュータによってアクセス可能であるデータを記憶することができるハードディスクまたは他のタイプのコンピュータ可読媒体であり得る。記憶デバイス1230は、プロセッサ1210を制御するためのサービス1232、1234、1236を含むことができる。他のハードウェアモジュールまたはソフトウェアモジュールが企図される。記憶デバイス1230は、コンピューティングデバイス接続1205に接続され得る。一態様では、特定の機能を実施するハードウェアモジュールは、その機能を行うために、プロセッサ1210、接続1205、出力デバイス1235など、必要なハードウェア構成要素に関して、コンピュータ可読媒体に記憶されたソフトウェア構成要素を含むことができる。
[0097] 本開示の技法は、必ずしもワイヤレス適用例または設定に限定されるとは限らない。本技法は、オーバージエアテレビジョン放送、ケーブルテレビジョン送信、衛星テレビジョン送信、動的適応ストリーミングオーバーHTTP(DASH)などのインターネットストリーミングビデオ送信、データ記憶媒体上に符号化されたデジタルビデオ、データ記憶媒体に記憶されたデジタルビデオの復号、または他の適用例など、様々なマルチメディア適用例のいずれかをサポートするビデオコーディングに適用され得る。いくつかの例では、システムは、ビデオストリーミング、ビデオ再生、ビデオブロードキャスティング、および/またはビデオテレフォニーなどの適用例をサポートするために、一方向または双方向のビデオ送信をサポートするように構成され得る。
[0098] 本明細書で使用される「コンピュータ可読媒体」という用語は、限定はしないが、ポータブルまたは非ポータブル記憶デバイス、光記憶デバイス、ならびに(1つまたは複数の)命令および/またはデータを記憶、含有、または担持することが可能な様々な他の媒体を含む。コンピュータ可読媒体は、データがそこに記憶され得る非一時的媒体を含み得、それは、ワイヤレスにまたはワイヤード接続を介して伝搬する搬送波および/または一時的電子信号を含まない。非一時的媒体の例は、限定はしないが、磁気ディスクまたはテープ、コンパクトディスク(CD)またはデジタル多用途ディスク(DVD)などの光記憶媒体、フラッシュメモリ、メモリまたはメモリデバイスを含み得る。コンピュータ可読媒体は、プロシージャ、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラス、あるいは命令、データ構造、またはプログラムステートメントの任意の組合せを表現し得るコードおよび/または機械実行可能命令をその上に記憶していることがある。コードセグメントは、情報、データ、引数、パラメータ、またはメモリ内容をパスおよび/または受信することによって、別のコードセグメントまたはハードウェア回路に結合され得る。情報、引数、パラメータ、データなどは、メモリ共有、メッセージパッシング、トークンパッシング、ネットワーク送信などを含む、任意の好適な手段を介してパス、フォワーディング、または送信され得る。
[0099] いくつかの実施形態では、コンピュータ可読記憶デバイス、媒体、およびメモリは、ビットストリームなどを含んでいるケーブル信号またはワイヤレス信号を含むことができる。しかしながら、述べられるとき、非一時的コンピュータ可読記憶媒体は、エネルギー、キャリア信号、電磁波、および信号自体などの媒体を明確に除外する。
[0100] 本明細書で提供される実施形態および例の完全な理解を与えるために、具体的な詳細が上記の説明で与えられる。ただし、実施形態はこれらの具体的な詳細なしに実施され得ることを当業者は理解されよう。説明の明快のために、いくつかの事例では、本技術は、デバイス、デバイス構成要素、ソフトウェアで具現される方法におけるステップまたはルーチン、あるいはハードウェアとソフトウェアとの組合せを備える機能ブロックを含む個々の機能ブロックを含むものとして提示され得る。図に示されているおよび/または本明細書で説明される構成要素以外の追加の構成要素が使用され得る。たとえば、回路、システム、ネットワーク、プロセス、および他の構成要素は、実施形態を不要な詳細で不明瞭にしないためにブロック図の形態で構成要素として示され得る。他の事例では、実施形態を不明瞭にすることを回避するために、よく知られている回路、プロセス、アルゴリズム、構造、および技法が不要な詳細なしに示され得る。
[0101] 個々の実施形態は、フローチャート、流れ図、データフロー図、構造図、またはブロック図として示されるプロセスまたは方法として、上記で説明され得る。フローチャートは動作を逐次プロセスとして説明することがあるが、動作の多くは並行してまたは同時に実施され得る。さらに、動作の順序は並べ替えられ得る。それの動作が完了されるとき、プロセスは終了されるが、図中に含まれない追加のステップを有し得る。プロセスは、方法、関数、プロシージャ、サブルーチン、サブプログラムなどに対応し得る。プロセスが関数に対応するとき、それの終了は呼出し関数またはメイン関数への関数の復帰に対応することができる。
[0102] 上記で説明された例によるプロセスおよび方法は、記憶されるかまたはさもなければコンピュータ可読媒体から利用可能である、コンピュータ実行可能命令を使用して実装され得る。そのような命令は、たとえば、汎用コンピュータ、専用コンピュータ、または処理デバイスが、ある機能または機能のグループを実施することを引き起こすか、あるいはさもなければそれらを実施するように構成する、命令とデータとを含むことができる。使用されるコンピュータリソースの一部分が、ネットワークを介してアクセス可能であり得る。コンピュータ実行可能命令は、たとえば、バイナリ、アセンブリ言語などの中間フォーマット命令、ファームウェア、ソースコードなどであり得る。命令、使用される情報、および/または説明される例による方法中に作成される情報を記憶するために使用され得るコンピュータ可読媒体の例は、磁気または光ディスク、フラッシュメモリ、不揮発性メモリを備えたUSBデバイス、ネットワーク化された記憶デバイスなどを含む。
[0103] これらの開示によるプロセスおよび方法を実装するデバイスは、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、またはそれらの任意の組合せを含むことができ、様々なフォームファクタのいずれかをとることができる。ソフトウェア、ファームウェア、ミドルウェア、またはマイクロコードで実装されるとき、必要なタスクを実施するためのプログラムコードまたはコードセグメント(たとえば、コンピュータプログラム製品)は、コンピュータ可読または機械可読媒体に記憶され得る。(1つまたは複数の)プロセッサが、必要なタスクを実施し得る。フォームファクタの一般的な例は、ラップトップ、スマートフォン、モバイルフォン、タブレットデバイスまたは他のスモールフォームファクタパーソナルコンピュータ、携帯情報端末、ラックマウント(rackmount)デバイス、スタンドアロンデバイスなどを含む。本明細書で説明される機能はまた、周辺機器またはアドインカードで具現され得る。そのような機能はまた、さらなる例として、単一のデバイスにおいて実行する異なるチップまたは異なるプロセスの間で回路板上に実装され得る。
[0104] 命令、そのような命令を伝達するための媒体、それらを実行するためのコンピューティングリソース、およびそのようなコンピューティングリソースをサポートするための他の構造は、本開示で説明される機能を提供するための例示的な手段である。
[0105] 上記の説明では、本出願の態様がそれの特定の実施形態を参照しながら説明されたが、本出願はそれに限定されないことを、当業者は認識されよう。したがって、本出願の例示的な実施形態が本明細書で詳細に説明されているが、従来技術によって限定される場合を除いて、発明的概念が、場合によっては様々に実施および採用され得、添付の特許請求の範囲が、そのような変形形態を含むように解釈されるものであることを理解されたい。上記で説明された適用例の様々な特徴および態様は、個々にまたは一緒に使用され得る。さらに、実施形態は、本明細書のより広い趣旨および範囲から逸脱することなく、本明細書で説明された環境および適用例以外に、任意の数の環境および適用例において利用され得る。したがって、本明細書および図面は、限定的なものではなく例示的なものとして考慮されるべきである。説明の目的で、方法は特定の順序で説明された。代替実施形態では、方法は、説明された順序とは異なる順序で実施され得ることを諒解されたい。
[0106] 本明細書で使用される、よりも小さい(「<」)、および、よりも大きい(「>」)のシンボルまたは専門用語は、本明細書の範囲から逸脱することなく、それぞれ、よりも小さいかまたはそれに等しい(「≦」)、および、よりも大きいかまたはそれに等しい(「≧」)のシンボルと置き換えられ得ることを、当業者は諒解されよう。
[0107] 構成要素が、ある動作を実施する「ように構成されて」いるものとして説明される場合、そのような構成は、たとえば、動作を実施するように電子回路または他のハードウェアを設計することによって、動作を実施するようにプログラマブル電子回路(たとえば、マイクロプロセッサ、または他の好適な電子回路)をプログラムすることによって、またはそれらの任意の組合せによって、達成され得る。
[0108] 「に結合された」という句は、直接的にまたは間接的に、のいずれかで別の構成要素に物理的に接続された任意の構成要素、および/あるいは直接的にまたは間接的に、のいずれかで別の構成要素と通信している(たとえば、ワイヤードまたはワイヤレス接続および/あるいは他の好適な通信インターフェースを介して他の構成要素に接続された)任意の構成要素を指す。
[0109] セット「のうちの少なくとも1つ」、および/またはセットのうちの「1つまたは複数」を具陳するクレームの文言または他の文言は、セットのうちの1つのメンバーまたは(任意の組合せにおける)セットのうちの複数のメンバーがクレームを満たすことを示す。たとえば、「AおよびBのうちの少なくとも1つ」を具陳するクレームの文言は、A、B、またはAおよびBを意味する。別の例では、「A、B、およびCのうちの少なくとも1つ」を具陳するクレームの文言は、A、B、C、またはAおよびB、またはAおよびC、またはBおよびC、またはAおよびBおよびCを意味する。セット「のうちの少なくとも1つ」、および/またはセットのうちの「1つまたは複数」という文言は、セットを、セットに記載されている項目に限定しない。たとえば、「AおよびBのうちの少なくとも1つ」を具陳するクレームの文言は、A、B、またはAおよびBを意味することができ、さらに、AおよびBのセットに記載されていない項目を含むことができる。
[0110] 本明細書で開示される実施形態に関して説明された様々な例示的な論理ブロック、モジュール、回路、およびアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア、ファームウェア、またはそれらの組合せとして実装され得る。ハードウェアとソフトウェアのこの互換性を明確に示すために、様々な例示的な構成要素、ブロック、モジュール、回路、およびステップが、概してそれらの機能に関して上記で説明された。そのような機能がハードウェアとして実装されるのかソフトウェアとして実装されるのかは、特定の適用例および全体的なシステムに課される設計制約に依存する。当業者は、説明される機能を特定の適用例ごとに様々な方法で実装し得るが、そのような実装の決定は、本出願の範囲からの逸脱を生じるものと解釈されるべきではない。
[0111] 本明細書で説明された技法はまた、電子ハードウェア、コンピュータソフトウェア、ファームウェア、またはそれらの任意の組合せで実装され得る。そのような技法は、汎用コンピュータ、ワイヤレス通信デバイスハンドセット、またはワイヤレス通信デバイスハンドセットおよび他のデバイスにおける適用を含む複数の用途を有する集積回路デバイスなど、様々なデバイスのいずれかにおいて実装され得る。モジュールまたは構成要素として説明された特徴は、集積論理デバイスに一緒に、または個別であるが相互運用可能な論理デバイスとして別個に実装され得る。ソフトウェアで実装された場合、本技法は、実行されたとき、上記で説明された方法のうちの1つまたは複数を実施する命令を含むプログラムコードを備えるコンピュータ可読データ記憶媒体によって、少なくとも部分的に実現され得る。コンピュータ可読データ記憶媒体は、パッケージング材料を含み得るコンピュータプログラム製品の一部を形成し得る。コンピュータ可読媒体は、同期型ダイナミックランダムアクセスメモリ(SDRAM)などのランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、不揮発性ランダムアクセスメモリ(NVRAM)、電気消去可能プログラマブル読取り専用メモリ(EEPROM(登録商標))、フラッシュメモリ、磁気または光学データ記憶媒体など、メモリまたはデータ記憶媒体を備え得る。本技法は、追加または代替として、伝搬信号または電波など、命令またはデータ構造の形態でプログラムコードを搬送または伝達し、コンピュータによってアクセスされ、読み取られ、および/または実行され得るコンピュータ可読通信媒体によって、少なくとも部分的に実現され得る。
[0112] プログラムコードは、1つまたは複数のデジタル信号プロセッサ(DSP)、汎用マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブル論理アレイ(FPGA)、または他の等価の集積回路またはディスクリート論理回路など、1つまたは複数のプロセッサを含み得るプロセッサによって実行され得る。そのようなプロセッサは、本開示で説明された技法のいずれかを実施するように構成され得る。汎用プロセッサはマイクロプロセッサであり得るが、代替として、プロセッサは、任意の従来のプロセッサ、コントローラ、マイクロコントローラ、または状態機械であり得る。プロセッサはまた、コンピューティングデバイスの組合せ、たとえば、DSPとマイクロプロセッサとの組合せ、複数のマイクロプロセッサ、DSPコアと連携する1つまたは複数のマイクロプロセッサ、または任意の他のそのような構成として実装され得る。したがって、本明細書で使用される「プロセッサ」という用語は、上記の構造、上記の構造の任意の組合せ、あるいは本明細書で説明された技法の実装に好適な他の構造または装置のいずれかを指すことがある。さらに、いくつかの態様では、本明細書で説明された機能は、符号化および復号のために構成された専用のソフトウェアモジュールまたはハードウェアモジュール内に提供され得、あるいは複合ビデオエンコーダ/デコーダ(コーデック)に組み込まれ得る。

Claims (33)

  1. 第1のデバイスによって、仮想現実コンテンツを表示することと、
    前記第1のデバイスによって、第2のデバイスの合成表現を取得することと、
    前記第1のデバイスによって、前記仮想現実コンテンツとともに前記第2のデバイスの前記合成表現を表示することと、
    前記第1のデバイスによって、前記第2のデバイスの機能の変更を要求する入力を受信することと、
    前記第1のデバイスによって受信された前記入力に基づいて、前記第2のデバイスの前記合成表現の変更を表示することと、前記第2のデバイスの前記合成表現の前記変更が、前記第2のデバイスの機能の前記変更を表現する、
    を備える方法。
  2. 前記第2のデバイスの前記合成表現が、前記第2のデバイスのディスプレイの合成表現を含み、ここにおいて、前記第2のデバイスによって表示されるコンテンツが、前記第2のデバイスの前記ディスプレイの前記合成表現において表示される、請求項1に記載の方法。
  3. 前記第1のデバイスによって、前記第2のデバイスによって処理された1つまたは複数の入力の指示を受信することと、
    前記第2のデバイスによって処理された前記1つまたは複数の入力の前記指示に基づいて、前記第2のデバイスの前記合成表現の追加の変更を表示することと、前記第2のデバイスの前記合成表現の前記追加の変更が、前記第2のデバイスの機能の追加の変更を表現する、
    をさらに備える、請求項1に記載の方法。
  4. 前記第2のデバイスの前記合成表現が、前記仮想現実コンテンツ上にオーバーレイされる、請求項1に記載の方法。
  5. 前記第1のデバイスが、仮想現実ヘッドマウントディスプレイを含む、請求項1に記載の方法。
  6. 前記第2のデバイスが、モバイルデバイスを含む、請求項1に記載の方法。
  7. 前記第1のデバイスによって、前記第2のデバイスからオーディオコンテンツを取得することと、
    前記第1のデバイスによって、前記第2のデバイスからの前記オーディオコンテンツを再生することと
    をさらに備える、請求項1に記載の方法。
  8. 前記第1のデバイスによって、前記第2のデバイスのマイクロフォンによってキャプチャされたオーディオコンテンツを取得することと、
    前記第1のデバイスによって、前記オーディオコンテンツを再生することと
    をさらに備える、請求項1に記載の方法。
  9. 前記第1のデバイスによって、前記第2のデバイスのカメラによってキャプチャされた1つまたは複数の画像を取得することと、
    前記第1のデバイスによって、前記仮想現実コンテンツとともに前記1つまたは複数の画像を表示することと
    をさらに備える、請求項1に記載の方法。
  10. 前記1つまたは複数の画像が、前記第2のデバイスの前記カメラによってキャプチャされたビデオの一部である、請求項9に記載の方法。
  11. 前記1つまたは複数の画像が、前記第2のデバイスの前記合成表現の一部として前記仮想現実コンテンツとともに表示される、請求項9に記載の方法。
  12. 前記1つまたは複数の画像が、前記第2のデバイスのディスプレイの合成表現内に表示される、請求項9に記載の方法。
  13. 前記第1のデバイスによって、前記第2のデバイスのマイクロフォンによってキャプチャされたオーディオコンテンツを取得することと、
    前記第1のデバイスによって、前記仮想現実コンテンツとともに前記1つまたは複数の画像を表示する間、前記オーディオコンテンツを再生することと
    をさらに備える、請求項9に記載の方法。
  14. トリガを受信することと、
    前記トリガを受信したことに基づいて、前記仮想現実コンテンツとともに前記第2のデバイスの前記合成表現を表示することと
    をさらに備える、請求項1に記載の方法。
  15. 前記トリガが、前記第2のデバイスから受信された情報に基づく、請求項14に記載の方法。
  16. 削除トリガを受信することと、
    前記トリガを受信したことに基づいて、前記第1のデバイスによって、表示から前記第2のデバイスの前記合成表現を削除することと
    をさらに備える、請求項1に記載の方法。
  17. 表示のためのコンテンツを記憶するように構成されたメモリ、
    回路において実装され、前記メモリに結合された1つまたは複数のプロセッサ
    を備える装置であって、前記1つまたは複数のプロセッサは、
    仮想現実コンテンツをディスプレイ上に表示させることと、
    デバイスの合成表現を取得することと、
    前記デバイスの前記合成表現を前記ディスプレイ上に前記仮想現実コンテンツとともに表示させることと、
    前記デバイスの機能の変更を要求する入力を受信することと、
    前記受信された入力に基づいて、前記デバイスの前記合成表現の変更を前記ディスプレイ上に表示させることと、前記デバイスの前記合成表現の前記変更が、前記デバイスの機能の前記変更を表現する、
    を行うように構成された、装置。
  18. 前記デバイスの前記合成表現が、前記デバイスのディスプレイの合成表現を含み、ここにおいて、前記デバイスによって表示されるコンテンツが、前記デバイスの前記ディスプレイの前記合成表現において表示される、請求項17に記載の装置。
  19. 前記1つまたは複数のプロセッサは、
    前記デバイスによって処理された1つまたは複数の入力の指示を受信することと、
    前記デバイスによって処理された前記1つまたは複数の入力の前記指示に基づいて、前記デバイスの前記合成表現の追加の変更を前記ディスプレイ上に表示させることと、前記デバイスの前記合成表現の前記追加の変更が、前記デバイスの機能の追加の変更を表現する、
    を行うように構成された、請求項17に記載の装置。
  20. 前記デバイスの前記合成表現が、前記仮想現実コンテンツ上にオーバーレイされる、請求項17に記載の装置。
  21. 前記装置が、仮想現実ヘッドマウントディスプレイを含み、前記仮想現実ヘッドマウントディスプレイが、前記ディスプレイを含む、請求項17に記載の装置。
  22. 前記デバイスが、モバイルデバイスを含む、請求項17に記載の装置。
  23. 前記1つまたは複数のプロセッサが、
    前記デバイスからオーディオコンテンツを取得することと、
    前記デバイスからの前記オーディオコンテンツを再生することと
    を行うように構成された、請求項17に記載の装置。
  24. 前記1つまたは複数のプロセッサが、
    前記デバイスのマイクロフォンによってキャプチャされたオーディオコンテンツを取得することと、
    前記オーディオコンテンツを再生することと
    を行うように構成された、請求項17に記載の装置。
  25. 前記1つまたは複数のプロセッサが、
    前記デバイスのカメラによってキャプチャされた1つまたは複数の画像を取得することと、
    前記1つまたは複数の画像を前記仮想現実コンテンツとともに表示させることと
    を行うように構成された、請求項17に記載の装置。
  26. 前記1つまたは複数の画像が、前記デバイスの前記カメラによってキャプチャされたビデオの一部である、請求項25に記載の装置。
  27. 前記1つまたは複数の画像が、前記デバイスの前記合成表現の一部として前記仮想現実コンテンツとともに表示される、請求項25に記載の装置。
  28. 前記1つまたは複数の画像が、前記デバイスのディスプレイの合成表現内に表示される、請求項25に記載の装置。
  29. 前記1つまたは複数のプロセッサは、
    前記デバイスのマイクロフォンによってキャプチャされたオーディオコンテンツを取得することと、
    前記1つまたは複数の画像が前記仮想現実コンテンツとともに表示される間、前記オーディオコンテンツを再生することと
    を行うように構成された、請求項25に記載の装置。
  30. 前記1つまたは複数のプロセッサが、
    トリガを受信することと、
    前記トリガを受信したことに基づいて、前記デバイスの前記合成表現を前記仮想現実コンテンツとともに表示させることと
    を行うように構成された、請求項17に記載の装置。
  31. 前記トリガが、前記デバイスから受信された情報に基づく、請求項30に記載の装置。
  32. 前記1つまたは複数のプロセッサが、
    削除トリガを受信することと、
    前記トリガを受信したことに基づいて、前記デバイスの前記合成表現を前記ディスプレイによる表示から削除させることと
    を行うように構成された、請求項17に記載の装置。
  33. 命令を記憶するコンピュータ可読記憶媒体であって、前記命令は、実行されたとき、第1のデバイスの1つまたは複数のプロセッサに、
    仮想現実コンテンツを前記第1のデバイスによって表示させることと、
    前記第1のデバイスによって、第2のデバイスの合成表現を取得することと、
    前記第2のデバイスの前記合成表現を前記仮想現実コンテンツとともに表示させることと、
    前記第1のデバイスによって、前記第2のデバイスの機能の変更を要求する入力を受信することと、
    前記第1のデバイスによって受信された前記入力に基づいて、前記第2のデバイスの前記合成表現の変更を前記第1のデバイスによって表示させることと、前記第2のデバイスの前記合成表現の前記変更が、前記第2のデバイスの機能の前記変更を表現する、
    を行わせる、コンピュータ可読記憶媒体。
JP2022505614A 2019-08-03 2020-06-15 コンピューティングデバイスとエクステンデッドリアリティとの統合 Pending JP2022542295A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962882488P 2019-08-03 2019-08-03
US62/882,488 2019-08-03
US16/741,617 US11231827B2 (en) 2019-08-03 2020-01-13 Computing device and extended reality integration
US16/741,617 2020-01-13
PCT/US2020/037817 WO2021025787A1 (en) 2019-08-03 2020-06-15 Computing device and extended reality integration

Publications (2)

Publication Number Publication Date
JP2022542295A true JP2022542295A (ja) 2022-09-30
JPWO2021025787A5 JPWO2021025787A5 (ja) 2023-05-24

Family

ID=74258701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022505614A Pending JP2022542295A (ja) 2019-08-03 2020-06-15 コンピューティングデバイスとエクステンデッドリアリティとの統合

Country Status (7)

Country Link
US (1) US11231827B2 (ja)
EP (1) EP4007947A1 (ja)
JP (1) JP2022542295A (ja)
KR (1) KR20220038689A (ja)
CN (1) CN114207559A (ja)
BR (1) BR112022001190A2 (ja)
WO (1) WO2021025787A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200093922A (ko) * 2019-01-29 2020-08-06 삼성전자주식회사 전자 장치의 외부 전자 장치를 제어하는 방법, 전자 장치 및 저장 매체
US11340756B2 (en) 2019-09-27 2022-05-24 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11449189B1 (en) * 2019-10-02 2022-09-20 Facebook Technologies, Llc Virtual reality-based augmented reality development system
US20210286502A1 (en) * 2020-03-16 2021-09-16 Apple Inc. Devices, Methods, and Graphical User Interfaces for Providing Computer-Generated Experiences
KR20220014213A (ko) * 2020-07-28 2022-02-04 삼성전자주식회사 전자 장치 및 오디오 볼륨 제어 방법
US11567625B2 (en) 2020-09-24 2023-01-31 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
US11615596B2 (en) * 2020-09-24 2023-03-28 Apple Inc. Devices, methods, and graphical user interfaces for interacting with three-dimensional environments
CN113784105A (zh) * 2021-09-10 2021-12-10 上海曼恒数字技术股份有限公司 一种沉浸式vr终端的信息处理方法及系统
US11960652B2 (en) * 2021-10-12 2024-04-16 Qualcomm Incorporated User interactions with remote devices
KR20230067197A (ko) * 2021-11-09 2023-05-16 삼성전자주식회사 전자 장치와 웨어러블 전자 장치 사이에서 증강 현실 서비스에 관련된 컨텐츠를 제공하는 방법 및 장치
EP4339873A4 (en) 2021-11-09 2024-05-01 Samsung Electronics Co Ltd METHOD AND APPARATUS FOR PROVIDING CONTENT RELATED TO AN AUGMENTED REALITY SERVICE BETWEEN AN ELECTRONIC DEVICE AND A PORTABLE ELECTRONIC DEVICE
US11726734B2 (en) 2022-01-13 2023-08-15 Motorola Mobility Llc Configuring an external presentation device based on an impairment of a user
TWI818613B (zh) * 2022-07-01 2023-10-11 國立臺北科技大學 非對稱式vr遠端醫療協作指導系統及訓練方法
WO2024049175A1 (ko) * 2022-09-01 2024-03-07 삼성전자 주식회사 Hmd(head mounted display) 장치를 착용 중, 디스플레이 방법 및 그 장치

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103713886B (zh) * 2012-09-29 2017-11-10 腾讯科技(深圳)有限公司 一种数据处理设备中的提醒装置及其提醒处理方法
KR102243656B1 (ko) * 2014-09-26 2021-04-23 엘지전자 주식회사 모바일 디바이스, hmd 및 시스템
KR102358548B1 (ko) * 2014-10-15 2022-02-04 삼성전자주식회사 디바이스를 이용한 화면 처리 방법 및 장치
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
US10102674B2 (en) * 2015-03-09 2018-10-16 Google Llc Virtual reality headset connected to a mobile computing device
US10338673B2 (en) * 2015-09-16 2019-07-02 Google Llc Touchscreen hover detection in an augmented and/or virtual reality environment
US10157039B2 (en) * 2015-10-05 2018-12-18 Motorola Mobility Llc Automatic capturing of multi-mode inputs in applications
US10812755B2 (en) * 2015-10-14 2020-10-20 Utility Associates, Inc. Article of clothing with video recording device support
EP3236423A1 (en) 2016-04-22 2017-10-25 Thomson Licensing Method and device for compositing an image
US10692113B2 (en) 2016-06-21 2020-06-23 Htc Corporation Method for providing customized information through advertising in simulation environment, and associated simulation system
US10802787B2 (en) 2016-09-30 2020-10-13 Sony Interactive Entertainment Inc. Integrating audience participation content into virtual reality content
US20180095542A1 (en) * 2016-09-30 2018-04-05 Sony Interactive Entertainment Inc. Object Holder for Virtual Reality Interaction
KR20180044687A (ko) 2016-10-24 2018-05-03 엘지전자 주식회사 Hmd 디바이스
US10595012B2 (en) 2016-12-02 2020-03-17 Google Llc Representations of event notifications in virtual reality
GB2555501B (en) * 2017-05-04 2019-08-28 Sony Interactive Entertainment Europe Ltd Head mounted display and method
US10754496B2 (en) 2017-08-24 2020-08-25 Microsoft Technology Licensing, Llc Virtual reality input
US10750162B2 (en) 2017-09-11 2020-08-18 Google Llc Switchable virtual reality headset and augmented reality device
US11176956B2 (en) * 2018-03-28 2021-11-16 Qualcomm Incorproated Application directed latency control for wireless audio streaming
US10740924B2 (en) * 2018-04-16 2020-08-11 Microsoft Technology Licensing, Llc Tracking pose of handheld object

Also Published As

Publication number Publication date
TW202107249A (zh) 2021-02-16
KR20220038689A (ko) 2022-03-29
US11231827B2 (en) 2022-01-25
BR112022001190A2 (pt) 2022-03-15
US20210034222A1 (en) 2021-02-04
WO2021025787A1 (en) 2021-02-11
EP4007947A1 (en) 2022-06-08
CN114207559A (zh) 2022-03-18

Similar Documents

Publication Publication Date Title
US11231827B2 (en) Computing device and extended reality integration
CN107005739B (zh) 用于基于语音的设备的外部视觉交互
KR102358939B1 (ko) 시선 추적 방법 및 디바이스에서의 시각적 변경의 비시각적 피드백
CN108604175B (zh) 装置和关联方法
US20180321798A1 (en) Information processing apparatus and operation reception method
CN109407822B (zh) 协作虚拟现实的防恶心和视频流式传输技术
CN110636324A (zh) 界面显示方法、装置、计算机设备及存储介质
JP6273347B2 (ja) 頭部装着式ディスプレイに画像を表示するための方法および装置
WO2020186988A1 (zh) 资讯的展示方法、装置、终端及存储介质
CN109407821B (zh) 与虚拟现实视频的协作交互
KR20150047006A (ko) 데이터 전송 방법, 데이터 수신 방법, 및 디바이스
US20190320138A1 (en) Real-world awareness for virtual reality
EP4044606B1 (en) View adjustment method and apparatus for target device, electronic device, and medium
CN112527222A (zh) 一种信息处理方法及电子设备
CN112527174A (zh) 一种信息处理方法及电子设备
CN112105983A (zh) 增强的视觉能力
US20220303503A1 (en) Parameters for overlay handling for immersive teleconferencing and telepresence for remote terminals
US10126827B2 (en) Apparatus and method to navigate media content using repetitive 3D gestures
KR20160074234A (ko) 디스플레이 장치 및 디스플레이 장치의 콘텐트 출력 제어방법
TWI839532B (zh) 計算裝置及延伸實境整合
CN116490250A (zh) 环境的非对称呈现
US11796959B2 (en) Augmented image viewing with three dimensional objects
CN113342440A (zh) 一种拼屏方法、装置、电子设备和存储介质
US11886625B1 (en) Method and device for spatially designating private content
US20230095282A1 (en) Method And Device For Faciliating Interactions With A Peripheral Device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230515

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230515

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240423