JP2022518105A - 人工現実に基づくユーザグループ - Google Patents
人工現実に基づくユーザグループ Download PDFInfo
- Publication number
- JP2022518105A JP2022518105A JP2021530093A JP2021530093A JP2022518105A JP 2022518105 A JP2022518105 A JP 2022518105A JP 2021530093 A JP2021530093 A JP 2021530093A JP 2021530093 A JP2021530093 A JP 2021530093A JP 2022518105 A JP2022518105 A JP 2022518105A
- Authority
- JP
- Japan
- Prior art keywords
- user
- environmental feature
- input
- location
- artificial reality
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007613 environmental effect Effects 0.000 claims abstract description 109
- 238000000034 method Methods 0.000 claims abstract description 48
- 230000015654 memory Effects 0.000 claims description 19
- 230000001815 facial effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 6
- 230000006855 networking Effects 0.000 description 15
- 230000005236 sound signal Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 238000003860 storage Methods 0.000 description 9
- 210000003128 head Anatomy 0.000 description 7
- 238000012546 transfer Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 210000000613 ear canal Anatomy 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 2
- 235000017899 Spathodea campanulata Nutrition 0.000 description 2
- 235000019013 Viburnum opulus Nutrition 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000008713 feedback mechanism Effects 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 229910052744 lithium Inorganic materials 0.000 description 2
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 210000000845 cartilage Anatomy 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000000883 ear external Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000021317 sensory perception Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 210000003454 tympanic membrane Anatomy 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/157—Conference systems defining a virtual conference space and using avatars or agents
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/02—Services making use of location information
- H04W4/029—Location-based management or tracking services
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Architecture (AREA)
- Computing Systems (AREA)
- Geometry (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
開示されるコンピュータ実装方法は、第1のユーザの第1の環境を検出する第1の人工現実デバイスから第1の入力を受信することと、第1の入力に基づいて第1の環境の第1の環境特徴を決定することとを含み得る。本方法は、第2のユーザの第2の環境を検出する第2の人工現実デバイスから第2の入力を受信することと、第2の入力に基づいて第2の環境の第2の環境特徴を決定することとを含み得る。本方法は、第1の環境特徴を第2の環境特徴と比較することと、比較に基づいて、第1のユーザと第2のユーザとをオンライン対話のためのグループに含めることとを含み得る。様々な他の方法、システム、およびコンピュータ可読媒体も開示される。【選択図】図3
Description
ソーシャルネットワークなどのネットワークアプリケーションプラットフォームは、様々なやり方でユーザが接続し対話することを可能にし得る。たとえば、ソーシャルネットワーク上で、ユーザがコンテンツを投稿し、他のユーザがその投稿に対してコメントまたは返答することを可能にし得る。別の例として、ユーザは、ソーシャルネットワークのチャット特徴(feature)上のダイアログに関与し得る。ユーザをリンクするこれらの対話は、ユーザグループを定義するための基礎を提供し得る。定義されると、次いで、ユーザグループのメンバーが、グループの他のメンバーを、ソーシャルネットワークからローンチされ得る、ビデオゲームなどの特定のアクティビティに招待し得る。残念ながら、オンライン対話に基づいてグループを作成することは、かなり限定され得、ユーザが現実世界においてどのように対話し、集まり得るかを十分に考慮するとは限らないことがある。
コンピューティングハードウェアの進歩は、拡張現実(AR)デバイスまたは仮想現実(VR)デバイスなど、人工現実デバイスをユーザにとってより利用可能にした。これらの人工現実デバイスは、ユーザの周囲環境を検知および分析することが可能であり得る。人工現実デバイスを使用するときに利用可能な追加のデータとともに、ネットワークアプリケーションプラットフォーム上の共有対話を通してユーザをリンクすること以外の追加のファクタが、ユーザグループを定義するために使用され得る。以下でより詳細に説明されるように、本開示は、人工現実信号を使用してユーザグループを定義することについて説明する。
一例では、人工現実に基づいてユーザグループを定義するためのコンピュータ実装方法は、(1)第1のユーザの第1の環境を検出する第1の人工現実デバイスから第1の入力を受信することと、(2)第1の入力に基づいて第1の環境の第1の環境特徴を決定することと、(3)第2のユーザの第2の環境を検出する第2の人工現実デバイスから第2の入力を受信することと、(4)第2の入力に基づいて第2の環境の第2の環境特徴を決定することと、(5)第1の環境特徴を第2の環境特徴と比較することと、(6)比較に基づいて、第1のユーザと第2のユーザとをオンライン対話のためのグループに含めることとを含み得る。
いくつかの例では、第1の環境特徴は第1のユーザの第1のロケーションに対応し得、第2の環境特徴は第2のユーザの第2のロケーションに対応し得る。第1の入力は、第1のロケーションにおける第1のユーザの近傍の画像データを含み得、第2の入力は、第2のロケーションにおける第2のユーザの近傍の画像データを含み得る。第1の環境特徴を決定することは、第1の入力に基づいて第1のロケーションを識別することを含み得、第2の環境特徴を決定することは、第2の入力に基づいて第2のロケーションを識別することを含み得る。
いくつかの例では、第1の環境特徴を第2の環境特徴と比較することは、第1のロケーションと第2のロケーションとの間の距離を決定することと、距離を距離しきい値と比較することとを含み得る。第1のユーザと第2のユーザとをグループに含めることは、距離が距離しきい値を満たすことに基づき得る。
いくつかの例では、第1のロケーションは第1のエリアに対応し得、第2のロケーションは第2のエリアに対応し得る。第1の環境特徴を第2の環境特徴と比較することは、第1のエリアを第2のエリアと比較することを含み得、第1のユーザと第2のユーザとをグループに含めることは、第1のエリアが第2のエリアに一致することに基づき得る。いくつかの例では、第1のエリアまたは第2のエリアは屋内環境に対応し得る。
いくつかの例では、第1の入力は、第1のロケーションにおける第1のユーザの近傍の画像データを含み得、第2の入力は、第2のロケーションにおける第2のユーザの近傍の画像データを含み得る。第1の環境特徴を決定することは、第1の入力から第1のオブジェクトを認識することを含み得、第2の環境特徴を決定することは、第2の入力から第2のオブジェクトを認識することを含み得る。第1の環境特徴を第2の環境特徴と比較することは、第1のオブジェクトを第2のオブジェクトと比較することを含み得、第1のユーザと第2のユーザとをグループに含めることは、第1のオブジェクトが第2のオブジェクトに一致することに基づき得る。いくつかの例では、第1のオブジェクトまたは第2のオブジェクトは仮想オブジェクトに対応し得る。いくつかの例では、第1の環境特徴または第2の環境特徴は仮想ロケーションに対応し得る。
いくつかの例では、第1の環境特徴または第2の環境特徴を決定することは、さらに、ロケーション信号、GPS信号、またはWiFi信号のうちの少なくとも1つに基づき得る。
いくつかの例では、第1の環境特徴を決定することは、第1のユーザを識別することを含み得、第2の環境特徴を決定することは、第2のユーザを識別することを含み得る。グループを定義することは、さらに、第1のユーザが、アプリケーションに関連するソーシャルネットワークにおいて第2のユーザに関連することに基づき得る。いくつかの例では、第1のユーザを識別すること、または第2のユーザを識別することは、顔認識に基づき得る。
いくつかの例では、上記で説明された方法は、コンピュータ可読媒体上のコンピュータ可読命令として符号化され得る。たとえば、コンピュータ可読媒体は、コンピューティングデバイスの少なくとも1つのプロセッサによって実行されたとき、コンピューティングデバイスに、(1)第1のユーザの第1の環境を検出する第1の人工現実デバイスから第1の入力を受信することと、(2)第1の入力に基づいて第1の環境の第1の環境特徴を決定することと、(3)第2のユーザの第2の環境を検出する第2の人工現実デバイスから第2の入力を受信することと、(4)第2の入力に基づいて第2の環境の第2の環境特徴を決定することと、(5)第1の環境特徴を第2の環境特徴と比較することと、(6)比較に基づいて、第1のユーザと第2のユーザとをオンライン対話のためのグループに含めることとを行わせ得る1つまたは複数のコンピュータ実行可能命令を含み得る。
いくつかの例では、第1の入力は、第1のユーザの第1のロケーションにおける第1のユーザの近傍の画像データを含み得、第2の入力は、第2のユーザの第2のロケーションにおける第2のユーザの近傍の画像データを含み得る。第1の環境特徴を決定することは、第1の入力に基づいて第1のロケーションを識別することを含み得、第2の環境特徴を決定することは、第2の入力に基づいて第2のロケーションを識別することを含み得る。
いくつかの例では、第1のロケーションは第1のエリアに対応し得、第2のロケーションは第2のエリアに対応し得る。第1の環境特徴を第2の環境特徴と比較することは、第1のエリアを第2のエリアと比較することを含み得、第1のユーザと第2のユーザとをグループに含めることは、第1のエリアが第2のエリアに一致することに基づき得る。
いくつかの例では、第1の入力は、第1のロケーションにおける第1のユーザの近傍の画像データを含み得、第2の入力は、第2のロケーションにおける第2のユーザの近傍の画像データを含み得る。第1の環境特徴を決定することは、第1の入力から第1のオブジェクトを認識することを含み得、第2の環境特徴を決定することは、第2の入力から第2のオブジェクトを認識することを含み得る。第1の環境特徴を第2の環境特徴と比較することは、第1のオブジェクトを第2のオブジェクトと比較することを含み得、第1のユーザと第2のユーザとをグループに含めることは、第1のオブジェクトが第2のオブジェクトに一致することに基づき得る。
いくつかの例では、第1の環境特徴を決定することは、第1のユーザを識別することを含み得、第2の環境特徴を決定することは、第2のユーザを識別することを含み得、グループを定義することは、さらに、第1のユーザが、アプリケーションに関連するソーシャルネットワークにおいて第2のユーザに関連することに基づき得る。いくつかの例では、第1の環境特徴または第2の環境特徴は仮想ロケーションに対応し得る。
さらに、人工現実に基づいてユーザグループを定義するための対応するシステムは、1つまたは複数のプロセッサと、命令を備えるメモリとを含み得、命令は、1つまたは複数のプロセッサによって実行されたとき、システムに、(1)第1のユーザの第1の環境を検出する第1の人工現実デバイスから第1の入力を受信することと、(2)第1の入力に基づいて第1の環境の第1の環境特徴を決定することと、(3)第2のユーザの第2の環境を検出する第2の人工現実デバイスから第2の入力を受信することと、(4)第2の入力に基づいて第2の環境の第2の環境特徴を決定することと、(5)第1の環境特徴を第2の環境特徴と比較することと、(6)比較に基づいて、第1のユーザと第2のユーザとをオンライン対話のためのグループに含めることとを行わせ得る。
いくつかの例では、第1の入力は、第1のユーザの第1のロケーションにおける第1のユーザの近傍の画像データを含み得、第2の入力は、第2のユーザの第2のロケーションにおける第2のユーザの近傍の画像データを含み得る。第1の環境特徴を決定することは、第1の入力に基づいて第1のロケーションを識別することを含み得、第2の環境特徴を決定することは、第2の入力に基づいて第2のロケーションを識別することを含み得る。
上述の実施形態のいずれかからの特徴が、本明細書で説明される一般的な原理に従って、互いと組み合わせて使用され得る。これらおよび他の実施形態、特徴、および利点は、添付の図面および特許請求の範囲とともに以下の発明を実施するための形態を読むとより十分に理解されよう。
添付の図面は、いくつかの例示的な実施形態を示し、本明細書の一部である。以下の説明とともに、これらの図面は、本開示の様々な原理を示し、それらの原理について説明する。
図面全体にわたって、同一の参照符号および説明は、同様であるが必ずしも同一でない要素を指示する。本明細書で説明される例示的な実施形態は、様々な修正および代替形態が可能であるが、特定の実施形態が、図面において例として示されており、本明細書で詳細に説明される。しかしながら、本明細書で説明される例示的な実施形態は、開示される特定の形態に限定されるものではない。むしろ、本開示は、添付の特許請求の範囲内に入るすべての修正、均等物、および代替形態をカバーする。
本開示は、一般に、人工現実信号を使用してユーザグループを定義することを対象とする。以下でより詳細に説明されるように、本開示の実施形態は、ユーザの人工現実デバイスから入力を受信し、各ユーザに対してそれぞれの環境特徴を決定し得る。環境特徴は、ユーザの環境が一致するかどうかを決定するために比較され得る。環境が一致したとき、対応するユーザは一緒にグループ化され得る。
本開示の実施形態は、人工現実デバイスからの信号を活用するように構成されない旧来のシステムに勝るいくつかの特徴および利点を提供し得る。旧来のシステムは、ユーザグループを定義するための利用可能な信号が限定され得る。たとえば、ユーザグループは、ネットワークアプリケーションプラットフォーム上で対話したユーザをリンクすることに基づいて定義され得る。人工現実デバイスは、たとえば、物理的近接に基づいてユーザをグループ化することを可能にするために追加の信号を提供し得る。
本開示の実施形態は、人工現実デバイス入力に基づいてユーザグループを定義するための方法を提供し得る。さらに、本開示の実施形態は、人工現実体験のために必要とされるもの以上に処理要件を著しく増加させることなしに、ユーザグループを定義する、より高性能の方法を組み込むことによって、コンピュータの働きを改善し得る。その上、本開示の実施形態は、たとえば、利用可能な信号を使用して人工現実ユーザをグループ化するための直観的なやり方を提供することによって、人工現実の分野を改善し得る。これらおよび他の特徴および利点は、本明細書で説明される実施形態によって可能にされ得る。
以下は、図1~図7を参照しながら、人工現実信号を使用してユーザグループを定義するためのシステムおよび方法の詳細な説明を提供する。図1は、人工現実に基づいてユーザグループを定義するための例示的なシステムを示す。図2は、例示的なネットワーク環境を示す。図3は、人工現実信号を使用してユーザグループを定義する例示的なプロセスを示す。図4A~図4Bは、人工現実信号を使用してユーザがどのようにグループ化され得るかの様々な例を示す。図5は、例示的なARシステムを示す。図6は、別の例示的なARシステムを示す。図7は、例示的なVRシステムを示す。
図1は、人工現実信号を使用してユーザグループを定義するための例示的なシステム100のブロック図である。この図に示されているように、例示的なシステム100は、1つまたは複数のタスクを実施するための1つまたは複数のモジュール102を含み得る。以下でより詳細に説明されるように、モジュール102は、第1の受信モジュール104と、第1の特徴モジュール106と、第2の受信モジュール108と、第2の特徴モジュール110と、比較モジュール112と、グループ化モジュール114とを含み得る。別個の要素として示されているが、図1中のモジュール102のうちの1つまたは複数は、単一のモジュールまたはアプリケーションの部分を表し得る。
いくつかの実施形態では、図1中のモジュール102のうちの1つまたは複数は、コンピューティングデバイスによって実行されたとき、コンピューティングデバイスに1つまたは複数のタスクを実施させ得る、1つまたは複数のソフトウェアアプリケーションまたはプログラムを表し得る。たとえば、および以下でより詳細に説明されるように、モジュール102のうちの1つまたは複数は、図2に示されているデバイス(たとえば、コンピューティングデバイス202および/またはサーバ206)など、1つまたは複数のコンピューティングデバイスに記憶され、1つまたは複数のコンピューティングデバイス上で稼働するように構成されたモジュールを表し得る。図1中のモジュール102のうちの1つまたは複数は、1つまたは複数のタスクを実施するように構成された1つまたは複数の専用コンピュータのすべてまたは部分をも表し得る。
図1に示されているように、例示的なシステム100は、メモリ140など、1つまたは複数のメモリデバイスをも含み得る。メモリ140は、概して、データおよび/またはコンピュータ可読命令を記憶することが可能な、任意のタイプまたは形態の揮発性または不揮発性記憶デバイスまたは媒体を表す。一例では、メモリ140は、モジュール102のうちの1つまたは複数を記憶、ロード、および/または維持し得る。メモリ140の例は、限定はしないが、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、フラッシュメモリ、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、光ディスクドライブ、キャッシュ、上記のうちの1つまたは複数の変形形態または組合せ、および/あるいは任意の他の好適な記憶メモリを含む。
図1に示されているように、例示的なシステム100は、物理プロセッサ130など、1つまたは複数の物理プロセッサをも含み得る。物理プロセッサ130は、概して、コンピュータ可読命令を解釈および/または実行することが可能な任意のタイプまたは形態のハードウェア実装処理ユニットを表す。一例では、物理プロセッサ130は、メモリ140に記憶されたモジュール102のうちの1つまたは複数にアクセスし、および/またはそれらのモジュールを修正し得る。追加または代替として、物理プロセッサ130は、人工現実信号を使用してユーザグループを定義することを容易にするためにモジュール102のうちの1つまたは複数を実行し得る。物理プロセッサ130の例は、限定はしないが、マイクロプロセッサ、マイクロコントローラ、中央処理ユニット(CPU)、ソフトコアプロセッサを実装するフィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、上記のうちの1つまたは複数の部分、上記のうちの1つまたは複数の変形形態または組合せ、および/あるいは任意の他の好適な物理プロセッサを含む。
図1に示されているように、例示的なシステム100は1つまたは複数のセンサー120をも含み得、1つまたは複数のセンサー120は、環境データをキャプチャするための任意のタイプのセンサーであり得る。環境センサーは、たとえば、図2、図5、図6、および図7に関して、以下でさらに説明されるように、光センサー、オーディオセンサー、アンテナなどを含み得る。
図1中の例示的なシステム100は、様々なやり方で実装され得る。たとえば、例示的なシステム100の全部または一部分は、図2中の例示的なネットワーク環境200、図5中の拡張現実システム500、図6中の拡張現実システム600、および/または図7中の仮想現実システム700の部分を表し得る。
図2は、本開示の様々な態様を実装することが可能な例示的なネットワーク環境200を示す。図2に示されているように、ネットワーク環境200は、コンピューティングデバイス202と、ネットワーク204と、サーバ206とを含み得る。コンピューティングデバイス202は、ARデバイス(たとえば、AR眼鏡)、デスクトップコンピュータ、ラップトップコンピュータ、タブレットデバイス、スマートフォン、または他のコンピューティングデバイスなど、クライアントデバイスまたはユーザデバイスであり得る。コンピューティングデバイス202は、1つまたは複数のプロセッサであり得る物理プロセッサ230と、メモリ240と、センサー120とを含み得る。いくつかの実装形態では、コンピューティングデバイス202は、画像をユーザのローカル環境のユーザのビュー上にオーバーレイするディスプレイを有するARデバイスを表し得る。たとえば、ディスプレイは、ユーザがユーザの環境を見ることができるように、環境からの光が通過することを可能にする透明媒体を含み得る。ディスプレイは、次いで、情報をオーバーレイするために透明媒体上に描き得る。代替的に、ディスプレイは、透明媒体上におよび/またはユーザの眼上に画像を投影し得る。ディスプレイの実施形態は、以下でさらに説明される。
サーバ206は、アプリケーションをホストすることが可能な1つまたは複数のサーバを表すか、または含み得る。たとえば、アプリケーションは、ネットワーク204とサーバ206とを通して複数のユーザをサポートし得る。サーバ206は、1つまたは複数のプロセッサを含み得る物理プロセッサ230と、モジュール102を記憶し得るメモリ240と、センサー120とを含み得る。
コンピューティングデバイス202は、ネットワーク204を通してサーバ206に通信可能に結合され得る。ネットワーク204は、インターネットなどの任意のタイプまたは形態の通信ネットワークを表し得、LANなどの1つまたは複数の物理接続、および/またはWANなどのワイヤレス接続を備え得る。
図3は、人工現実信号を使用してユーザグループを定義するための例示的なコンピュータ実装方法300の流れ図である。図3に示されているステップは、図1、図2、および図5~図7に示されている(1つまたは複数の)システムを含む、任意の好適なコンピュータ実行可能コードおよび/またはコンピューティングシステムによって実施され得る。一例では、図3に示されているステップの各々が、その構造が複数のサブステップを含みおよび/または複数のサブステップによって表される、アルゴリズムを表し得、その例が以下でより詳細に提供される。
図3に示されているプロセスの概観として、ステップ310において、本明細書で説明されるシステムのうちの1つまたは複数は、第1のユーザの第1の環境を検出する第1の人工現実デバイスから第1の入力を受信し得る。ステップ320において、本明細書で説明されるシステムのうちの1つまたは複数は、第1の入力に基づいて第1の環境の第1の環境特徴を決定し得る。ステップ330において、本明細書で説明されるシステムのうちの1つまたは複数は、第2のユーザの第2の環境を検出する第2の人工現実デバイスから第2の入力を受信し得る。ステップ340において、本明細書で説明されるシステムのうちの1つまたは複数は、第2の入力に基づいて第2の環境の第2の環境特徴を決定し得る。ステップ350において、本明細書で説明されるシステムのうちの1つまたは複数は、第1の環境特徴を第2の環境特徴と比較し得る。ステップ360において、本明細書で説明されるシステムのうちの1つまたは複数は、比較に基づいて、第1のユーザと第2のユーザとをオンライン対話のためのグループに含め得る。
以下でさらに詳細に説明される方法300は、屋外ロケーションおよび/または屋内ロケーションなど、様々なロケーションにおけるユーザに適用され得る。方法300は、屋内ロケーションのために特に有用であり得る。人工現実デバイスのユーザは、しばしば、屋外ロケーションにおける使用よりも安全であり得る、屋内ロケーションにおいて人工現実デバイスを使用し得る。さらに、人工現実デバイスは、屋内GPS信号など、他の劣化した信号を補償することが可能であり得る追加の信号およびデータを提供し得る。図4Aおよび図4Bは、ユーザ410A~410Hを含む、屋内環境401の簡略化されたマップビューを示す。環境401は、たとえば、様々な部屋を含んでいる建築物のフロアなどの屋内ロケーションであり得る。図4A中のユーザ410A~410E、および図4B中のユーザ410F~410Hは、様々な部屋にわたって散らばり得る。ユーザ410A~410Hの各々は、それらのユーザのそれぞれの環境を検出するためにユーザ自身のコンピューティングデバイス202を使用し得る。たとえば、第1の入力は、図4中のユーザ410Aの近傍の画像データを含み得る。
画像データに加えてまたは画像データの代わりに、第1の入力は、他の人工現実信号など、他のタイプのデータを含み得る。いくつかの実施形態では、「人工現実信号」という用語は、人工現実システムが周囲環境を検知するために使用し得る信号、入力などを指し得る。人工現実信号の例は、限定はしないが、画像データ、オーディオデータ、ロケーション信号、GPS信号、Wi-Fi信号などを含む。人工現実信号の他の例は、人工現実デバイスを使用するユーザ入力、人工現実体験におけるユーザ対話から導出された信号および/またはデータ、人工現実アプリケーションデータなどを含み得る。様々な人工現実デバイスは、人工現実信号を作り出すことが可能であり得る。
コンピューティングデバイス202などの本開示の実施形態は、様々なタイプの人工現実システムを含むか、またはそれらのシステムとともに実装され得る。人工現実は、ユーザへの提示の前に何らかの様式で調整された形式の現実であり、これは、たとえば、仮想現実(VR)、拡張現実(AR)、複合現実(MR)、ハイブリッド現実、あるいはそれらの何らかの組合せおよび/または派生物を含み得る。人工現実コンテンツは、完全に生成されたコンテンツ、またはキャプチャされた(たとえば、現実世界の)コンテンツと組み合わせられた生成されたコンテンツを含み得る。人工現実コンテンツは、ビデオ、オーディオ、触覚フィードバック、またはそれらの何らかの組合せを含み得、それらのいずれも、単一のチャネルまたは複数のチャネルにおいて提示され得る(観察者に3次元効果をもたらすステレオビデオなど)。加えて、いくつかの実施形態では、人工現実は、たとえば、人工現実におけるコンテンツを作り出すために使用される、および/または人工現実において(たとえば、人工現実におけるアクティビティを実施するために)別様に使用されるアプリケーション、製品、アクセサリ、サービス、またはそれらの何らかの組合せにも関連し得る。
人工現実システムは、様々な異なるフォームファクタおよび構成において実装され得る。いくつかの人工現実システムは、ニアアイディスプレイ(NED)なしで働くように設計され得、その一例が図5中のARシステム500である。他の人工現実システムは、現実世界への可視性をも提供するNEDを含む(たとえば、図6中のARシステム600)か、または人工現実にユーザを視覚的に没入させるNEDを含み得る(たとえば、図7中のVRシステム700)。いくつかの人工現実デバイスは独立型システムであり得るが、他の人工現実デバイスは、人工現実体験をユーザに提供するために外部デバイスと通信および/または協調し得る。そのような外部デバイスの例は、ハンドヘルドコントローラ、モバイルデバイス、デスクトップコンピュータ、ユーザによって装着されるデバイス、1人または複数の他のユーザによって装着されるデバイス、および/または任意の他の好適な外部システムを含む。
図5を参照すると、ARシステム500は、概して、ユーザの身体部分(たとえば、頭部)の周りに適合するように寸法決定されたウェアラブルデバイスを表す。図5に示されているように、システム500は、フレーム502と、フレーム502に結合され、ローカル環境を観測することによってローカル環境に関する情報を集めるように構成されたカメラアセンブリ504とを含み得る。カメラアセンブリ504はカメラ150に対応し得る。ARシステム500は、出力オーディオトランスデューサ508(A)および508(B)ならびに入力オーディオトランスデューサ510など、1つまたは複数のオーディオデバイスをも含み得る。出力オーディオトランスデューサ508(A)および508(B)は、オーディオフィードバックおよび/またはコンテンツをユーザに提供し得、入力オーディオトランスデューサ510は、ユーザの環境におけるオーディオをキャプチャし得る。
示されているように、ARシステム500は、ユーザの眼の前に配置されるNEDを必ずしも含むとは限らない。NEDをもたないARシステムは、ヘッドバンド、ハット、ヘアバンド、ベルト、ウォッチ、リストバンド、アンクルバンド、リング、ネックバンド、ネックレス、胸バンド、アイウェアフレーム、および/あるいは任意の他の好適なタイプまたは形態の装置など、様々な形態をとり得る。ARシステム100はNEDを含まないことがあるが、ARシステム500は、他のタイプのスクリーンまたは視覚フィードバックデバイス(たとえば、フレーム502の側部に組み込まれたディスプレイスクリーン)を含み得る。
本開示で説明される実施形態は、1つまたは複数のNEDを含むARシステムにおいても実装され得る。たとえば、図6に示されているように、ARシステム600は、ユーザの眼の前で左ディスプレイデバイス615(A)および右ディスプレイデバイス615(B)を保持するように構成されたフレーム610をもつアイウェアデバイス602を含み得る。ディスプレイデバイス615(A)とディスプレイデバイス615(B)とは、画像または一連の画像をユーザに提示するために、一緒にまたは独立して働き得る。ARシステム600は、2つのディスプレイを含むが、本開示の実施形態は、単一のNEDまたは3つ以上のNEDをもつARシステムにおいて実装され得る。ARシステム600はまた、カメラ150(図示せず)などの1つまたは複数のカメラアセンブリを含むか、または1つまたは複数のカメラアセンブリに結合され得る。
いくつかの実施形態では、ARシステム600は、センサー640など、1つまたは複数のセンサーを含み得る。センサー640は、ARシステム600の動きに応答して測定信号を生成し得、フレーム610の実質的に任意の部分上に位置し得る。センサー640は、位置センサー、慣性測定ユニット(IMU:inertial measurement unit)、深度カメラアセンブリ、またはそれらの任意の組合せを含み得る。いくつかの実施形態では、ARシステム600は、センサー640を含むことも含まないこともあり、または2つ以上のセンサーを含み得る。センサー640がIMUを含む実施形態では、IMUは、センサー640からの測定信号に基づいて較正データを生成し得る。センサー640の例は、限定はしないが、加速度計、ジャイロスコープ、磁力計、動きを検出する他の好適なタイプのセンサー、IMUの誤差補正のために使用されるセンサー、またはそれらの何らかの組合せを含み得る。
ARシステム600は、まとめて音響センサー620と呼ばれる、複数の音響センサー620(A)~620(J)をもつマイクロフォンアレイをも含み得る。音響センサー620は、音波によって誘起された空気圧力変動を検出するトランスデューサであり得る。各音響センサー620は、音を検出し、検出された音を電子フォーマット(たとえば、アナログまたはデジタルフォーマット)にコンバートするように構成され得る。図6中のマイクロフォンアレイは、たとえば、10個の音響センサー、すなわち、ユーザの対応する耳の内部に置かれるように設計され得る620(A)および620(B)、フレーム610上の様々なロケーションに配置され得る音響センサー620(C)、620(D)、620(E)、620(F)、620(G)、および620(H)、ならびに/または、対応するネックバンド605上に配置され得る音響センサー620(I)および620(J)を含み得る。
マイクロフォンアレイの音響センサー620の構成は変動し得る。ARシステム600は、10個の音響センサー620を有するものとして図6に示されているが、音響センサー620の数は、10よりも大きくまたは小さくなり得る。いくつかの実施形態では、より高い数の音響センサー620を使用することは、収集されるオーディオ情報の量ならびに/またはオーディオ情報の感度および正確さを増加させ得る。逆に、より低い数の音響センサー620を使用することは、収集されたオーディオ情報を処理するためにコントローラ650によって必要とされる計算電力を減少させ得る。さらに、マイクロフォンアレイの各音響センサー620の位置は変動し得る。たとえば、音響センサー620の位置は、ユーザ上の画定された位置、フレーム610上の画定された座標、各音響センサーに関連する配向、またはそれらの何らかの組合せを含み得る。
音響センサー620(A)および620(B)は、耳介の後ろまたは外耳内もしくは窩内など、ユーザの耳の異なる部分上に配置され得る。あるいは、耳道の内部の音響センサー620に加えて、耳上にまたは耳の周囲に追加の音響センサーがあり得る。ユーザの耳道の隣に音響センサーが配置されると、マイクロフォンアレイは、音がどのように耳道に到来するかに関する情報を収集することが可能になり得る。(たとえば、バイノーラルマイクロフォンとして)ユーザの頭部の両側に音響センサー620のうちの少なくとも2つを配置することによって、ARデバイス600は、バイノーラル聴覚をシミュレートし、ユーザの頭部の周りの3Dステレオ音場をキャプチャし得る。いくつかの実施形態では、音響センサー620(A)および620(B)はワイヤード接続を介してARシステム600に接続され得、他の実施形態では、音響センサー620(A)および620(B)はワイヤレス接続(たとえば、Bluetooth接続)を介してARシステム600に接続され得る。さらに他の実施形態では、音響センサー620(A)および620(B)は、ARシステム600とともにまったく使用されないことがある。
フレーム610上の音響センサー620は、テンプルの長さに沿って、ブリッジにわたって、ディスプレイデバイス615(A)および615(B)の上方にまたは下方に、あるいはそれらの何らかの組合せにおいて配置され得る。音響センサー620は、マイクロフォンアレイが、ARシステム600を装着しているユーザの周囲の広範囲の方向における音を検出することが可能であるように、配向され得る。いくつかの実施形態では、マイクロフォンアレイにおける各音響センサー620の相対位置を決定するための最適化プロセスがARシステム600の製造中に実施され得る。
ARシステム600は、さらに、ネックバンド605など、外部デバイス(たとえば、ペアにされたデバイス)を含むかまたはそのデバイスに接続され得る。示されているように、ネックバンド605は、1つまたは複数のコネクタ630を介してアイウェアデバイス602に結合され得る。コネクタ630は、ワイヤードまたはワイヤレスコネクタであり得、電気的および/または非電気的(たとえば、構造的)構成要素を含み得る。いくつかの場合には、アイウェアデバイス602とネックバンド605とは、それらの間のワイヤードまたはワイヤレス接続なしに独立して動作し得る。図6は、アイウェアデバイス602およびネックバンド605上の例示的なロケーションにおけるアイウェアデバイス602およびネックバンド605の構成要素を示すが、それらの構成要素は、他の場所に位置し、ならびに/あるいはアイウェアデバイス602および/またはネックバンド605上に別様に分散され得る。いくつかの実施形態では、アイウェアデバイス602およびネックバンド605の構成要素は、アイウェアデバイス602、ネックバンド605、またはそれらの何らかの組合せとペアにされた、1つまたは複数の追加の周辺デバイス上に位置し得る。さらに、ネックバンド605は、概して、任意のタイプまたは形態のペアにされたデバイスを表す。したがって、ネックバンド605の以下の説明は、スマートウォッチ、スマートフォン、リストバンド、他のウェアラブルデバイス、ハンドヘルドコントローラ、タブレットコンピュータ、ラップトップコンピュータなど、様々な他のペアにされたデバイスにも適用され得る。
ネックバンド605など、外部デバイスをARアイウェアデバイスとペアリングすることは、アイウェアデバイスが、依然として、拡張能力のための十分なバッテリーおよび計算電力を提供しながら、一対の眼鏡のフォームファクタを達成することを可能にし得る。ARシステム600のバッテリー電力、計算リソース、および/または追加の特徴の一部または全部が、ペアにされたデバイスによって提供されるか、またはペアにされたデバイスとアイウェアデバイスとの間で共有され、したがって、依然として、所望の機能性を保持しながら、アイウェアデバイスの重量、熱プロファイル、およびフォームファクタを全体的に低減し得る。たとえば、ネックバンド605は、ユーザが、ユーザの頭の上で許容するであろうよりも重い重量負荷をユーザの肩の上で許容し得るので、通常ならばアイウェアデバイス上に含まれるであろう構成要素が、ネックバンド605中に含まれることを可能にし得る。ネックバンド605は、周辺環境に熱を発散および放散させるためのより大きい表面エリアをも有し得る。したがって、ネックバンド605は、通常ならばスタンドアロンアイウェアデバイス上で可能であることがあるよりも大きいバッテリーおよび計算容量を可能にし得る。ネックバンド605がもつ重量が、ユーザにとって、アイウェアデバイス602がもつ重量ほど侵襲的でないことがあるので、ユーザは、ユーザが重いスタンドアロンアイウェアデバイスを装着することを許容するであろうよりも長い時間の長さの間、より軽いアイウェアデバイスを装着し、ペアにされたデバイスを携帯または装着することを許容し、それにより、人工現実環境がユーザの日々の活動により完全に組み込まれることが可能になり得る。
ネックバンド605は、アイウェアデバイス602と、および/または他のデバイスに通信可能に結合され得る。他のデバイスは、ARシステム600にいくつかの機能(たとえば、追跡、位置を特定すること、深度マッピング、処理、ストレージなど)を提供し得る。図6の実施形態では、ネックバンド605は、マイクロフォンアレイの一部である(または潜在的にそれら自体のマイクロフォンサブアレイを形成する)2つの音響センサー(たとえば、620(I)および620(J))を含み得る。ネックバンド605は、コントローラ625と電源635とをも含み得る。
ネックバンド605の音響センサー620(I)および620(J)は、音を検出し、検出された音を電子フォーマット(たとえば、アナログまたはデジタル)にコンバートするように構成され得る。図6の実施形態では、音響センサー620(I)および620(J)は、ネックバンド605上に配置され、それにより、ネックバンド音響センサー620(I)および620(J)と、アイウェアデバイス602上に配置された他の音響センサー620との間の距離を増加させ得る。いくつかの場合には、マイクロフォンアレイの音響センサー620間の距離を増加させることは、マイクロフォンアレイを介して実施されるビームフォーミングの正確さを改善し得る。たとえば、音響センサー620(C)および620(D)によって音が検出され、音響センサー620(C)と音響センサー620(D)との間の距離が、たとえば、音響センサー620(D)と音響センサー620(E)との間の距離よりも大きい場合、検出された音の決定されたソースロケーションは、音が音響センサー620(D)および620(E)によって検出された場合よりも正確であり得る。
ネックバンド605のコントローラ625は、ネックバンド605および/またはARシステム600上のセンサーによって生成された情報を処理し得る。たとえば、コントローラ625は、マイクロフォンアレイによって検出された音を表す、マイクロフォンアレイからの情報を処理し得る。各検出された音について、コントローラ625は、検出された音がマイクロフォンアレイに到来した方向を推定するために、DoA推定を実施し得る。マイクロフォンアレイが音を検出したとき、コントローラ625はオーディオデータセットを情報でポピュレートし得る。ARシステム600が慣性測定ユニットを含む実施形態では、コントローラ625は、アイウェアデバイス602上に位置するIMUからのすべての慣性算出および空間算出を計算し得る。コネクタ630は、ARシステム600とネックバンド605との間で、およびARシステム600とコントローラ625との間で情報を伝達し得る。その情報は、光データ、電気データ、ワイヤレスデータの形態、または任意の他の送信可能なデータ形態のものであり得る。ARシステム600によって生成された情報の処理をネックバンド605に移動することは、アイウェアデバイス602における重量および熱を低減し、アイウェアデバイス602は、ユーザにとってより快適になり得る。
ネックバンド605中の電源635は、アイウェアデバイス602および/またはネックバンド605に電力を提供し得る。電源635は、限定はしないが、リチウムイオンバッテリー、リチウムポリマーバッテリー、一次リチウムバッテリー、アルカリバッテリー、または任意の他の形態の電力ストレージを含み得る。いくつかの場合には、電源635はワイヤード電源であり得る。アイウェアデバイス602上ではなくネックバンド605上に電源635を含めることは、電源635によって生成された重量および熱をより良く分散するのを助け得る。
述べられたように、いくつかの人工現実システムが、人工現実を実際の現実と混合する代わりに、現実世界の、ユーザの感覚認知のうちの1つまたは複数を仮想体験と実質的に置き換え得る。このタイプのシステムの一例が、図7中のVRシステム700など、ユーザの視野をほぼまたは完全にカバーする頭部装着型ディスプレイシステムである。VRシステム700は、ユーザの頭部の周りに適合するように成形された前方剛体702とバンド704とを含み得る。VRシステム700は、出力オーディオトランスデューサ706(A)および706(B)をも含み得る。さらに、図7には示されていないが、前方剛体702は、人工現実体験を作り出すための、1つまたは複数の電子ディスプレイ、1つまたは複数の慣性測定ユニット(IMU)、1つまたは複数のトラッキングエミッタまたは検出器、および/あるいは任意の他の好適なデバイスまたはシステムを含む、1つまたは複数の電子要素を含み得る。
人工現実システムは、様々なタイプの視覚フィードバック機構を含み得る。たとえば、ARシステム600および/またはVRシステム700におけるディスプレイデバイスが、1つまたは複数の液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機LED(OLED)ディスプレイ、および/または任意の他の好適なタイプのディスプレイスクリーンを含み得る。人工現実システムは、両眼のための単一のディスプレイスクリーンを含み得るか、または各眼のためのディスプレイスクリーンを提供し得、これは、可変焦点調整のためのまたはユーザの屈折誤差を補正するための追加のフレキシビリティを可能にし得る。いくつかの人工現実システムは、ユーザがディスプレイスクリーンを観察し得る1つまたは複数のレンズ(たとえば、従来の凹レンズまたは凸レンズ、フレネルレンズ、調整可能な液体レンズなど)を有する光学サブシステムをも含み得る。
ディスプレイスクリーンを使用することに加えて、またはディスプレイスクリーンを使用する代わりに、いくつかの人工現実システムは、1つまたは複数の投影システムを含み得る。たとえば、ARシステム600および/またはVRシステム700におけるディスプレイデバイスは、周辺光が通過することを可能にするクリアなコンバイナレンズなど、ディスプレイデバイスに(たとえば、導波路を使用して)光を投影するマイクロLEDプロジェクタを含み得る。ディスプレイデバイスは、ユーザの瞳孔のほうへ、投影された光を屈折させ得、ユーザが、人工現実コンテンツと現実世界の両方を同時に観察することを可能にし得る。人工現実システムはまた、任意の他の好適なタイプまたは形態の画像投影システムで構成され得る。
人工現実システムは、様々なタイプのコンピュータビジョン構成要素およびサブシステムをも含み得る。たとえば、ARシステム500、ARシステム600、および/またはVRシステム700は、カメラ150に対応し得る2次元(2D)または3次元(3D)カメラ、飛行時間深度センサー、単一ビームまたは掃引レーザー測距器、3D LiDARセンサー、および/あるいは任意の他の好適なタイプまたは形態の光センサーなど、1つまたは複数の光センサーを含み得る。人工現実システムは、ユーザのロケーションを識別するために、現実世界をマッピングするために、現実世界の周囲についてのコンテキストをユーザに提供するために、および/または様々な他の機能を実施するために、これらのセンサーのうちの1つまたは複数からのデータを処理し得る。
人工現実システムは、1つまたは複数の入力および/または出力オーディオトランスデューサをも含み得る。図5および図7に示されている例では、出力オーディオトランスデューサ508(A)、508(B)、706(A)、および706(B)は、ボイスコイルスピーカー、リボンスピーカー、静電スピーカー、圧電スピーカー、骨伝導トランスデューサ、軟骨伝導トランスデューサ、および/あるいは任意の他の好適なタイプまたは形態のオーディオトランスデューサを含み得る。同様に、入力オーディオトランスデューサ510は、コンデンサマイクロフォン、ダイナミックマイクロフォン、リボンマイクロフォン、および/あるいは任意の他のタイプまたは形態の入力トランスデューサを含み得る。いくつかの実施形態では、単一のトランスデューサが、オーディオ入力とオーディオ出力の両方のために使用され得る。
図5~図7には示されていないが、人工現実システムは、タクティル(tactile)(すなわち、触覚)フィードバックシステムを含み得、これは、ヘッドウェア、グローブ、ボディスーツ、ハンドヘルドコントローラ、環境デバイス(たとえば、椅子、床マットなど)、および/あるいは任意の他のタイプのデバイスまたはシステムに組み込まれ得る。触覚フィードバックシステムは、振動、力、牽引力、テクスチャ、および/または温度を含む、様々なタイプの皮膚フィードバックを提供し得る。触覚フィードバックシステムは、動きおよびコンプライアンスなど、様々なタイプの運動感覚フィードバックをも提供し得る。触覚フィードバックは、モーター、圧電アクチュエータ、流体システム、および/または様々な他のタイプのフィードバック機構を使用して実装され得る。触覚フィードバックシステムは、他の人工現実デバイスから独立して、他の人工現実デバイス内に、および/または他の人工現実デバイスとともに実装され得る。
触覚感覚、可聴コンテンツ、および/または視覚コンテンツを提供することによって、人工現実システムは、様々なコンテキストおよび環境において、仮想体験全体を作り出すか、またはユーザの現実世界の体験を拡張し得る。たとえば、人工現実システムは、特定の環境内でのユーザの知覚、記憶、またはコグニションを支援または拡大し得る。いくつかのシステムが、現実世界における他の人々とのユーザの対話を拡張し得るか、または仮想世界における他の人々とのより没入型の対話を可能にし得る。人工現実システムは、教育目的のために(たとえば、学校、病院、政府団体、軍事団体、ビジネス企業などにおける教示またはトレーニングのために)、娯楽目的(たとえば、ビデオゲームをプレイすること、音楽を傾聴すること、ビデオコンテンツを視聴することなどを行うために)、および/またはアクセシビリティ目的のために(たとえば、補聴器、視覚補助器などとして)も使用され得る。本明細書で開示される実施形態は、これらのコンテキストおよび環境のうちの1つまたは複数における、ならびに/または他のコンテキストおよび環境における、ユーザの人工現実体験を可能にするかまたは拡張し得る。
方法300はユーザの人工現実体験の一部であり得、本明細書で説明される人工現実デバイスのいずれかを使用して実施され得る。図3に戻ると、ステップ310において、本明細書で説明されるシステムのうちの1つまたは複数は、第1のユーザの第1の環境を検出する第1の人工現実デバイスから第1の入力を受信し得る。たとえば、第1の受信モジュール104は、センサー120から第1の入力を受信し得る。
本明細書で説明されるシステムは、様々なやり方でステップ310を実施し得る。一例では、サーバ206は、コンピューティングデバイス202のセンサー120から第1の入力を受信し得る。センサー120は、いくつかの例では、カメラなどの光センサーであり得る。センサー120は、第1のロケーションにおける第1のユーザの近傍の画像データをキャプチャしていることがある。他の例では、センサー120は、マイクロフォンまたはワイヤレス信号受信機などの他のタイプのセンサーを備え得る。
図3に示されているように、ステップ320において、本明細書で説明されるシステムのうちの1つまたは複数は、第1の入力に基づいて第1の環境の第1の環境特徴を決定し得る。たとえば、第1の特徴モジュール106は、第1の入力に基づいて第1の環境特徴を決定し得る。
いくつかの実施形態では、「環境特徴」という用語は、ユーザの環境の検出可能な特徴、特性、および/または属性を指し得る。環境特徴の例は、限定はしないが、ロケーション、エリア、認識可能なオブジェクトなどを含む。いくつかの例では、環境特徴は、ユーザの現実世界の環境に対応し得る。他の例では、環境特徴は、ユーザが対話している仮想ロケーションおよび/またはオブジェクトを指し得る。
本明細書で説明されるシステムは、様々なやり方でステップ320を実施し得る。一例では、コンピューティングデバイス202および/またはサーバ206は、第1の入力に基づいて第1のユーザの第1のロケーションを決定し得る。人工現実デバイスからの利用可能な人工現実信号は、従来のコンピューティングデバイスでは実現可能でないことがあるユーザのロケーションおよび環境を決定する様々なやり方を可能にし得る。
いくつかのARシステムが、「同時ロケーションおよびマッピング」(SLAM:simultaneous location and mapping)と呼ばれる技法を使用してユーザの環境をマッピングし得る。SLAMマッピングおよびロケーション識別技法は、環境のマップを作り出すかまたは更新しながら、同時に、マッピングされた環境内でのユーザのロケーションを追跡することができる、様々なハードウェアおよびソフトウェアツールを伴い得る。SLAMは、マップを作り出し、マップ内のユーザの位置を決定するために、多くの異なるタイプのセンサーを使用し得る。
SLAM技法は、たとえば、ユーザのロケーションを決定するための光センサーを実装し得る。WiFi、Bluetooth、全地球測位システム(GPS)、セルラーまたは他の通信デバイスを含む無線機も、無線トランシーバまたはトランシーバのグループ(たとえば、WiFiルータ、またはGPS衛星のグループ)に対するユーザのロケーションを決定するために使用され得る。マイクロフォンアレイあるいは2Dまたは3Dソナーセンサーなど、音響センサーも、環境内のユーザのロケーションを決定するために使用され得る。(それぞれ、図5、図6および図7のシステム500、600、および700などの)ARおよびVRデバイスが、ユーザの現在の環境のマップを作り出すことおよび継続的に更新することなどのSLAM動作を実施するために、これらのタイプのセンサーのいずれかまたはすべてを組み込み得る。本明細書で説明される実施形態のうちの少なくともいくつかでは、これらのセンサーによって生成されたSLAMデータは、「環境データ」と呼ばれることがあり、ユーザの現在の環境を指示し得る。このデータは、ローカルまたはリモートデータストア(たとえば、クラウドデータストア)に記憶され得、要求に応じてユーザのAR/VRデバイスに提供され得る。
ユーザが所与の環境においてARヘッドセットまたはVRヘッドセットを装着しているとき、ユーザは、他のユーザと、またはオーディオソースとして働く他の電子デバイスと対話していることがある。いくつかの場合には、オーディオソースがユーザに対してどこに位置するかを決定し、次いで、オーディオソースを、オーディオソースがオーディオソースのロケーションから来ているかのようにユーザに提示することが望ましいことがある。オーディオソースがユーザに対してどこに位置するかを決定するプロセスは、本明細書では「位置特定(localization)」と呼ばれることがあり、オーディオソース信号のプレイバックを、オーディオソース信号が特定の方向から来ているかのようにレンダリングするプロセスは、本明細書では「空間化(spatialization)」と呼ばれることがある。
オーディオソースの位置を特定することは、様々な異なるやり方で実施され得る。いくつかの場合には、ARまたはVRヘッドセットは、音ソースのロケーションを決定するために到来方向(DOA)分析を開始し得る。DOA分析は、音が発生した方向を決定するために、AR/VRデバイスにおいて、各音の強度、スペクトル、および/または到来時間を分析することを含み得る。いくつかの場合には、DOA分析は、人工現実デバイスが位置する周囲音響環境を分析するための任意の好適なアルゴリズムを含み得る。
たとえば、DOA分析は、マイクロフォンから入力信号を受信し、入力信号にデジタル信号処理アルゴリズムを適用して、到来方向を推定するように設計され得る。これらのアルゴリズムは、たとえば、入力信号がサンプリングされ、サンプリングされた信号の得られた重み付けおよび遅延されたバージョンが、到来方向を決定するために一緒に平均化される、遅延和アルゴリズムを含み得る。適応フィルタを作り出すために、最小2乗平均(LMS:least mean squared)アルゴリズムも実装され得る。この適応フィルタは、次いで、たとえば信号強度の差、または到来時間の差を識別するために使用され得る。これらの差は、次いで、到来方向を推定するために使用され得る。別の実施形態では、DOAは、入力信号を周波数領域にコンバートし、処理すべき時間周波数(TF)領域内の特定のビンを選択することによって決定され得る。各選択されたTFビンは、そのビンが、直接経路オーディオ信号をもつオーディオスペクトルの一部分を含むかどうかを決定するために、処理され得る。直接経路信号の一部分を有するビンは、次いで、マイクロフォンアレイが直接経路オーディオ信号を受信した角度を識別するために、分析され得る。決定された角度は、次いで、受信された入力信号についての到来方向を識別するために使用され得る。上記に記載されていない他のアルゴリズムも、DOAを決定するために、単独でまたは上記のアルゴリズムと組み合わせて使用され得る。
いくつかの実施形態では、異なるユーザが、音のソースを、わずかに異なるロケーションから来るものとして知覚し得る。これは、各ユーザが一意の頭部伝達関数(HRTF)を有することの結果であり得、HRTFは、耳道の長さと鼓膜の配置とを含むユーザの解剖学的構造によって規定され得る。人工現実デバイスは、ユーザが、ユーザの一意のHRTFに基づいてユーザに提示される音信号をカスタマイズするために従い得る、整合および配向ガイドを提供し得る。いくつかの実施形態では、人工現実デバイスは、ユーザの環境内の音を傾聴するための1つまたは複数のマイクロフォンを実装し得る。ARまたはVRヘッドセットは、音についての到来方向を推定するために様々な異なるアレイ伝達関数(たとえば、上記で識別されたDOAアルゴリズムのいずれか)を使用し得る。到来方向が決定されると、人工現実デバイスは、ユーザの一意のHRTFに従ってユーザに音をプレイバックし得る。したがって、アレイ伝達関数(ATF)を使用して生成されたDOA推定は、音がそこからプレイされるべきである方向を決定するために使用され得る。プレイバック音は、さらに、HRTFに従ってその特定のユーザがどのように音を聞くかに基づいて、改良され得る。
DOA推定を実施することに加えて、またはその代替として、人工現実デバイスは、他のタイプのセンサーから受信された情報に基づいて位置特定を実施し得る。これらのセンサーは、カメラ、IRセンサー、熱センサー、動きセンサー、GPS受信機、またはいくつかの場合には、ユーザの眼球運動を検出するセンサーを含み得る。たとえば、上述のように、人工現実デバイスは、ユーザがどこを見ているかを決定する眼トラッカーまたは視線検出器を含み得る。しばしば、ユーザの眼は、ほんの一時的にでも音のソースを見ることになる。ユーザの眼によって提供されるそのような手がかりは、さらに、音ソースのロケーションを決定するのを補助し得る。カメラ、熱センサー、およびIRセンサーなど、他のセンサーも、ユーザのロケーション、電子デバイスのロケーション、または別の音ソースのロケーションを指示し得る。上記の方法のいずれかまたはすべてが、音ソースのロケーションを決定するために個々にまたは組み合わせて使用され得、さらに、時間とともに音ソースのロケーションを更新するために使用され得る。
いくつかの実施形態は、ユーザのためのよりカスタマイズされた出力オーディオ信号を生成するために、決定されたDOAを実装し得る。たとえば、「音響伝達関数」が、音がどのように所与のロケーションから受信されたかを特徴づけるかまたは定義し得る。より詳細には、音響伝達関数は、音のソースロケーションにおける音のパラメータと、音信号がそれによって検出されるパラメータ(たとえば、マイクロフォンアレイによって検出される、またはユーザの耳によって検出される)との間の関係を定義し得る。人工現実デバイスは、デバイスの範囲内の音を検出する1つまたは複数の音響センサーを含み得る。人工現実デバイスのコントローラは、(たとえば、上記で識別された方法のいずれかを使用して)検出された音についてのDOAを推定し得、検出された音のパラメータに基づいて、デバイスのロケーションに固有である音響伝達関数を生成し得る。したがって、このカスタマイズされた音響伝達関数は、音が特定のロケーションから来るものとして知覚される、空間化された出力オーディオ信号を生成するために使用され得る。
実際、1つまたは複数の音ソースのロケーションが知られると、人工現実デバイスは、音信号を、その音ソースの方向から来ているかのように聞こえるように再レンダリング(すなわち、空間化)し得る。人工現実デバイスは、音信号の強度、スペクトル、または到来時間を改変する、フィルタまたは他のデジタル信号処理を適用し得る。デジタル信号処理は、音信号が、決定されたロケーションから発生するものとして知覚されるようなやり方で、適用され得る。人工現実デバイスは、いくつかの周波数を増幅または抑制するか、あるいは、信号が各耳に到来する時間を変え得る。いくつかの場合には、人工現実デバイスは、デバイスのロケーションおよび音信号の検出された到来方向に固有である、音響伝達関数を作り出し得る。いくつかの実施形態では、人工現実デバイスは、ステレオデバイスまたはマルチスピーカーデバイス(たとえば、サラウンド音デバイス)においてソース信号を再レンダリングし得る。そのような場合、各スピーカーに、別個で異なるオーディオ信号が送られ得る。これらのオーディオ信号の各々が、ユーザのHRTFに従って、ならびにユーザのロケーションおよび音ソースのロケーションの測定に従って、それらのオーディオ信号が音ソースの決定されたロケーションから来ているかのように聞こえるように、改変され得る。したがって、このようにして、人工現実デバイス(またはそのデバイスに関連するスピーカー)は、オーディオ信号を、特定のロケーションから発生しているかのように聞こえるように再レンダリングし得る。
本明細書で説明される人工現実デバイスは、したがって、ロケーションなどの第1の環境特徴を決定し得る。次に図4Aを参照すると、第1の環境特徴は、ユーザ410Aのロケーションに対応し得る。上記で説明されたように、ロケーションは、人工現実信号を使用して決定され得る。ロケーションは、緯度および経度などの座標に対応し得るか、または環境401についてのx座標およびy座標など、局所座標系に関する座標であり得る。代替的に、ロケーションはエリアに対応し得る。たとえば、図4Aでは、ユーザ410Cおよび410Dはエリア432に位置し得、ユーザ410Eは、エリア434に位置し得る。エリア432および434は環境401中の部屋に対応し得るが、他の例では、エリアは他のやり方で定義され得る。たとえば、エリアは、あらかじめ定義された境界、ユーザからの半径範囲、他の屋内環境などに対応し得る。いくつかの実施形態では、ロケーションは仮想ロケーションに対応し得る。たとえば、ユーザは、VRセッション中に仮想環境と対話していることがある。
いくつかの実施形態では、環境特徴は、認識されたオブジェクトに対応し得る。たとえば、図4Bでは、ユーザ410Gおよび410Fはオブジェクト442の近くにあり得、ユーザ410Hはオブジェクト444の近くにあり得る。いくつかの例では、認識されたオブジェクトは、仮想オブジェクトであり得る。
いくつかの実施形態では、環境特徴は、第1のユーザを識別することを含み得る。たとえば、ユーザは、顔認識に基づいて識別され得る。コンピューティングデバイス202は、ユーザの顔の画像データをキャプチャするために配置され得る。ユーザは、ユーザに関連する一意のオブジェクトまたはテキストを認識すること、あるいはユーザがソーシャルネットワーキングサービスなどのサービスにログインすることによってなど、他のやり方で識別され得る。
図3に戻ると、ステップ330において、本明細書で説明されるシステムのうちの1つまたは複数は、第2のユーザの第2の環境を検出する第2の人工現実デバイスから第2の入力を受信し得る。たとえば、第2の受信モジュール108は、センサー120から第2の入力を受信し得る。
本明細書で説明されるシステムは、様々なやり方でステップ330を実施し得る。一例では、サーバ206は、コンピューティングデバイス202のセンサー120からセンサー入力を受信し得る。センサー120は、いくつかの例では、カメラなどの光センサーであり得る。センサー120は、第2のロケーションにおける第2のユーザの近傍の画像データをキャプチャしていることがある。他の例では、センサー120は、マイクロフォンまたはワイヤレス信号受信機などの他のタイプのセンサーを備え得る。上記で説明された第1の入力と同様に、第2の入力は、1つまたは複数の人工現実信号を含み得る。たとえば、第2の入力は、図4中のユーザ410Bの近傍の画像データを含み得る。いくつかの実施形態では、第2の入力は、第1の入力のデータおよび/または人工現実信号とは異なるタイプのデータおよび/または人工現実信号を含み得る。さらに、第2の入力は、第1の入力のセンサーとは異なるタイプのセンサーから送られ得る。
図3に示されているように、ステップ340において、本明細書で説明されるシステムのうちの1つまたは複数は、第2の入力に基づいて第2の環境の第2の環境特徴を決定し得る。たとえば、第2の特徴モジュール110は、第2の入力に基づいて第2の環境特徴を決定し得る。
本明細書で説明されるシステムは、様々なやり方でステップ340を実施し得る。一例では、コンピューティングデバイス202および/またはサーバ206は、第2の入力に基づいて第2のユーザの第2のロケーションを決定し得る。ステップ340は、任意の好適な様式で実施され得る(たとえば、ステップ320に関して上記で説明された任意のアルゴリズム、データまたは技法を使用する。また、いくつかの実施形態では、第2のロケーションは、第1のロケーションを決定するために使用されたやり方とは異なるやり方で、および/または第1のロケーションを決定するために使用されたデータとは異なるタイプのデータを使用して決定され得る。
図4Aを参照すると、第2の環境特徴は、ユーザ410Bのロケーションに対応し得る。上記で説明されたように、ロケーションは、人工現実信号を使用して決定され得る。ロケーションは、緯度および経度などの座標に対応し得るか、または環境401についてのx座標およびy座標など、局所座標系に関する座標であり得る。代替的に、ロケーションはエリアに対応し得る。たとえば、図4Aでは、ユーザ410Cおよび410Dはエリア432に位置し得、ユーザ410Eは、エリア434に位置し得る。いくつかの実施形態では、ロケーションは仮想ロケーションに対応し得る。たとえば、ユーザは、VRセッション中に仮想環境と対話していることがある。
いくつかの実施形態では、環境特徴は、認識されたオブジェクトに対応し得る。ユーザの近傍にあるオブジェクトは、コンピュータビジョンまたは他の同様のオブジェクト認識方法を使用して認識され得る。たとえば、図4Bでは、ユーザ410Gおよび410Fはオブジェクト442の近くにあり得、ユーザ410Hはオブジェクト444の近くにあり得る。オブジェクトは物理的特徴であり得る。いくつかの例では、認識されたオブジェクトは、仮想オブジェクトであり得る。
いくつかの実施形態では、環境特徴は、第2のユーザを識別することを含み得る。たとえば、ユーザは、顔認識に基づいて識別され得る。コンピューティングデバイス202は、ユーザの顔の画像データをキャプチャするために配置され得る。ユーザは、ユーザに関連する一意のオブジェクトまたはテキストを認識すること、あるいはユーザがソーシャルネットワーキングサービスなどのサービスにログインすることによってなど、他のやり方で識別され得る。
図3に戻ると、ステップ350において、本明細書で説明されるシステムのうちの1つまたは複数は、第1の環境特徴を第2の環境特徴と比較し得る。たとえば、比較モジュール112は、第1の環境特徴を第2の環境特徴と比較し得る。
本明細書で説明されるシステムは、様々なやり方でステップ350を実施し得る。一例では、比較は、第1のロケーションと第2のロケーションとの間の距離を決定することと、距離を距離しきい値と比較することとを含み得る。たとえば、図4Aでは、ユーザ410Aとユーザ410Bとの間の距離422、および/またはユーザ410Aとユーザ410Eとの間の距離424が、距離しきい値と比較され得る。距離しきい値は、20フィートなどの指定された距離、または任意の他の好適な距離に対応し得る。距離しきい値は、1~20フィートなどの範囲、または距離の任意の他の好適な範囲に対応し得る。距離は、図4Aの場合のように、直線距離に基づいて算出され得るか、または間接経路に基づいて算出され得る。さらに、距離は、特定のユーザ以外の基準点に基づいて算出され得る。たとえば、基準点は、すでにグループ中にいるすべてのユーザの中心点に対応し得る。代替的に、距離は、グループ中にいるかまたはグループに潜在的に加えられ得る他のユーザまでの平均距離に対応し得る。
いくつかの例では、第1の環境特徴を第2の環境特徴と比較することは、第1のエリアを第2のエリアと比較することを含み得る。たとえば、図4Aでは、ユーザ410Cに関連するエリア432が、ユーザ410Dに関連するエリア432と比較され得る。同様に、ユーザ410Cに関連するエリア432は、ユーザ410Eに関連するエリア434と比較され得る。
いくつかの例では、第1の環境特徴を第2の環境特徴と比較することは、第1のオブジェクトを第2のオブジェクトと比較することを含み得る。たとえば、図4Bでは、ユーザ410Gに関連するオブジェクト442が、ユーザ410Fに関連するオブジェクト442と比較され得る。同様に、ユーザ410Gに関連するオブジェクト442は、ユーザ410Hに関連するオブジェクト444と比較され得る。
図3に示されているように、ステップ360において、本明細書で説明されるシステムのうちの1つまたは複数は、比較に基づいて、第1のユーザと第2のユーザとをオンライン対話のためのグループに含め得る。たとえば、グループ化モジュール114は、第1のユーザと第2のユーザとをグループに含め得る。
本明細書で説明されるシステムは、様々なやり方でステップ360を実施し得る。一例では、第1のユーザと第2のユーザとをグループに含めることは、距離が距離しきい値を満たすことに基づく。たとえば、距離しきい値が最大距離に対応する場合、最大距離よりも遠くに離れていないユーザは、グループに含められ得る。図4Aでは、距離422は、最大距離よりも小さいことがある。したがって、ユーザ410Aおよび410Bは、グループに含められ得る。距離424は、最大距離よりも大きいことがある。したがって、ユーザ410Eは、ユーザ410Aおよび410Bをもつグループに含められないことがある。代替的に、距離は平均距離に対応し得る。たとえば、ユーザ410Eとユーザ410Bとの間の距離は、距離しきい値を満たし得るが、ユーザ410Eとユーザ410Aおよび410Bとの間の平均距離は、距離しきい値を満たさないことがある。距離しきい値が距離の範囲に対応する場合、範囲内に入る距離は、距離しきい値を満たし得、したがって、対応するユーザが追加され得る。他の例では、ユーザ間の近接を決定する他の方法が使用され得る。
いくつかの例では、第1のユーザと第2のユーザとをグループに含めることは、第1のエリアが第2のエリアに一致することに基づく。図4Aでは、ユーザ410Cおよび410Dは、両方のユーザが同じエリア432に関連するので、一緒にグループに含められ得る。ユーザ410Eは、ユーザ410Eがエリア434に関連するので、ユーザ410Cおよび410Dをもつグループに含められないことがある。
いくつかの例では、第1のユーザと第2のユーザとをグループに含めることは、第1のオブジェクトが第2のオブジェクトに一致することに基づく。第1のユーザと第2のユーザとが同じオブジェクトに極めて近接している場合、第1のユーザと第2のユーザとはまた、互いに極めて近接していることがある。図4Bでは、ユーザ410Gおよび410Fは、両方ともオブジェクト442に関連し、したがって、グループに含められ得る。オブジェクト444は、オブジェクト442とは異なり得る。したがって、ユーザ410Hは、そのグループに含められないことがある。オブジェクトは、特定の現実世界のロケーションに固定(peg)された仮想オブジェクトであり得る。
いくつかの代替例では、オブジェクトは、物理的に近くないユーザが依然としてオブジェクトに基づいて一緒にグループ化され得るように、複製されるかまたは場合によっては互いに関連し得る。たとえば、オブジェクト444は、ユーザ410Hが、ユーザ410Gおよび410Fをもつグループに含められ得るように、複製であるかまたは場合によってはオブジェクト442に関連し得る。
いくつかの例では、第1のユーザと第2のユーザとをグループに含めることは、さらに、第1のユーザが、アプリケーションに関連するソーシャルネットワークにおいて第2のユーザに関連することに基づく。たとえば、ユーザを識別した後に、ソーシャルネットワーク上で友達であるユーザが一緒にグループ化され得る。ソーシャルネットワーク上のつながりは、ユーザをグループに含めるべきかどうかを決定するための追加のファクタであり得る。たとえば、物理的に極めて近接しており、ソーシャルネットワーク上で友達でもあるユーザは、自動的に一緒にグループ化されるか、またはグループとして示唆され得る。物理的に極めて近接していることがあるが、ソーシャルネットワーク上で友達でない他のユーザは、自動的に一緒にグループ化されないことがあり、グループに含められるための追加の確認を必要とし得る。
本明細書で説明される態様によれば、人工現実デバイスをもつユーザは、人工現実デバイスからの入力を使用して一緒にグループ化され得る。ユーザは、人工現実体験に参加していることがある。人工現実デバイスは、ユーザのロケーションアウェアネスを提供し、物理的に極めて近接して検出されたユーザを直観的に一緒にグループ化し得る。グループ化されたユーザのうちの1人は、次いで、ビデオゲームなどの別の体験に他のグループメンバーを招待し得る。グループ化されたユーザがソーシャルネットワーク上でつながっていることがあるが、近くのユーザのこの直観的なグループ化は、グループ化されたユーザ間の追加の対話を可能にし、奨励し得る。物理的近接は、グループ化されたユーザがビデオゲーム内だけでなく、現実世界でも対話することを可能にし得る。
本明細書で説明される態様は、人工現実信号を活用することによって、追加のグループ化をさらに可能にし得る。たとえば、近接は、ユーザが特定のランドマークなどの同じオブジェクトを見ていることに基づいて決定され得る。しかしながら、本明細書で説明される態様は、近接を物理的近接以外にさらに拡大し得る。共通オブジェクトが複製され、リモートユーザにとって利用可能であり得る。たとえば、共通オブジェクトは、特定の物理的トークンのコピーであり得、それらは、それらのトークンの近くのユーザが、物理的にリモートにある場合でもグループに含められることを可能にし得る。したがって、ユーザは、仮想的に近接しており、ユーザの仮想的近接に基づいてグループ化され得る。代替的に、共通オブジェクトは仮想オブジェクトであり得る。仮想オブジェクトは、特定の現実世界のロケーションに固定され得る。たとえば、仮想バニー(bunny)が、部屋の中のデスク上にあり得る。次いで、人工現実デバイスを使用して仮想バニーを観察する部屋の中のユーザが一緒にグループ化され得る。さらに、リモートロケーションに固定され得る仮想オブジェクトのコピーも、仮想オブジェクトコピーの近くのリモートユーザがグループ化されることを可能にし得る。したがって、本開示の態様は、ユーザ間の近接アウェアネスを改善するために人工現実信号を使用してユーザをグループ化するための追加のやり方を提供し得る。
その上、本明細書で説明される態様は、ソーシャルネットワークシステム内のゲームセッションへのアクセスを可能にし得る。ゲームセッションは、たとえば、ウォール、ニュースフィード、タイムラインなど、ソーシャルネットワークの様々なエリア内でアクセスされ得る。ゲームセッションはまた、関係するソーシャルネットワークアプリケーション(たとえば、メッセンジャーアプリケーション)を使用してアクセスされ得る。メッセンジャーアプリケーションは、ユーザがほぼ瞬時にオンラインで通信することを可能にするアプリケーションである。プレーヤ構成要素が、クライアントデバイス上のゲームインスタンスとソーシャルネットワーキングシステムのバックエンドサーバとの間の通信を容易にする。通信情報が、ソーシャルネットワーキングシステムのソーシャルグラフに記憶されるか、またはそのソーシャルグラフから取り出され得る。ゲームインスタンスは、ソーシャルネットワーキングシステムのソーシャルネットワークアプリケーション(たとえば、ニュースフィード、メッセンジャーなど)から初期化され得、ゲームは、ソーシャルネットワークアプリケーションを出ることなしにプレイされ得る。
様々な実施形態では、ユーザは、発見構成要素を使用して、プレイすべきゲームを識別することができる。発見構成要素は、複数のゲームをリストし得、それらのゲームを指定された順序でリストし得る。一例として、発見構成要素は、ユーザのためのゲームを、そのユーザの前の、ゲームとの対話、ソーシャルグラフ中で指示される「友達」、連絡先リスト中の連絡先、友達および/または連絡先によってプレイされるゲームなどに基づいてリストし得る。
様々な実施形態では、ユーザは、ユーザのソーシャルネットワークニュースフィードまたはメッセンジャーアプリケーションアプリにおいて「チャレンジ」を受信し得る。一例として、ユーザは、友達または連絡先が特定のゲームにおいてハイスコアを達成したという通知を受信し得る。ユーザは、ゲームを開始するために、たとえば、その通知を「クリック」することまたは「押下」することによってチャレンジを受け入れることができる。ユーザは、特定のゲームについて異なるユーザからチャレンジを受信し得る。チャレンジを受け入れることは、ユーザと友達とを含む、特定のゲームについてのグループを定義し得る。代替的に、グループは、グループが定義され得ると、チャレンジを発行することを容易にし得、グループのユーザは、チャレンジを他のグループメンバーに発行し得る。
本明細書で説明される態様は、グループを定義するための、ユーザの前の対話を使用すること以外の方法を提供する。ソーシャルネットワーキングシステムのユーザは、ソーシャルネットワーキングシステムの部分にアクセスするために、人工現実デバイスを使用し得る。人工現実デバイスからの人工現実信号は、ソーシャルネットワーキングシステムのユーザのグループを定義するために使用され得る。グループが定義されると、チャレンジは、自動的におよび/またはユーザの要求時にグループのメンバーに発行され得る。いくつかの実施形態では、ソーシャルネットワーキングシステムは、グループ中のユーザの対話に基づいてチャレンジを推奨し得る。
様々な実施形態では、ユーザがゲームにおいて達成したスコアは、一部または全部の他のユーザに投稿され得る。一例として、スコアは、特定のチャレンジを送った異なるユーザと共有されるか、チャレンジを送ったすべてのユーザと共有されるか、または公的に共有され得る。ユーザがゲームをプレイした後に、ユーザのスコアは、たとえば、他のユーザにチャレンジするために他のユーザと共有され得る。様々な実施形態では、ユーザは、たとえば、別のユーザにチャレンジするために、スコアを明示的に共有することができる。いくつかの実施形態では、スコアは、たとえば、「リーダーボード」に対して、あるいは友達または連絡先へのチャレンジとして暗黙的に共有され得る。他のユーザがチャレンジを受け入れたとき、チャレンジを送ったユーザとチャレンジを受け入れたユーザとの間に通信のスレッドが作成され得る。
実施形態は、ゲームインスタンスへの実質的に瞬時のアクセスを可能にするための、ゲーミングプラットフォームとソーシャルネットワーキングシステムとの統合を含む。システムアーキテクチャは、クライアント側プレーヤ構成要素(たとえば、ソフトウェア構成要素)を実装するクライアントデバイスを含む。プレーヤ構成要素は、クライアントデバイス上のゲームインスタンスとソーシャルネットワーキングシステムのバックエンドサーバとの間の通信を容易にすることができる。通信は、ハイスコア、ゲーム参加者識別情報、ゲーム参加者つながり、ゲームセッション詳細、ゲーム成績などを含むことができる。通信情報は、ソーシャルネットワーキングシステムのソーシャルグラフに記憶されるか、またはそのソーシャルグラフに基づき得る。
様々な実施形態では、2人またはそれ以上のユーザ間の通信の各メッセンジャーアプリスレッドはスレッド識別子(「スレッドID」)を有し、ソーシャルネットワークの各ユーザはユーザIDを有し、ソーシャルネットワークページを有する企業はページIDを有し、アプリ(たとえば、ゲームアプリ)はアプリIDを有する。ユーザが、複数の他のユーザと特定のゲームをプレイすることに同時に関与し得るので、様々なIDの組合せが、ゲームの特定のインスタンスを識別するために、たとえば、スコア共有目的のために使用され得る。一例として、スレッドIDとアプリIDとの組合せは、スレッドにおいて通信しているユーザによってプレイされている特定のゲームを識別する。別の例として、ユーザIDとアプリIDとページIDとの組合せは、識別されたユーザがプレイしている、企業によってホストまたはスポンサー提供されるゲームを識別する。このおよび以下の説明は、特定の実施形態としてメッセージングアプリを使用するが、当業者は、実施形態が、他のソーシャルネットワーク会話エリア、たとえば、ウォール、ページ、ニュースフィード、タイムラインなどとともに使用するために適応され得ることを認識されよう。そのような場合、メッセージングスレッドIDの代わりに、何らかの他のソーシャルネットワーク内部識別子(たとえば、メッセージ識別子、会話識別子、ページ識別子など)が採用され得る。
様々な実施形態では、これらのIDの一部または全部は匿名化され得る。一例として、ユーザIDは匿名化され得、したがって、ユーザのスコアまたはスコア更新は、公的に、あるいはソーシャルネットワークまたはメッセンジャーアプリの他のユーザに投稿され得るが、ユーザは、場合によってはユーザの友達を除いて、他人によって識別可能でないことがある。同様に、スレッドIDは匿名化され得、したがって、ゲーム開発者は、不当に、たとえば、ゲームに関係しないことがある広告メッセージを投稿するために実際のスレッドを使用することができない。まさにスレッドID、アプリID、ページID、およびユーザIDがソーシャルネットワークおよび/またはメッセンジャーアプリ内で一意であり得るように、それぞれの匿名化されたIDも一意であり得る。
様々な実施形態では、ゲームインスタンスは、他のゲームインスタンスとメッセージを交換するために、メッセンジャーアプリとメッセンジャーアプリの下にある通信プロトコルとを採用し得る。例として、ゲームがスレッド中で2人の異なるユーザによってプレイされるとき、ゲームは、プレーヤの各々に対応するゲームインスタンス間で、スコア情報、カードゲームのカード、チェスゲームの手などを交換し得る。さらなる例として、2人のプレーヤが共にメッセンジャースレッド中にあるとき、一方のプレーヤは、他方のプレーヤのゲームプレイをリモートで見ることが可能であり得る。メッセンジャープラットフォームの下にある「ライブストリーム」能力は、プレイされているゲームのビデオストリームを他方のユーザに送り得る。
様々な実施形態では、ユーザがゲームをプレイすることに関する様々なソーシャル信号が送られ得る。例として、ユーザがハイスコアラーであるとき、グリフ(glyph)またはアイコンがユーザのプロファイル写真に追加され得る。一例として、顔認識システムが、ユーザのプロファイル写真中のユーザの顔を識別し、写真中のユーザの頭部の上にクラウンを追加し得る。修正されたプロファイル写真は、メッセンジャースレッドに限定され得るか、あるいは観察すべきソーシャルネットワークまたはメッセンジャーアプリのすべてのユーザにとって利用可能であり得る。他のソーシャル信号は、アイコン、アニメーション、音、バッジなどを含むことができる。ソーシャル信号は、スコア、チャレンジ、または他のゲーミング概念に対応することができる。
ゲームライブラリを介してゲーム構成要素とプレーヤ構成要素との間の通信を可能にすることは、ユーザがゲームセッションを開始し、ソーシャルネットワークシステムを通して前にアクセス不可能であったゲームについてのゲーム関係データを自由に共有することを可能にすることを含む、無数のソーシャルネットワーク機能をアンロックする。ゲームインスタンスは、ソーシャルネットワーキングシステムのソーシャルプラットフォーム(たとえば、ニュースフィード、メッセージングアプリケーションなど)から初期化され得る。クライアント側プレーヤ構成要素は、クライアントデバイス上で実行しているブラウザアプリケーションを介してアクセス可能であるソーシャルネットワーキングウェブサイトの一部として、またはソーシャルネットワーキングモバイルアプリケーションの一部として実装され得る。クライアント側プレーヤは、サードパーティゲームを表す複数のウェブアドレス(たとえば、JavaScriptライブラリを埋め込むゲームウェブページ)にアクセスすることができる。サードパーティゲーム開発者のウェブサーバは、ゲームウェブページをホストすることができる。クライアント側プレーヤ構成要素は、サードパーティゲームウェブページのURLと並行してゲーム関係URLからスプラッシュ画面をロードし、プレーヤがゲームセッションへの実質的に瞬時のアクセスを体験することを可能にすることができる。クライアント側プレーヤ構成要素は、クライアントデバイス上にゲームウェブページを完全にロードするより前に、ゲームに関係するソーシャルネットワーク情報にさらにアクセスすることができる。
たとえば、様々な実施形態によれば、ソーシャルネットワークの2人のユーザが物理的に近接しており、一緒にグループ化され得る。2人のユーザは、仮想雪合戦コンテキストを有するARゲームなどのARゲームを一緒にプレイしていることがある。ソーシャルネットワーク上で2人のユーザの一方または両方につながっていることがある、ソーシャルネットワークの第3のメンバーが、同じ物理的ロケーションに加入することによって、2人のユーザと物理的に合流し得る。様々な実施形態によれば、第3のユーザは、たとえば、人工現実信号から検出されたことによって、または2人のユーザのうちの一方が第3のユーザを招待することによってグループに追加され得る。2人のユーザは、ARゲームにおける視覚通知など、第3のユーザが加入したという指示を受信し得る。さらに、グループ内で、ユーザは、ゲームについての同じ仮想コンテキストに制限されないことがある。たとえば、ユーザのうちの1人は、グループ中の他のユーザとは無関係に、仮想雪合戦コンテキストからウィザードファイアボールコンテキストにARゲームを変更し得る。代替的に、ユーザは一緒に、ウィザードファイアボールコンテキストに切り替え得る。
上記で詳述されたように、本明細書で説明および/または示されるコンピューティングデバイスおよびシステムは、本明細書で説明されるモジュール内に含まれているものなど、コンピュータ可読命令を実行することが可能な任意のタイプまたは形態のコンピューティングデバイスまたはシステムを広く表す。それらの最も基本的な構成では、(1つまたは複数の)これらのコンピューティングデバイスは、各々、少なくとも1つのメモリデバイスと少なくとも1つの物理プロセッサとを含み得る。
いくつかの例では、「メモリデバイス」という用語は、概して、データおよび/またはコンピュータ可読命令を記憶することが可能な、任意のタイプまたは形態の揮発性または不揮発性記憶デバイスまたは媒体を指す。一例では、メモリデバイスは、本明細書で説明されるモジュールのうちの1つまたは複数を記憶、ロード、および/または維持し得る。メモリデバイスの例は、限定はしないが、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、フラッシュメモリ、ハードディスクドライブ(HDD)、ソリッドステートドライブ(SSD)、光ディスクドライブ、キャッシュ、上記のうちの1つまたは複数の変形形態または組合せ、あるいは任意の他の好適な記憶メモリを含む。
いくつかの例では、「物理プロセッサ」という用語は、概して、コンピュータ可読命令を解釈および/または実行することが可能な任意のタイプまたは形態のハードウェア実装処理ユニットを指す。一例では、物理プロセッサは、上記で説明されたメモリデバイスに記憶された1つまたは複数のモジュールにアクセスし、および/またはそれらのモジュールを変更し得る。物理プロセッサの例は、限定はしないが、マイクロプロセッサ、マイクロコントローラ、中央処理ユニット(CPU)、ソフトコアプロセッサを実装するフィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、上記のうちの1つまたは複数の部分、上記のうちの1つまたは複数の変形形態または組合せ、あるいは任意の他の好適な物理プロセッサを含む。
別々の要素として示されているが、本明細書で説明および/または示されるモジュールは、単一のモジュールまたはアプリケーションの部分を表し得る。さらに、いくつかの実施形態では、これらのモジュールのうちの1つまたは複数は、コンピューティングデバイスによって実行されたとき、コンピューティングデバイスに1つまたは複数のタスクを実施させ得る、1つまたは複数のソフトウェアアプリケーションまたはプログラムを表し得る。たとえば、本明細書で説明および/または示されるモジュールのうちの1つまたは複数は、本明細書で説明および/または示されるコンピューティングデバイスまたはシステムのうちの1つまたは複数上で稼働するように記憶および構成されたモジュールを表し得る。これらのモジュールのうちの1つまたは複数は、1つまたは複数のタスクを実施するように構成された1つまたは複数の専用コンピュータのすべてまたは部分をも表し得る。
さらに、本明細書で説明されるモジュールのうちの1つまたは複数は、データ、物理デバイス、および/または物理デバイスの表現をある形態から別の形態に変換し得る。たとえば、本明細書で具陳されるモジュールのうちの1つまたは複数は、変換されるべき入力データを受信し、入力データを変換し、ユーザ近接を識別するために変換の結果を出力し、変換の結果を使用して、ユーザグループを定義し、ユーザグループとのユーザ対話を容易にするために変換の結果を記憶し得る。追加または代替として、本明細書で具陳されるモジュールのうちの1つまたは複数は、コンピューティングデバイス上で実行すること、コンピューティングデバイスにデータを記憶すること、および/または場合によっては、コンピューティングデバイスと対話することによって、物理コンピューティングデバイスのプロセッサ、揮発性メモリ、不揮発性メモリ、および/または任意の他の部分をある形態から別の形態に変換し得る。
いくつかの実施形態では、「コンピュータ可読媒体」という用語は、概して、コンピュータ可読命令を記憶または搬送することが可能な任意の形態のデバイス、キャリア、または媒体を指す。コンピュータ可読媒体の例は、限定はしないが、搬送波など、送信タイプ媒体、磁気記憶媒体など、非一時的タイプの媒体(たとえば、ハードディスクドライブ、テープドライブ、およびフロッピーディスク)、光記憶媒体(たとえば、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、およびBLU-RAYディスク)、電子記憶媒体(たとえば、ソリッドステートドライブおよびフラッシュメディア)、および他の配信システムを含む。
本開示の実施形態は、人工現実システムを含むか、または人工現実システムとともに実装され得る。人工現実は、ユーザへの提示の前に何らかの様式で調整された形式の現実であり、これは、たとえば、仮想現実(VR)、拡張現実(AR)、複合現実(MR)、ハイブリッド現実、あるいはそれらの何らかの組合せおよび/または派生物を含み得る。人工現実コンテンツは、完全に生成されたコンテンツ、またはキャプチャされた(たとえば、現実世界の)コンテンツと組み合わせられた生成されたコンテンツを含み得る。人工現実コンテンツは、ビデオ、オーディオ、触覚フィードバック、またはそれらの何らかの組合せを含み得、それらのいずれも、単一のチャネルまたは複数のチャネルにおいて提示され得る(観察者に3次元効果をもたらすステレオビデオなど)。加えて、いくつかの実施形態では、人工現実は、たとえば、人工現実におけるコンテンツを作り出すために使用される、および/または人工現実において別様に使用される(たとえば、人工現実におけるアクティビティを実施する)アプリケーション、製品、アクセサリ、サービス、またはそれらの何らかの組合せにも関連し得る。人工現実コンテンツを提供する人工現実システムは、ホストコンピュータシステムに接続されたヘッドマウントディスプレイ(HMD)、スタンドアロンHMD、モバイルデバイスまたはコンピューティングシステム、あるいは、1人または複数の観察者に人工現実コンテンツを提供することが可能な任意の他のハードウェアプラットフォームを含む、様々なプラットフォーム上に実装され得る。
本明細書で説明および/または示されるステップのプロセスパラメータおよびシーケンスは、単に例として与えられ、必要に応じて変動させられ得る。たとえば、本明細書で示されるおよび/または説明されるステップは特定の順序で示されるかまたは説明され得るが、これらのステップは、必ずしも、示されるかまたは説明される順序で実施される必要がない。本明細書で説明および/または示される様々な例示的な方法はまた、本明細書で説明されるかまたは示されるステップのうちの1つまたは複数を省略するか、あるいは、開示されるものに加えて追加のステップを含み得る。
先行する説明は、他の当業者が、本明細書で開示される例示的な実施形態の様々な態様を最も良く利用することを可能にするために提供された。この例示的な説明は、網羅的であること、または開示される正確な形態に限定されることは意図されない。多くの変更および変形が、本開示の趣旨および範囲から逸脱することなく可能である。本明細書で開示される実施形態は、あらゆる点で、限定的ではなく例示的であると見なされるべきである。本開示の範囲を決定する際に、添付の特許請求の範囲およびそれらの均等物の参照が行われるべきである。
別段に記載されていない限り、本明細書および特許請求の範囲において使用される「に接続された(connected to)」および「に結合された(coupled to)」という用語(およびそれらの派生語)は、直接接続と間接接続(すなわち、他の要素または構成要素を介したもの)の両方を許容するものとして解釈されるべきである。さらに、本明細書および特許請求の範囲において使用される「1つの(a)」または「1つの(an)」という用語は、「少なくとも1つの」を意味するものとして解釈されるべきである。最後に、本明細書および特許請求の範囲において使用される「含む(including)」および「有する(having)」という用語(およびそれらの派生語)は、「含む、備える(comprising)」という単語と交換可能であり、その単語と同じ意味を有する。
Claims (15)
- 第1のユーザの第1の環境を検出する第1の人工現実デバイスから第1の入力を受信することと、
前記第1の入力に基づいて前記第1の環境の第1の環境特徴を決定することと、
第2のユーザの第2の環境を検出する第2の人工現実デバイスから第2の入力を受信することと、
前記第2の入力に基づいて前記第2の環境の第2の環境特徴を決定することと、
前記第1の環境特徴を前記第2の環境特徴と比較することと、
前記比較に基づいて、前記第1のユーザと前記第2のユーザとをオンライン対話のためのグループに含めることと
を含む、方法。 - 前記第1の環境特徴が前記第1のユーザの第1のロケーションに対応し、
前記第2の環境特徴が前記第2のユーザの第2のロケーションに対応する、請求項1に記載の方法。 - 前記第1の入力が、前記第1のロケーションにおける前記第1のユーザの近傍の画像データを含み、
前記第2の入力が、前記第2のロケーションにおける前記第2のユーザの近傍の画像データを含み、
前記第1の環境特徴を決定することが、前記第1の入力に基づいて前記第1のロケーションを識別することを含み、
前記第2の環境特徴を決定することが、前記第2の入力に基づいて前記第2のロケーションを識別することを含む、
請求項2に記載の方法。 - 前記第1の環境特徴を前記第2の環境特徴と比較することが、
前記第1のロケーションと前記第2のロケーションとの間の距離を決定することと、
前記距離を距離しきい値と比較することと
を含み、
前記第1のユーザと前記第2のユーザとを前記グループに含めることは、前記距離が前記距離しきい値を満たすことに基づく、
請求項3に記載の方法。 - 前記第1のロケーションが第1のエリアに対応し、
前記第2のロケーションが第2のエリアに対応し、
前記第1の環境特徴を前記第2の環境特徴と比較することが、前記第1のエリアを前記第2のエリアと比較することを含み、
前記第1のユーザと前記第2のユーザとを前記グループに含めることは、前記第1のエリアが前記第2のエリアに一致することに基づく、
請求項3に記載の方法。 - 前記第1のエリアまたは前記第2のエリアが屋内環境に対応する、請求項5に記載の方法。
- 前記第1の入力が、第1のロケーションにおける前記第1のユーザの近傍の画像データを含み、
前記第2の入力が、第2のロケーションにおける前記第2のユーザの近傍の画像データを含み、
前記第1の環境特徴を決定することが、前記第1の入力から第1のオブジェクトを認識することを含み、
前記第2の環境特徴を決定することが、前記第2の入力から第2のオブジェクトを認識することを含み、
前記第1の環境特徴を前記第2の環境特徴と比較することが、前記第1のオブジェクトを前記第2のオブジェクトと比較することを含み、
前記第1のユーザと前記第2のユーザとを前記グループに含めることは、前記第1のオブジェクトが前記第2のオブジェクトに一致することに基づく、
請求項1に記載の方法。 - 前記第1のオブジェクトまたは前記第2のオブジェクトが仮想オブジェクトに対応する、請求項7に記載の方法。
- 前記第1の環境特徴または前記第2の環境特徴が仮想ロケーションに対応する、請求項1に記載の方法。
- 前記第1の環境特徴または前記第2の環境特徴を決定することが、さらに、ロケーション信号、GPS信号、またはWiFi信号のうちの少なくとも1つに基づく、請求項1に記載の方法。
- 前記第1の環境特徴を決定することが、前記第1のユーザを識別することを含み、
前記第2の環境特徴を決定することが、前記第2のユーザを識別することを含み、
前記第1のユーザと前記第2のユーザとを前記グループに含めることは、さらに、前記第1のユーザが、アプリケーションに関連するソーシャルネットワークにおいて前記第2のユーザに関連することに基づく、
請求項1に記載の方法。 - 前記第1のユーザを識別すること、または前記第2のユーザを識別することが、顔認識に基づく、請求項11に記載の方法。
- コンピュータ可読命令を備えるコンピュータ可読媒体であって、前記コンピュータ可読命令は、コンピューティングデバイスの少なくとも1つのプロセッサによって実行されたとき、前記コンピューティングデバイスに、請求項1から12のいずれか一項に記載の方法を実施させる、コンピュータ可読媒体。
- 1つまたは複数のプロセッサと、
命令を備えるメモリと、
を備えるシステムであって、前記命令は、前記1つまたは複数のプロセッサによって実行されたとき、前記システムに、
第1のユーザの第1の環境を検出する第1の人工現実デバイスから第1の入力を受信することと、
前記第1の入力に基づいて前記第1の環境の第1の環境特徴を決定することと、
第2のユーザの第2の環境を検出する第2の人工現実デバイスから第2の入力を受信することと、
前記第2の入力に基づいて前記第2の環境の第2の環境特徴を決定することと、
前記第1の環境特徴を前記第2の環境特徴と比較することと、
前記比較に基づいて、前記第1のユーザと前記第2のユーザとをオンライン対話のためのグループに含めることと
を行わせる、システム。 - 前記第1の入力が、前記第1のユーザの第1のロケーションにおける前記第1のユーザの近傍の画像データを含み、
前記第2の入力が、前記第2のユーザの第2のロケーションにおける前記第2のユーザの近傍の画像データを含み、
前記第1の環境特徴を決定することが、前記第1の入力に基づいて前記第1のロケーションを識別することを含み、
前記第2の環境特徴を決定することが、前記第2の入力に基づいて前記第2のロケーションを識別することを含む、
請求項14に記載のシステム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/239,509 | 2019-01-03 | ||
US16/239,509 US11159768B1 (en) | 2019-01-03 | 2019-01-03 | User groups based on artificial reality |
PCT/US2019/068878 WO2020142402A1 (en) | 2019-01-03 | 2019-12-30 | User groups based on artificial reality |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022518105A true JP2022518105A (ja) | 2022-03-14 |
Family
ID=69375997
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021530093A Pending JP2022518105A (ja) | 2019-01-03 | 2019-12-30 | 人工現実に基づくユーザグループ |
Country Status (5)
Country | Link |
---|---|
US (1) | US11159768B1 (ja) |
JP (1) | JP2022518105A (ja) |
KR (1) | KR20210109004A (ja) |
CN (1) | CN113260954B (ja) |
WO (1) | WO2020142402A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11545024B1 (en) * | 2020-09-24 | 2023-01-03 | Amazon Technologies, Inc. | Detection and alerting based on room occupancy |
US20230195208A1 (en) * | 2021-12-16 | 2023-06-22 | Joshua Steven Noyes | Centralized Virtual Reality and Augmented Reality Activity System |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9384469B2 (en) * | 2008-09-22 | 2016-07-05 | International Business Machines Corporation | Modifying environmental chat distance based on avatar population density in an area of a virtual world |
US9713774B2 (en) * | 2010-08-30 | 2017-07-25 | Disney Enterprises, Inc. | Contextual chat message generation in online environments |
US9692839B2 (en) * | 2013-03-13 | 2017-06-27 | Arris Enterprises, Inc. | Context emotion determination system |
US9135248B2 (en) * | 2013-03-13 | 2015-09-15 | Arris Technology, Inc. | Context demographic determination system |
US10657701B2 (en) * | 2016-06-30 | 2020-05-19 | Sony Interactive Entertainment Inc. | Dynamic entering and leaving of virtual-reality environments navigated by different HMD users |
US10498676B2 (en) * | 2016-10-12 | 2019-12-03 | Google Llc | Contextual automatic grouping |
CN113168737A (zh) | 2018-09-24 | 2021-07-23 | 奇跃公司 | 用于三维模型共享的方法和系统 |
-
2019
- 2019-01-03 US US16/239,509 patent/US11159768B1/en active Active
- 2019-12-30 KR KR1020217023673A patent/KR20210109004A/ko active Search and Examination
- 2019-12-30 WO PCT/US2019/068878 patent/WO2020142402A1/en active Application Filing
- 2019-12-30 JP JP2021530093A patent/JP2022518105A/ja active Pending
- 2019-12-30 CN CN201980087795.5A patent/CN113260954B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US11159768B1 (en) | 2021-10-26 |
CN113260954B (zh) | 2024-04-09 |
WO2020142402A1 (en) | 2020-07-09 |
CN113260954A (zh) | 2021-08-13 |
KR20210109004A (ko) | 2021-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10979845B1 (en) | Audio augmentation using environmental data | |
EP3491781B1 (en) | Private communication by gazing at avatar | |
US20180124497A1 (en) | Augmented Reality Sharing for Wearable Devices | |
KR20220062513A (ko) | 복수의 물리적 참가자들을 갖는 환경들에서의 가상 컨텐츠의 배치 | |
US10819953B1 (en) | Systems and methods for processing mixed media streams | |
US10831267B1 (en) | Systems and methods for virtually tagging objects viewed by friends and influencers | |
US11638870B2 (en) | Systems and methods for low-latency initialization of streaming applications | |
JP2022509772A (ja) | 運動型デバイスの方向性ワイヤレスリンクを維持するためのシステムおよび方法 | |
US20220130096A1 (en) | Reducing latency of an application in a server-side hosted environment | |
US10979236B1 (en) | Systems and methods for smoothly transitioning conversations between communication channels | |
CN113260954B (zh) | 基于人工现实的用户群组 | |
US10674259B2 (en) | Virtual microphone | |
US10536666B1 (en) | Systems and methods for transmitting aggregated video data | |
US11132834B2 (en) | Privacy-aware artificial reality mapping | |
US11522841B1 (en) | Third-party data manipulation with privacy controls | |
US11659043B1 (en) | Systems and methods for predictively downloading volumetric data | |
US11706266B1 (en) | Systems and methods for assisting users of artificial reality platforms | |
US11870852B1 (en) | Systems and methods for local data transmission | |
US20220405361A1 (en) | Systems and methods for correcting data to match user identity | |
US11638111B2 (en) | Systems and methods for classifying beamformed signals for binaural audio playback | |
US20230344891A1 (en) | Systems and methods for quality measurement for videoconferencing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231018 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240514 |