JP2019536131A - 仮想空間におけるユーザ・インタラクションのためのコントロールおよびインタフェース - Google Patents

仮想空間におけるユーザ・インタラクションのためのコントロールおよびインタフェース Download PDF

Info

Publication number
JP2019536131A
JP2019536131A JP2019517840A JP2019517840A JP2019536131A JP 2019536131 A JP2019536131 A JP 2019536131A JP 2019517840 A JP2019517840 A JP 2019517840A JP 2019517840 A JP2019517840 A JP 2019517840A JP 2019536131 A JP2019536131 A JP 2019536131A
Authority
JP
Japan
Prior art keywords
user
virtual
certain embodiments
limitation
scrubber
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019517840A
Other languages
English (en)
Inventor
バルディビア、ガブリエル
ウォーレン、クリフ
ソハイル、マヒーン
マルセル ルネ トージエ、クリストフ
マルセル ルネ トージエ、クリストフ
アレクサンダー、アレクサンドロス
スティーブン ブース、マイケル
スティーブン ブース、マイケル
マシュー サットン、チャールズ
マシュー サットン、チャールズ
Original Assignee
フェイスブック,インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フェイスブック,インク. filed Critical フェイスブック,インク.
Publication of JP2019536131A publication Critical patent/JP2019536131A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一実施形態において、方法は、ユーザに関連付けられている視線追跡入力装置から、レンダリング仮想空間の領域中の第1の焦点を示す視線入力を受け取ること、トリガ・イベントの発生を判定すること、焦点に関連付けられているヒット・ターゲットを選択させること、ヒット・ターゲットの選択に対する応答をユーザに関連付けられている表示装置にレンダリングするように構成された情報を送ること、を含む。

Description

本開示は一般に、仮想現実環境におけるユーザ・インタラクションおよびエクスペリエンスのためのコントロールおよびインタフェースに関する。
仮想現実は、ユーザが表面上現実的または物理的に相互作用し得る環境(たとえば、3D環境)のコンピュータ生成シミュレーションである。単一の装置であってもよくまたは装置群であってもよい仮想現実システムは、たとえば仮想現実ヘッドセットまたはその他何らかの表示装置上でユーザに表示するために、このシミュレーションを生成することができる。シミュレーションは、現実または仮想環境を模倣するイメージ、サウンド、触覚フィードバック、および/または他の感覚を含んでもよい。仮想現実がますます知られるようになると、その有用な用途の範囲が急速に広がる。仮想現実の最も一般的な用途は、ゲームまたは他のインタラクティブ・コンテンツを含むが、娯楽またはトレーニング目的の視覚的メディア・アイテム(たとえば、写真、ビデオ)の視聴等の他の用途は、これに迫るものである。仮想現実を用いて実際の会話および他のユーザ・インタラクションをシミュレートすることの実現可能性も探求されている。
拡張現実は、コンピュータ生成感覚入力(たとえば、視覚、聴覚)が追加された現実世界または物理的世界のビューを提供する。言い換えると、コンピュータ生成仮想効果は、現実世界のビューを拡張または補完し得る。たとえば、仮想現実ヘッドセット上のカメラが現実世界のシーンを(イメージまたはビデオとして)キャプチャし、キャプチャしたシーンとコンピュータ生成仮想オブジェクトとの複合を表示してもよい。仮想オブジェクトは、たとえば2次元および3次元オブジェクトまたは2次元もしくは3次元オブジェクトであってもよく、静止画であってもよいし、動画であってもよい。
本明細書においては、仮想(または、拡張)現実環境をレンダリングして該環境と相互作用する多様な異なる方法が開示される。仮想現実システムは、1人または複数のユーザに表示するためにレンダリングされる仮想空間を含み得る仮想環境をレンダリングしてもよい。ユーザは、この仮想空間および任意の適切な手段を通じたより広い仮想環境を見て、その中で相互作用してもよい。開示の方法の目標は、「存在」の感覚すなわち実際に仮想環境に存在している感覚をユーザに与える直感的なエクスペリエンスをユーザに提供することである。特定の実施形態において、仮想現実システムは、「視線入力(gaze input)」すなわち仮想空間におけるユーザの視線に関連付けられている入力によって仮想空間と相互作用する方法を提供してもよい。限定ではなく例として、ビデオまたはスライドショーの再生の制御に視線入力が用いられてもよい。たとえば、ユーザは、視線入力を用いてスクラバ要素(scrubber element)を制御してもよい。限定ではなく別の例として、(たとえば、仮想オブジェクトを手に取る(ピックアップする)ために、コンテンツをブラウズまたはナビゲートするために)「ヒット・ターゲット」すなわち仮想オブジェクトまたはインタラクティブ要素に関連付けられている領域のアクティベーションに視線入力が用いられてもよい。特定の実施形態において、仮想現実システムは、予測ユーザ意図に応答して動的に種類を変更するレチクル(reticle)を(たとえば、現在の仮想空間のコンテキストに基づいて、ユーザに関連付けられている情報に基づいて、レチクルの軌跡に基づいて)レンダリングしてもよい。異なる種類のレチクルは、仮想空間内で異なる機能を有していてもよい(たとえば、写真のヒット・ターゲットへの接近によってレチクルがグラブまたはズーム・レチクルに変化する一方、ページの縁部のヒット・ターゲットへの接近によってレチクルが次ページ型レチクルに変化してもよい)。本開示は、仮想現実に焦点を当てているが、本開示は、開示された概念を拡張現実に適用することを企図する。
特定の実施形態において、仮想現実システムは、仮想空間とのインタラクションに使用可能な1つまたは複数の仮想ツールをレンダリングしてもよい。これらのツールは、適切な場所の適切なポイントに現れてもよく、それぞれの出現は、多くの因子(たとえば、現在のコンテキスト、ユーザがアクセスを有するかどうか、ユーザに関連付けられている情報、現在の仮想空間に関連付けられている情報)を条件としていてもよい。限定ではなく例として、これらのツールは、コンテンツにコメント/リアクションする手段(たとえば、「いいね!」、ボイス・コメント、ビデオ・コメント、または空間的および時間的要素を伴うテキスト・コメントまたは空間的もしくは時間的要素を伴うテキスト・コメント)、セルフィーを撮影する手段、ユーザ・アバターをカスタマイズする手段、仮想オブジェクトを生成する手段、仮想空間にペイントまたは描画する手段等を含んでいてもよい。特定の実施形態において、仮想現実システムは、「仮想ルーム」をレンダリングしてもよく、仮想ルームは、インタラクティブ面を有していてもよい。インタラクティブ面は、仮想ルームのユーザ間のインタラクションまたはコンテンツの共有を容易にする、仮想ルーム中の面(サーフェス)であってもよい。インタラクティブ面は、ルーム中のユーザまたは他の人々に関連付けられている情報(たとえば、ユーザまたは他の人々のアフィニティ、年齢または他の人口統計学的情報)、ルーム中の人々の数、ユーザが手に取った仮想ツール(たとえば、卓球のラケット)、現在のコンテキスト(たとえば、時刻、日付、現在のイベント)等の因子に基づいて動的に変化してもよい。
特定の実施形態において、仮想現実システムは、コントローラ(たとえば、ハンドヘルド・コントローラ)を用いて仮想空間と相互作用する方法を提供してもよい。コントローラとの多くの異なるインタラクション方法が開示される。限定ではなく例として、トリガ・ジェスチャ(たとえば、前腕の回転による手首の下面の表示)の実行に(たとえば、右手で保持された)第1のコントローラが用いられてもよく、この際に、仮想空間にアイテムのパネル(たとえば、現在のコンテキストに基づいてアイテムが変化する)が表示されてもよい。本例においては、アイテムのうちの1つまたは複数の選択に(たとえば、左手で保持された)第2のコントローラが用いられてもよい。
特定の実施形態において、仮想現実システムは、仮想空間内の通信を開始して受信するさまざまな方法を提供してもよい。限定ではなく例として、ユーザが着信ビデオ通信を仮想ウォッチで受信してもよい。本例において、受信ユーザは、ビデオ通信を受け入れてもよく、ビデオ通信は最初、ウォッチから外に投影されてもよいが、受信ユーザにのみ可視であってもよい。本例において、受信ユーザはその後、ビデオの「ピックアップ」およびインタラクティブ面への配置によって、仮想ルーム中の他者がビデオ通信を可視にしてもよい。本明細書においては、(たとえば、アバターのレンダリングを伴う、テキスト/オーディオ通信を伴う)他の通信方法が開示される。特定の実施形態においては、着信メッセージおよび着呼の通知を与えるほか、新たなユーザ・エクスペリエンスの通知を与え得る仮想リストバンドまたはウォッチを仮想環境のユーザが「装着」してもよい。
特定の実施形態においては、仮想空間の一部が現在の仮想環境の外側のアイテムを表示してもよい(たとえば、他のユーザのスライド、写真、ビデオ・ストリーム)。限定ではなく例として、この部分的な表示は、仮想空間を構成するコンテンツ・アイテムが完全に球状のコンテンツ・アイテム(たとえば、180°カメラからのビデオ)ではない場合に与えられてもよい。あるいは、別様に(たとえば、仮想空間の一部にわたる透明オーバーレイとして)与えられてもよい。
特定の実施形態においては、コンテンツ・アイテムは、該コンテンツ・アイテムに関連づけられている空間的および時間的要素または空間的もしくは時間的要素を有していてもよい。限定ではなく例として、ビデオ中の特定の時点において、ビデオの特定の領域に関連付けられている「いいね!」を該ビデオが有していてもよい。コンテンツ・アイテムを視聴しているユーザは、これらのリアクションまたはコメントを見ることができるとともに、自身のリアクションまたはコメントを提示可能であってもよい。特定の実施形態において、ユーザがコンテンツ・アイテムを視聴しているときに、視野が、すでに提示されたリアクションの「ヒント」または表示を(たとえば、提示されたリアクションの場所の方向に)周辺に含んでいてもよい。これは、コンテンツ中の関心エリア(たとえば、他のユーザが「いいね!」した場所)にユーザを向かわせるように作用し得る。
特定の実施形態において、仮想現実システムは、仮想空間(たとえば、仮想ルーム)において、関連性のある通知(たとえば、ミーティングに参加したばかりのユーザまたは同じビデオを視聴し始めたユーザの識別、ユーザがビデオに現れた際のコメント/リアクション)を提示する(たとえば、「ジャンボトロン(jumbotron)」または回転もしくはスクロール可能なティッカーの形態の)仮想サインをレンダリングしてもよい。特定の実施形態においては、コメント、投稿、リアクション、または他の要素を適切な入力で(たとえば、視線入力、ハンド・コントローラによって)グラブし、仮想空間のどこかに配置するかまたは破棄することによって、要素の操作または他の形での要素とのインタラクションをユーザが行えるようになっていてもよい。これらの要素は、仮想サインに由来してもよいし、(個人的または仮想空間の他者と協調的に)ユーザがブラウズしているページに由来してもよい。
特定の実施形態において、仮想現実システムは、仮想空間の俯瞰(aerial view)をユーザが得られるようになっていてもよい。俯瞰は、たとえば仮想ルームと、仮想ルーム中のすべてのユーザの位置とを示してもよい。本例においては、利用可能な場所の選択によって、ユーザが、ある位置から別の位置へ(たとえば、仮想ミーティング・ルーム内のある席から別の席へ)「移動」できてもよい。
特定の実施形態において、仮想現実システムは、仮想空間の任意の時間または場所において、ユーザが、ユーザのエクスペリエンスを効果的に一時停止させ得る「一時停止モード」に入ることができてもよい。これは、ユーザによる「安全ジェスチャ」の実行または何らかのインタラクティブ要素(たとえば、仮想リストバンド上の一時停止ボタン)の選択に対する応答であってもよい。特定の実施形態においては、他のアバターおよびコンテンツまたは他のアバターもしくはコンテンツが、消えたり、ブラー(blurry)になったり、フェードしたりなどし、これによって、ユーザに、一時停止モードにおいてエクスペリエンスからアンプラグドになったと感じさせてもよい。特定の実施形態において、ユーザは、個人的空間(たとえば、ユーザが自分自身を見ることができる仮想鏡を備えた空間)にトランスポートされてもよい。ユーザは、ジェスチャ(たとえば、握手ジェスチャ、親指を立てるジェスチャ)の実行または何らかのインタラクティブ要素(たとえば、仮想リストバンド上の「一時停止解除」ボタン)の選択によって、一時停止モードを終了することができてもよい。
特定の実施形態において、仮想現実システムは、特殊な仮想ツール(たとえば、仮想ヘア・ドライヤ)を用いるか、または単に特徴を選択して変更/切り替えを行うことにより、ユーザが自分のアバターをカスタマイズすることができてもよい。ユーザは、仮想空間内で現実の鏡をシミュレートした仮想鏡を用いて、それぞれのアバターを見て変更してもよい。ユーザは、アクセサリを付けても(たとえば、帽子、眼鏡等を追加しても)よいし、フィルタ効果を追加してもよい。特定の実施形態においては、アバターのカスタマイズをさらに容易化するために、仮想現実システムは、アバターに直接実装可能なスタイル・テンプレートを備えた「仮想雑誌(virtual magazine)」をユーザに与えてもよい。
特定の実施形態において、仮想現実システムは、仮想空間においてユーザがコンテンツ・アイテム(たとえば、写真/ビデオ)を変更および共有できるようにしてもよい。たとえば、ユーザは、写真を選択して、写真全体に「ハロー」という言葉を書いてもよい。そして、ユーザは、変更した写真を共有してもよい。特定の実施形態において、この変更は、仮想空間中の他者がプロセスにおいて見ているかまたはコラボレートしている状態で、ライブで実施されてもよい。
本明細書に開示の実施形態は例に過ぎず、本開示の範囲はこれらに限定されない。特定の実施形態は、上記開示の実施形態の構成要素、要素、特徴、機能、作用、またはステップの全部または一部を含んでいてもよいし、該構成要素等を含んでいなくてもよい。本発明に係る実施形態は特に、方法、記憶媒体、システム、およびコンピュータ・プログラム製品を対象とする添付の特許請求の範囲に開示されており、1つの請求カテゴリ(たとえば、方法)に記載の如何なる特徴も、別の請求カテゴリ(たとえば、システム)において同様に請求可能である。添付の特許請求の範囲における従属または後方参照は、形式的な理由でのみ選定される。ただし、任意の先行請求項に対する意図的な後方参照(特に、多項従属)に起因する如何なる主題も同様に請求可能であるため、添付の特許請求の範囲において選定される従属に関わらず、請求項とその特徴の任意との組み合わせが開示され、請求可能である。請求可能な主題は、添付の特許請求の範囲に記載の特徴の組み合わせのみならず、特許請求の範囲の特徴のその他任意の組み合わせも含み、特許請求の範囲に記載の各特徴は、特許請求の範囲のその他任意の特徴または他の特徴の組み合わせとも組み合わせ可能である。さらに、本明細書に記載または図示の実施形態および特徴のいずれも、別個の請求項および/または本明細書に記載もしくは図示の任意の実施形態もしくは特徴とのまたは添付の特許請求の範囲の特徴のいずれかとの任意の組み合わせにて請求可能である。
本発明に係る一実施形態において、方法は、コンピューティング・システムによって、
ユーザに関連付けられている視線追跡(ゲイズ・トラッキング)入力装置から、レンダリング仮想空間の領域中の第1の焦点を示す視線入力を受け取ること、
トリガ・イベントの発生を判定すること、
焦点に関連付けられているヒット・ターゲットを選択させること、
ヒット・ターゲットの選択に対する応答をユーザに関連付けられている表示装置にレンダリングするように構成された情報を送ること、
を含んでいてもよい。
視線追跡入力装置は、ヘッドマウント・デバイスであってもよく、第1の焦点が、ヘッドマウント・デバイスに関連付けられている位置測定と角度測定とに基づいて決定される。
トリガ・イベントは、視線入力が閾値期間にわたって第1の焦点に向けられた旨の判定に基づいて発生してもよい。
トリガ・イベントは、視線入力が第1の焦点に向けられている間に別の入力が受け取られた場合に発生してもよい。
別の入力は、コントローラ・デバイスで受け取られたジェスチャ入力を含んでいてもよい。
別の入力は、入力装置上の入力領域のタップまたはボタンを押すことを含んでいてもよい。
ヒット・ターゲットは、レンダリング仮想空間における、仮想オブジェクトまたはインタラクティブ要素の周りの境界により規定されている副領域であってもよい。
ヒット・ターゲットは、可動スクラバに関連付けられていてもよく、応答が、可動スクラバの選択を含み、
第2の焦点に向けられた後続の視線入力を受け取ること、
後続の視線入力に応答して、第2の焦点に向かう方向にスクラバ要素を移動させること、
をさらに含んでいてもよい。
可動スクラバは、ビデオの再生に関連付けられているスクラバ要素に関連付けられている構成要素であってもよく、スクラバ要素に関する可動スクラバの位置が、ビデオ中のある時点に関連付けられている。
可動スクラバは、メディア・アイテムのスライドショーの再生に関連付けられているスクラバ要素に関連付けられている構成要素であってもよく、スクラバ要素に関する可動スクラバの位置が、現在表示されているメディア・アイテムが表示される継続時間に関連付けられている。
可動スクラバは、アイテムのメニューに関連付けられているスクラバ要素に関連付けられている構成要素であってもよく、スクラバ要素に関する可動スクラバの位置が、アイテムのメニュー中の場所に関連付けられている。
ヒット・ターゲットは、インタラクティブ要素に関連付けられていてもよく、ヒット・ターゲットの選択が、現在のレンダリング仮想空間から別の仮想空間への遷移を生じさせ、該遷移には、現在のレンダリング仮想空間と別の仮想空間との間の遷移効果が用いられる。
現在のレンダリング仮想空間は、第1のコンテンツ・アイテムを含んでいてもよく、別の仮想空間は、第2のコンテンツ・アイテムを含んでいてもよい。
遷移効果は、テレスコーピング効果であってもよい。
ヒット・ターゲットは、ドック要素(dock element)に関連付けられていてもよく、ドック要素が、仮想空間とのインタラクションまたはユーザ・エクスペリエンスの制御のための異なる選択肢のメニューを提供するユーザ・インタフェース要素であり、ヒット・ターゲットの選択によって、ドック要素がドーマント状態からアクティブ状態に遷移される。
コンピューティング・システムは、リモート・サーバを備えていてもよい。
本発明に係る一実施形態において、1つまたは複数のコンピュータ可読非一時的記憶媒体は、実行された場合に、
ユーザに関連付けられている視線追跡入力装置から、レンダリング仮想空間の領域中の第1の焦点を示す視線入力を受け取ること、
トリガ・イベントの発生を判定すること、
焦点に関連付けられているヒット・ターゲットを選択させること、
ヒット・ターゲットの選択に対する応答をユーザに関連付けられている表示装置にレンダリングするように構成された情報を送ること、
を行うように動作可能なソフトウェアを具現化してもよい。
ヒット・ターゲットは、可動スクラバに関連付けられていてもよく、応答が、可動スクラバの選択を含み、
第2の焦点に向けられた後続の視線入力を受け取ること、
後続の視線入力に応答して、第2の焦点に向かう方向にスクラバ要素を移動させること、
をさらに含んでいてもよい。
可動スクラバは、ビデオの再生に関連付けられているスクラバ要素に関連付けられている構成要素であってもよく、スクラバ要素に関する可動スクラバの位置が、ビデオ中のある時点に関連付けられている。
本発明に係る一実施形態において、システムは、1つまたは複数のプロセッサと、プロセッサに結合され、プロセッサにより実行可能な命令を含む非一時的メモリと、を備えていてもよく、プロセッサが、命令を実行する場合に、
ユーザに関連付けられている視線追跡入力装置から、レンダリング仮想空間の領域中の第1の焦点を示す視線入力を受け取ること、
トリガ・イベントの発生を判定すること、
焦点に関連付けられているヒット・ターゲットを選択させること、
ヒット・ターゲットの選択に対する応答をユーザに関連付けられている表示装置にレンダリングするように構成された情報を送ること、
を行うように動作可能である。
本発明に係る一実施形態において、1つまたは複数のコンピュータ可読非一時的記憶媒体は、実行された場合に、本発明に係る方法または前述の実施形態のいずれか1つを実行するように動作可能なソフトウェアを具現化してもよい。
本発明に係る一実施形態において、システムは、1つまたは複数のプロセッサと、プロセッサに結合され、プロセッサにより実行可能な命令を含む少なくとも1つのメモリと、を備えていてもよく、プロセッサが、命令を実行する場合に、本発明に係る方法または前述の実施形態のいずれか1つを実行するように動作可能である。
本発明に係る一実施形態において、好ましくはコンピュータ可読非一時的記憶媒体を含むコンピュータ・プログラム製品は、データ処理システム上で実行された場合に、本発明に係る方法または前述の実施形態のいずれか1つを実行するように動作可能であってもよい。
ソーシャル・ネットワーキング・システムに関連付けられている例示的なネットワーク環境を示す。 例示的なソーシャル・グラフを示す。 仮想現実システムのヘッドセット表示装置を示す。 仮想現実システムのヘッドセット表示装置を示す。 メディア・アイテム・フィードの例示的なメニューを示す。 複数のサブフィードを伴う例示的なフィードを示す。 視覚的メディア・アイテムのスライドショーの例示的なインタフェースを示す。 視覚的メディア・アイテムのスライドショーの例示的なインタフェースを示す。 視覚的メディア・アイテムのスライドショーの例示的なインタフェースを示す。 視覚的メディア・アイテムのスライドショーの例示的なインタフェースを示す。 視覚的メディア・アイテムのスライドショーの例示的なインタフェースを示す。 ユーザ入力に応じた、現在の視覚的メディア・アイテムから次の視覚的メディア・アイテムへの例示的な遷移を示す。 ユーザ入力に応じた、現在の視覚的メディア・アイテムから次の視覚的メディア・アイテムへの例示的な遷移を示す。 ユーザ入力に応じた、現在の視覚的メディア・アイテムから次の視覚的メディア・アイテムへの例示的な遷移を示す。 ユーザ入力に応じた、現在の視覚的メディア・アイテムから次の視覚的メディア・アイテムへの例示的な遷移を示す。 ビデオに関連付けられている例示的なタイムライン・スクラバ要素を示す。 ビデオに関連付けられている例示的なタイムライン・スクラバ要素を示す。 ビデオに関連付けられている例示的なタイムライン・スクラバ要素を示す。 ビデオに関連付けられている別の例示的なタイムライン・スクラバ要素を示す。 コンテキストに基づいて動的に変化する例示的なレチクルを示す。 コンテキストに基づいて動的に変化する例示的なレチクルを示す。 コンテキストに基づいて動的に変化する例示的なレチクルを示す。 コンテキストに基づいて動的に変化する例示的なレチクルを示す。 1つまたは複数の仮想ツールを選択するための例示的なインタフェースを示す。 1つまたは複数の仮想ツールを選択するための例示的なインタフェースを示す。 1つまたは複数の仮想ツールを選択するための例示的なインタフェースを示す。 1つまたは複数の仮想ツールを選択するための例示的なインタフェースを示す。 1つまたは複数の仮想ツールを選択するための例示的なインタフェースを示す。 異なる機能を有する異なる仮想ツールを取り扱うインタフェースの例を示す。 異なる機能を有する異なる仮想ツールを取り扱うインタフェースの例を示す。 異なる機能を有する異なる仮想ツールを取り扱うインタフェースの例を示す。 異なる機能を有する異なる仮想ツールを取り扱うインタフェースの例を示す。 異なる機能を有する異なる仮想ツールを取り扱うインタフェースの例を示す。 視覚的メディア・アイテムの場所にユーザ・リアクションを配置する一例を示す。 視覚的メディア・アイテムの場所にユーザ・リアクションを配置する一例を示す。 視覚的メディア・アイテムの場所にユーザ・リアクションを配置する一例を示す。 異なる場所にリアクションが配置された視覚的メディア・アイテムの一例を示す。 異なる場所にリアクションが配置された視覚的メディア・アイテムの一例を示す。 仮想空間におけるアバター・カスタマイズ・エリアの一例を示す。 アバターをカスタマイズするための仮想ツールの例示的な使用を示す。 アバターをカスタマイズするための仮想ツールの例示的な使用を示す。 アバターをカスタマイズするための仮想ツールの例示的な使用を示す。 アバターをカスタマイズするための仮想ツールの例示的な使用を示す。 アバターをカスタマイズするための仮想ツールの例示的な使用を示す。 アバターをカスタマイズするための仮想ツールの例示的な使用を示す。 アバターをカスタマイズするための仮想ツールの例示的な使用を示す。 アバターをカスタマイズするための例示的な仮想雑誌を示す。 アバターをカスタマイズするための例示的な仮想雑誌を示す。 コンテンツの共有または他の形でのインタラクティブ・エクスペリエンスの共有にユーザが使用し得るインタラクティブ面を示す。 コンテンツの共有または他の形でのインタラクティブ・エクスペリエンスの共有にユーザが使用し得るインタラクティブ面を示す。 ロックされているコンテンツ・アイテムの一例を示す。 コンテンツ・アイテムが可視ではないユーザに対して示された、コンテンツ・アイテムのコンテンツ・アイテム表現の一例を示す。 コンテンツ・アイテムが可視ではないユーザの観点からコンテンツ・アイテムと相互作用するユーザの一例を示す。 ユーザが選択したツールに基づいて変更される例示的なインタラクティブ面を示す。 ユーザが選択したツールに基づいて変更される例示的なインタラクティブ面を示す。 コンテンツ・ブラウザ面となるように変更されたインタラクティブ面の一例を示す。 コンテンツ・プレーヤ面となるように変更されたインタラクティブ面の一例を示す。 近くのユーザの数に基づいて変更されるインタラクティブ面の一例を示す。 近くのユーザの数に基づいて変更されるインタラクティブ面の一例を示す。 複数のコントローラで仮想空間と相互作用する例示的な方法を示す。 複数のコントローラで仮想空間と相互作用する例示的な方法を示す。 複数のコントローラで仮想空間と相互作用する例示的な方法を示す。 友達リストをブラウズしている、仮想ルーム内のユーザの一例を示す。 仮想現実システムを使用していないユーザを含む、仮想ルームにおける通信セッションの一例を示す。 仮想ルームの没入型コンテンツを共有して相互作用する一例を示す。 仮想ルームの没入型コンテンツを共有して相互作用する一例を示す。 仮想ルームの没入型コンテンツを共有して相互作用する一例を示す。 仮想ウォッチ上での着信通信の受信の一例を示す。 仮想ウォッチ上での着信通信の受信の一例を示す。 仮想ウォッチ上での着信通信の受信の別の例を示す。 仮想ウォッチ上での着信通信の受信の別の例を示す。 仮想ウォッチ上でのテキスト通信の受信の一例を示す。 仮想ウォッチ上でのライブ・ブロードキャスト通信の受信の一例を示す。 例示的なドック要素インタフェースを示す。 例示的なドック要素インタフェースを示す。 一時停止モードに入るための例示的な入力を示す。 一時停止モードに入るための例示的な入力を示す。 例示的な一時停止モード・インタフェースを示す。 不透明表示領域が仮想空間において360°視野を満たす一例を示す。 不透明表示領域が仮想空間において360°視野を満たす一例を示す。 不透明表示領域が仮想空間において360°視野を満たす一例を示す。 仮想ルームにおいて通知を提示するための例示的な仮想サインを示す。 仮想ルームにおいて通知を提示するための例示的な仮想サインを示す。 仮想ルームにおいて通知を提示するための別の仮想サインを示す。 仮想空間においてコメント要素を操作しているユーザの一例を示す。 仮想空間においてコメント要素を操作しているユーザの一例を示す。 仮想空間においてコメント要素を操作しているユーザの一例を示す。 コンテンツ・アイテム上にメッセージを書いているユーザの一例を示す。 コンテンツ・アイテム上にメッセージを書いているユーザの一例を示す。 コンテンツ・アイテム上にメッセージを書いているユーザの一例を示す。 視線入力に基づいてヒット・ターゲットを選択するための例示的な方法を示す。 レンダリングするレチクル型を決定するための例示的な方法を示す。 ユーザに提示するツールの部分集合を決定するための例示的な方法を示す。 レンダリングするインタラクティブ面の種類を決定するための例示的な方法を示す。 ユーザの身体上の場所に関連付けられているコントローラから入力を受信するための例示的な方法を示す。 仮想ミーティングを開始するための例示的な方法を示す。 仮想デバイス上で通知を受信するための例示的な方法を示す。 2つの部分を有する統合360°視野をレンダリングするための例示的な方法を示す。 仮想空間の関連付けられている各場所においてソーシャル・コメンタリ・アイテムを表示するための例示的な方法を示す。 仮想サイン上で通知を表示するための例示的な方法を示す。 ソーシャル・コメンタリ・アイテムを表現する操作可能な仮想オブジェクトをレンダリングするための例示的な方法を示す。 仮想空間の俯瞰を提示するとともに仮想空間内でユーザを再配置するための例示的な方法を示す。 仮想エクスペリエンスを一時停止するための例示的な方法を示す。 ユーザの仮想表現をカスタマイズするための例示的な方法を示す。 仮想コンテンツを変更して共有するための例示的な方法を示す。 例示的なコンピュータ・システムを示す。
図1は、ソーシャル・ネットワーキング・システムに関連する例示的ネットワーク環境100を示す。ネットワーク環境100は、ネットワーク110によって互いに接続されたクライアント・システム130、ソーシャル・ネットワーキング・システム160、およびサードパーティ・システム170を含む。図1は、クライアント・システム130、ソーシャル・ネットワーキング・システム160、サードパーティ・システム170、およびネットワーク110の特定の構成を示すが、本開示は、クライアント・システム130、ソーシャル・ネットワーキング・システム160、サードパーティ・システム170、およびネットワーク110の任意の適切な構成を企図する。限定ではなく例として、ネットワーク110を迂回して、クライアント・システム130、ソーシャル・ネットワーキング・システム160、およびサードパーティ・システム170のうちの2つ以上を互いに直接的に接続することができる。別の例として、クライアント・システム130、ソーシャル・ネットワーキング・システム160、およびサードパーティ・システム170のうちの2つ以上を、物理的または論理的に、全体的または部分的に共に配置することができる、さらに、図1は、特定の数のクライアント・システム130、ソーシャル・ネットワーキング・システム160、サードパーティ・システム170、およびネットワーク110を示すが、本開示は、任意の適切な数のクライアント・システム130、ソーシャル・ネットワーキング・システム160、サードパーティ・システム170、およびネットワーク110を企図する。限定ではなく例として、ネットワーク環境100は、複数のクライアント・システム130、ソーシャル・ネットワーキング・システム160、サードパーティ・システム170、およびネットワーク110を含むことができる。
本開示は、任意の適切なネットワーク110を企図する。限定ではなく例として、ネットワーク110のうちの1つまたは複数の部分は、アドホック・ネットワーク、イントラネット、エクストラネット、仮想プライベート・ネットワーク(virtual private network : VPN)、ローカル・エリア・ネットワーク(LAN)、ワイヤレスLAN(WLAN)、広域ネットワーク(WAN)、ワイヤレスWAN(WWAN)、大都市圏ネットワーク(metropolitan area network : MAN)、インターネットの一部、公衆交換電話網(PSTN)の一部、携帯電話網、またはこれらの2つ以上の組合せを含むことができる。ネットワーク110は、1つまたは複数のネットワーク110を含むことができる。
リンク150は、クライアント・システム130、ソーシャル・ネットワーキング・システム160、およびサードパーティ・システム170を通信ネットワーク110に、または互いに接続することができる。本開示は、任意の適切なリンク150を企図する。特定の実施形態では、1つまたは複数のリンク150は、1つまたは複数のワイヤーライン(例えば、デジタル加入者線(DSL)またはデータ・オーバー・ケーブル・サービス・インターフェース仕様(DOCSIS : Data Over Cable Service Interface Specification)など)、ワイヤレス(例えば、Wi−Fiまたはマイクロ波アクセスのための世界的相互運用性(WiMAX : Worldwide Interoperability for Microwave Access)など)、または光(例えば、同期光ネットワーク(SONET)または同期デジタル階層(SDH)など)リンクを含む。特定の実施形態では、1つまたは複数のリンク150はそれぞれ、アドホック・ネットワーク、イントラネット、エクストラネット、VPN、LAN、WLAN、WAN、WWAN、MAN、インターネットの一部、PSTNの一部、セルラ技術ベースのネットワーク、衛星通信技術ベースのネットワーク、別のリンク150、または2つ以上のそのようなリンク150の組合せを含む。リンク150は、必ずしもネットワーク環境100全体を通じて同一である必要はない。1つまたは複数の第1のリンク150は、1つまたは複数の点で1つまたは複数の第2のリンク150と異なることがある。
特定の実施形態では、クライアント・システム130は、ハードウェア、ソフトウェア、もしくは組込み論理構成要素、または2つ以上のそのような構成要素の組合せを含み、クライアント・システム130によって実装またはサポートされる適切な機能を実施することができる電子装置でよい。限定ではなく例として、クライアント・システム130は、デスクトップ・コンピュータ、ノートブックもしくはラップトップ・コンピュータ、ネットブック、タブレット・コンピュータ、電子ブック・リーダ、GPSデバイス、カメラ、携帯情報端末(PDA)、ハンドヘルド電子装置、セルラ電話、スマートフォン、拡張/バーチャルリアリティデバイス、その他の適切な電子装置、またはこれらの任意の適切な組合せなどのコンピュータ・システムを含み得る。本開示は、任意の適切なクライアント・システム130を企図する。クライアント・システム130は、クライアント・システム130のネットワーク・ユーザがネットワーク110にアクセスすることを可能にし得る。クライアント・システム130は、そのクライアント・システム130のユーザがその他のクライアント・システム130のその他のユーザと通信することを可能にし得る。
特定の実施形態では、クライアント・システム130は、MICROSOFT INTERNET EXPLORER、GOOGLE CHROME、またはMOZILLA FIREFOXなどのウェブ・ブラウザ132を含み、1つまたは複数のアドオン、プラグイン、またはTOOLBARもしくはYAHOO TOOLBARなどのその他の拡張機能を有する。クライアント・システム130のユーザは、ウェブ・ブラウザ132を(サーバ162、またはサードパーティ・システム170に関連するサーバなどの)特定のサーバに振り向けるユニフォーム・リソース・ロケータ(URL)またはその他のアドレスを入力し、ウェブ・ブラウザ132は、ハイパー・テキスト転送プロトコル(HTTP)要求を生成し、HTTP要求をサーバに伝達する。サーバは、HTTP要求を受け付け、HTTP要求に応じた1つまたは複数のハイパー・テキスト・マークアップ言語(HTML)ファイルをクライアント・システム130に伝達し得る。クライアント・システム130は、ユーザへの提示のためにサーバからのHTMLファイルに基づいてウェブ・ページをレンダリングし得る。本開示は、任意の適切なウェブ・ページ・ファイルを企図する。限定ではなく例として、ウェブ・ページは、特定の必要に応じて、HTMLファイル、拡張可能ハイパー・テキスト・マークアップ言語(XHTML)ファイル、または拡張可能マークアップ言語(XML)ファイルからレンダリングされ得る。そのようなページは、例えば、限定はしないが例えば、JAVASCRIPTで記述されたスクリプトなどのスクリプト、JAVA、MICROSOFT SILVERLIGHT、AJAX(非同期JAVASCRIPTおよびXML)などのマークアップ言語とスクリプトとの組合せなどを実行する。本明細書において、適切な場合、ウェブ・ページに対する参照は、(ブラウザがウェブ・ページをレンダリングするために使用し得る)1つまたは複数の対応するウェブ・ページ・ファイルを包含し、逆も同様である。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、オンライン・ソーシャル・ネットワークをホストすることができるネットワーク・アドレス指定可能コンピューティング・システムでよい。ソーシャル・ネットワーキング・システム160は、例えば、ユーザ・プロフィール・データ、コンセプト(concept)プロフィール・データ、ソーシャル・グラフ情報、またはオンライン・ソーシャル・ネットワークに関する他の適切なデータなどのソーシャル・ネットワーキング・データを生成、格納、受信、および送信することができる。ネットワーク環境100のその他の構成要素により、直接的に、またはネットワーク110を介して、ソーシャル・ネットワーキング・システム160にアクセスすることができる。限定ではなく例として、クライアント・システム130は、ウェブ・ブラウザ132、またはソーシャル・ネットワーキング・システム160に関連付けられたネイティブアプリケーション(例えば、モバイル・ソーシャル・ネットワーキング・アプリケーション、メッセージング・アプリケーション、他の適切なアプリケーション、またはそれらの任意の組み合わせ)を直接またはネットワーク110を介して使用して、ソーシャル・ネットワーキング・システム160にアクセスすることができる。特定の実施形態では、ソーシャル・ネットワーキング・システム160は、1つまたは複数のサーバ162を含むことができる。各サーバ162は、単一のサーバであるか、または複数のコンピュータもしくは複数のデータセンタにわたる分散型サーバである。サーバ162は、限定はしないが例えば、ウェブ・サーバ、ニュース・サーバ、メール・サーバ、メッセージ・サーバ、広告サーバ、ファイル・サーバ、アプリケーション・サーバ、エクスチェンジ・サーバ(exchange server)、データベース・サーバ、プロキシ・サーバ、本明細書において説明される機能もしくは方法を実施するのに適切な別のサーバ、またはこれらの任意の組合せなどの様々なタイプである。特定の実施形態では、各サーバ162は、ハードウェア、ソフトウェア、もしくは組込み論理構成要素、またはサーバ162によって実装またはサポートされる適切な機能を実施するための2つ以上のそのような構成要素の組合せを含むことができる。特定の実施形態では、ソーシャル・ネットワーキング・システム160は、1つまたは複数のデータ・ストア164を含むことができる。データ・ストア164は、様々なタイプの情報を記憶するために使用され得る。特定の実施形態では、データ・ストア164に記憶される情報は、特定のデータ構造にしたがって編成され得る。特定の実施形態では、各データ・ストア164は、リレーショナル・データベース、列指向データベース、相関データベース(correlation database)、または他の適切なデータベースである。本開示は、特定のタイプのデータベースを説明または図示するが、本開示は任意の適切なタイプのデータベースを企図する。特定の実施形態は、クライアント・システム130、ソーシャル・ネットワーキング・システム160、またはサードパーティ・システム170がデータ・ストア164に記憶された情報を管理、検索、修正、追加、または削除することを可能にするインタフェースを提供し得る。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、1つまたは複数のデータ・ストア164に1つまたは複数のソーシャル・グラフを記憶し得る。特定の実施形態では、ソーシャル・グラフは、複数のノードと、ノードを接続する複数のエッジとを含み得る。複数のノードは、(それぞれが特定のユーザに対応する)複数のユーザ・ノードまたは(それぞれが特定の概念に対応する)複数のコンセプト・ノードを含み得る。ソーシャル・ネットワーキング・システム160は、オンライン・ソーシャル・ネットワークのユーザに他のユーザと通信および対話する能力を提供し得る。特定の実施形態では、ユーザは、ソーシャル・ネットワーキング・システム160を介してオンライン・ソーシャル・ネットワークに参加し、それから、それらのユーザがつなげられたいソーシャル・ネットワーキング・システム160の何人かの他のユーザへのつながり(例えば、関係)を追加し得る。本明細書において、「友達」という用語は、ソーシャル・ネットワーキング・システム160を介してユーザがつながり、関連付け、または関係を形成したソーシャル・ネットワーキング・システム160の任意の他のユーザを指すことがある。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、ソーシャル・ネットワーキング・システム160によってサポートされる様々なタイプのアイテム(item)またはオブジェクトに対するアクションを行う機能をユーザに提供し得る。限定ではなく例として、アイテムおよびオブジェクトは、ソーシャル・ネットワーキング・システム160のユーザが属するグループもしくはソーシャル・ネットワーク、ユーザが関心を持っているイベントもしくはカレンダーのエントリ、ユーザが使用し得るコンピュータに基づくアプリケーション、ユーザがサービスを介してアイテムを購入もしくは販売することを可能にするトランザクション、ユーザが実施することができる広告とのインタラクション(interaction)、または他の適切なアイテムもしくはオブジェクトを含み得る。ユーザは、ソーシャル・ネットワーキング・システム160、またはソーシャル・ネットワーキング・システム160と分かれており、ネットワーク110を介してソーシャル・ネットワーキング・システム160に結合されるサードパーティ・システム170の外部システムによって示され得る任意のものと対話することができる。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、様々なエンティティをリンクすることができる。限定ではなく例として、ソーシャル・ネットワーキング・システム160は、ユーザが互いに対話し、サードパーティ・システム170もしくは他のエンティティからコンテンツを受信するか、またはユーザがアプリケーション・プログラミング・インターフェース(API)もしくは他の通信チャネルを通じてこれらのエンティティと対話することを可能にする。
特定の実施形態では、サードパーティ・システム170は、1つもしくは複数のタイプのサーバ、1つもしくは複数のデータ・ストア、APIを含むがこれに限定されない1つもしくは複数のインタフェース、1つもしくは複数のウェブ・サービス、1つもしくは複数のコンテンツ・ソース、1つもしくは複数のネットワーク、または例えばサーバが通信することができる任意の他の適切な構成要素を含む。サードパーティ・システム170は、ソーシャル・ネットワーキング・システム160を運用するエンティティとは異なるエンティティによって運用される。しかし、特定の実施形態では、ソーシャル・ネットワーキング・システム160およびサードパーティ・システム170は、互いに連係して動作して、ソーシャル・ネットワーキング・システム160またはサードパーティ・システム170のユーザにソーシャル・ネットワーキング・サービスを提供し得る。この意味で、ソーシャル・ネットワーキング・システム160は、サードパーティ・システム170などの他のシステムがインターネットを介してユーザにソーシャル・ネットワーキング・サービスおよび機能を提供するために使用し得るプラットフォームまたはバックボーンを提供する。
特定の実施形態では、サードパーティ・システム170は、サードパーティ・コンテンツ・オブジェクト・プロバイダを含むことができる。サードパーティ・コンテンツ・オブジェクト・プロバイダは、クライアント・システム130に伝達され得るコンテンツ・オブジェクトの1つまたは複数のソースを含むことができる。限定ではなく例として、コンテンツ・オブジェクトは、例えば、映画の上映時間、映画の批評、レストランの批評、レストランのメニュー、製品の情報および批評、または他の適切な情報などのユーザが関心を持っているものまたは活動に関する情報を含むことができる。限定ではなく別の例として、コンテンツ・オブジェクトは、クーポン、割引チケット、商品券、または他の適切なインセンティブ・オブジェクト(incentive object)などのインセンティブ・コンテンツ・オブジェクト(incentive content object)を含むことができる。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、ソーシャル・ネットワーキング・システム160とのユーザの対話を向上させ得るユーザによって生成されたコンテンツ・オブジェクトも含む。ユーザによって生成されたコンテンツは、ユーザがソーシャル・ネットワーキング・システム160に追加、アップロード、送信、または「投稿」することができる任意のものを含む。限定ではなく例として、ユーザは、クライアント・システム130からソーシャル・ネットワーキング・システム160に投稿を伝達する。投稿は、最新の近況もしくは他のテキスト・データ、位置情報、フォト、ビデオ、リンク、音楽、または他の同様のデータもしくは媒体などのデータを含む。コンテンツは、ニュースフィードまたはストリームなどの「通信チャネル」を通じてサードパーティ・によってソーシャル・ネットワーキング・システム160に追加される。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、様々なサーバ、サブシステム、プログラム、モジュール、ログ、およびデータ・ストアを含む。特定の実施形態では、ソーシャル・ネットワーキング・システム160は、以下、すなわち、ウェブ・サーバ、アクション・ロガー、API要求サーバ、関連性およびランク付けエンジン(relevance-and-ranking engine)、コンテンツ・オブジェクト分類器、通知コントローラ、アクション・ログ、サードパーティ・コンテンツ・オブジェクト露出ログ、推定モジュール、許可/プライバシー・サーバ、検索モジュール、広告ターゲティング・モジュール(advertisement-targeting module)、ユーザ・インタフェース・モジュール、ユーザ・プロフィール・ストア、つながりストア(connection store)、サードパーティ・コンテンツ・ストア、または位置ストアのうちの1つまたは複数を含むことができる。ソーシャル・ネットワーキング・システム160は、ネットワーク・インターフェース、セキュリティ・メカニズム、ロード・バランサ、フェイルオーバ・サーバ、管理およびネットワーク操作コンソール、他の適切な構成要素、またはこれらの任意の適切な組合せなどの適切な構成要素も含む。特定の実施形態では、ソーシャル・ネットワーキング・システム160は、ユーザ・プロフィールを記憶するための1つまたは複数のユーザ・プロフィール・ストアを含む。ユーザ・プロフィールは、例えば、経歴、人口統計学的情報、行動情報、ソーシャル情報(social information)、あるいは職歴、学歴、趣味もしくは好み、関心、アフィニティ(affinity)、または位置などの他のタイプの記述情報を含む。関心の情報は、1つまたは複数のカテゴリに関連する関心を含む。カテゴリは、大まかであるかまたは詳細である。限定ではなく例として、ユーザが、靴のブランドに関する記事「に対して『いいね!』を表明する(like)」場合、カテゴリは、ブランドであるか、または大まかなカテゴリ「靴」もしくは「衣料品」である。つながりストアは、ユーザについてのつながり情報を記憶するために使用され得る。つながり情報は、同様のもしくは共通の職歴、グループへの所属、趣味、学歴を有するか、または何らかの形で関連があるか、もしくは共通の属性を共有するユーザを示す。つながり情報は、異なるユーザと(内部と外部との両方の)コンテンツとの間のユーザによって定義されたつながりも含む。ウェブ・サーバは、ソーシャル・ネットワーキング・システム160をネットワーク110を介して1つもしくは複数のクライアント・システム130または1つもしくは複数のサードパーティ・システム170にリンクするために使用され得る。ウェブ・サーバは、メール・サーバ、またはメッセージを受信し、ソーシャル・ネットワーキング・システム160と1つまたは複数のクライアント・システム130との間でルーティングするための他のメッセージング機能を含む。API要求サーバは、サードパーティ・システム170が1つまたは複数のAPIを呼び出すことによってソーシャル・ネットワーキング・システム160の情報にアクセスする。アクション・ロガーは、ソーシャル・ネットワーキング・システム160に対するユーザのアクションまたはソーシャル・ネットワーキング・システム160に対してではないユーザのアクションについてのウェブ・サーバからの通信を受信するために使用され得る。アクション・ログと併せて、ユーザに対するサードパーティ・コンテンツ・オブジェクトの露出のサードパーティ・コンテンツ・オブジェクト・ログが、保有され得る。通知コントローラは、コンテンツ・オブジェクトに関する情報をクライアント・システム130に提供し得る。情報は、クライアント・システム130に通知としてプッシュされるか、またはクライアント・システム130から受信された要求に応じてクライアント・システム130からプルされる。許可サーバは、ソーシャル・ネットワーキング・システム160のユーザの1つまたは複数のプライバシー設定を施行するために使用され得る。ユーザのプライバシー設定は、ユーザに関連する特定の情報がどのように共有され得るかを決定する。許可サーバは、ユーザが、例えば、適切なプライバシー設定を設定することによるなどしてそれらのユーザのアクションをソーシャル・ネットワーキング・システム160によってログに記録させるかまたは他のシステム(例えば、サードパーティ・システム170)と共有させることを選択するかまたは選択しない。サードパーティ・コンテンツ・オブジェクト・ストアは、サードパーティ・システム170などのサードパーティから受信されたコンテンツ・オブジェクトを記憶するために使用され得る。位置ストアは、ユーザに関連するクライアント・システム130から受信された位置情報を記憶するために使用され得る。広告値付けモジュール(advertisement-pricing module)は、ソーシャル情報、現在の時間、位置情報、または他の適切な情報を組み合わせて、関連する広告を通知の形態でユーザに提供し得る。
図2は、例示的なソーシャル・グラフ200を示す。特定の実施形態では、ソーシャル・ネットワーキング・システム160は、1つまたは複数のデータ・ストア(data store)内に1つまたは複数のソーシャル・グラフ200を格納することができる。特定の実施形態では、ソーシャル・グラフ200は、複数のノード(これは複数のユーザ・ノード202または複数のコンセプト・ノード(concept node)204を含むことができる)と、ノードを接続する複数のエッジ(edge)206とを含むことができる。図2に示される例示的なソーシャル・グラフ200は、説明のために、2次元視覚マップ表現で示されている。特定の実施形態では、ソーシャル・ネットワーキング・システム160、クライアント・システム130、またはサードパーティ・システム170は、ソーシャル・グラフ200および適切なアプリケーションについての関連するソーシャル・グラフ情報にアクセスすることができる。ソーシャル・グラフ200のノードおよびエッジを、データ・オブジェクトとして、例えばデータ・ストア(ソーシャル・グラフ・データベースなど)内に格納することができる。そのようなデータ・ストアは、ソーシャル・グラフ200のノードまたはエッジの1つまたは複数の検索可能または照会可能な索引を含むことができる。
特定の実施形態では、ユーザ・ノード202は、ソーシャル・ネットワーキング・システム160のユーザに対応することができる。限定ではなく例として、ユーザは、ソーシャル・ネットワーキング・システム160と、またはソーシャル・ネットワーキング・システム160を介して対話または通信する個人(人間のユーザ)、エンティティ(例えば、企業、ビジネス、またはサードパーティ・アプリケーション)、または(例えば、個人またはエンティティの)グループでよい。特定の実施形態では、ユーザがソーシャル・ネットワーキング・システム160にアカウントを登録するとき、ソーシャル・ネットワーキング・システム160は、ユーザに対応するユーザ・ノード202を作成し、1つまたは複数のデータ・ストア内にユーザ・ノード202を格納することができる。本明細書で説明するユーザおよびユーザ・ノード202は、適切な場合、登録されたユーザおよび登録されたユーザに関連するユーザ・ノード202を指す。追加または代替として、本明細書で説明するユーザおよびユーザ・ノード202は、適切な場合、ソーシャル・ネットワーキング・システム160に登録していないユーザを指す。特定の実施形態では、ユーザによって提供される情報、またはソーシャル・ネットワーキング・システム160を含む様々なシステムによって収集される情報に、ユーザ・ノード202を関連付けることができる。限定ではなく例として、ユーザは、ユーザの名前、プロフィール写真、連絡先情報、誕生日、性別、結婚状況、家族状況、職業、学歴、好み、関心、または他の人口統計学的情報を提供することができる。特定の実施形態では、ユーザに関連する情報に対応する1つまたは複数のデータ・オブジェクトにユーザ・ノード202を関連付けることができる。特定の実施形態では、ユーザ・ノード202は、1つまたは複数のウェブ・ページに対応することができる。
特定の実施形態では、コンセプト・ノード204はコンセプト(concept)に対応することができる。限定ではなく例として、概念は、場所(例えば、映画館、レストラン、ランドマーク、または都市など)、ウェブサイト(例えば、ソーシャル・ネットワーク・システム160に関連するウェブサイトまたはウェブ・アプリケーション・サーバに関連するサード・パーティ・ウェブサイトなど)、エンティティ(例えば、人、会社、グループ、スポーツ・チーム、または有名人など)、ソーシャル・ネットワーキング・システム160内またはウェブ・アプリケーション・サーバなどの外部サーバ上に位置することのできるリソース(例えば、オーディオ・ファイル、ビデオ・ファイル、デジタル・フォト、テキスト・ファイル、構造化された文書、またはアプリケーションなど)、物的または知的財産(例えば、彫刻、絵画、映画、ゲーム、歌、アイデア、写真、または著作物など)、ゲーム、活動、アイデアまたは理論、拡張/バーチャルリアリティ環境内のオブジェクト、他の適切な概念、あるいは2つ以上のそのような概念に対応することができる。ユーザによって提供される概念の情報、またはソーシャル・ネットワーキング・システム160を含む様々なシステムによって収集される情報に概念ノード204を関連付けることができる。限定ではなく例として、概念の情報は、名前またはタイトル、1つまたは複数のイメージ(例えば、本のカバー・ページのイメージ)、位置(例えば、住所または地理的位置)、ウェブサイト(それをURLに関連付けることができる)、連絡先情報(例えば、電話番号またはeメール・アドレス)、他の適切なコンセプト情報、またはそのような情報の任意の適切な組合せを含むことができる。特定の実施形態では、コンセプト・ノード204に関連する情報に対応する1つまたは複数のデータ・オブジェクトにコンセプト・ノード204を関連付けることができる。特定の実施形態では、コンセプト・ノード204は1つまたは複数のウェブ・ページに対応することができる。
特定の実施形態では、ソーシャル・グラフ200内のノードは、ウェブ・ページ(「プロフィール・ページ」と呼ばれることがある)を表すこと、またはウェブ・ページによって表すことができる。プロフィール・ページは、ソーシャル・ネットワーキング・システム160によってホストすること、またはソーシャル・ネットワーキング・システム160にとってアクセス可能にすることができる。プロフィール・ページはまた、サードパーティ・システム170に関連するサード・パーティ・ウェブサイト上でホストすることもできる。限定ではなく例として、特定の外部ウェブ・ページに対応するプロフィール・ページは、特定の外部ウェブ・ページでよく、プロフィール・ページは、特定のコンセプト・ノード204に対応することができる。プロフィール・ページは、他のユーザのすべてまたは選択された一部分によって閲覧可能とすることができる。限定ではなく例として、ユーザ・ノード202は、対応するユーザがその中でコンテンツを追加し、宣言を行い、あるいはユーザ自身を表現することのできる、対応するユーザ・プロフィール・ページを有することができる。限定ではなく別の例として、コンセプト・ノード204は、特にコンセプト・ノード204に対応するコンセプトに関連して、1人または複数のユーザがその中でコンテンツを追加し、宣言を行い、またはユーザ自身を表現することのできる、対応するコンセプトプロフィール・ページを有することができる。
特定の実施形態では、コンセプト・ノード204は、サードパーティ・システム170によってホストされるサード・パーティ・ウェブページまたはリソースを表すことができる。サード・パーティ・ウェブページまたはリソースは、他の要素において、コンテンツ、選択可能な、もしくは他のアイコン、またはアクションもしくは活動を表す(例えば、JAVA(登録商標)Script、AJAX、またはPHPコードで実装することのできる)他の対話型オブジェクトを含むことができる。限定ではなく例として、サード・パーティ・ウェブページは、「いいね!」、「チェックイン(check in)」、「食べる(eat)」、「レコメンド(recommend)」、または別の適切なアクションもしくは活動などの、選択可能なアイコンを含むことができる。サード・パーティ・ウェブページを閲覧するユーザは、アイコンのうちの1つ(例えば、「チェックイン」)を選択し、クライアント・システム130に、ユーザのアクションを示すメッセージをソーシャル・ネットワーキング・システム160に送信させることによってアクションを実施することができる。メッセージに応答して、ソーシャル・ネットワーキング・システム160は、ユーザに対応するユーザ・ノード202と、サード・パーティ・ウェブページまたはリソースに対応するコンセプト・ノード204との間のエッジ(例えば、「チェックイン」タイプのエッジ)を作成し、1つまたは複数のデータ・ストア内にエッジ206を格納することができる。
特定の実施形態では、1つまたは複数のエッジ206によってソーシャル・グラフ200内の1対のノードを互いに接続することができる。1対のノードを接続するエッジ206は、その1対のノード間の関係を表すことができる。特定の実施形態では、エッジ206は、1対のノード間の関係に対応する1つまたは複数のデータ・オブジェクトまたは属性を含むか、または表すことができる。限定ではなく例として、第1のユーザは、第2のユーザが第1のユーザの「友達」であることを示すことができる。この表示に応答して、ソーシャル・ネットワーキング・システム160は、第2のユーザに「友達要求」を送信することができる。第2のユーザが「友達要求」を確認した場合、ソーシャル・ネットワーキング・システム160は、第1のユーザのユーザ・ノード202をソーシャル・グラフ200内の第2のユーザのユーザ・ノード202に接続するエッジ206を作成し、データ・ストア24のうちの1つまたは複数の中にエッジ206をソーシャル・グラフ情報として格納することができる。図2の例では、ソーシャル・グラフ200は、ユーザ「A」とユーザ「B」のユーザ・ノード202間の友達関係を示すエッジ206と、ユーザ「C」とユーザ「B」のユーザ・ノード202間の友達関係を示すエッジとを含む。本開示は、特定のユーザ・ノード202を接続する特定の属性を有する特定のエッジ206を説明するかまたは図示するが、本開示は、ユーザ・ノード202を接続する任意の適切な属性を有する任意の適切なエッジ206を企図する。限定ではなく例として、エッジ206は、友達関係、家族関係、ビジネスまたは雇用関係、(例えば、「いいね!」等を含む)ファン関係(fan relationship)、フォロワ関係、(例えば、アクセス、閲覧、チェックイン、共有等を含む)ビジター関係(visitor relationship)、加入者関係、上位/従属関係、相互関係、非相互関係、別の適切なタイプの関係、または2つ以上のそのような関係を表すことができる。さらに、本開示は一般にノードが接続されているものとして説明するが、本開示はまた、ユーザまたはコンセプトが接続されているものとして説明する。本明細書では、接続されているユーザまたはコンセプトに対する参照は、適切な場合、1つまたは複数のエッジ206によってソーシャル・グラフ200内で接続されているユーザまたはコンセプトに対応するノードを指すことがある。
特定の実施形態では、ユーザ・ノード202とコンセプト・ノード204との間のエッジ206は、コンセプト・ノード204に関連するコンセプトに対する、ユーザ・ノード202に関連するユーザによって実施される特定のアクションまたは活動を表すことができる。限定ではなく例として、図2に示されるように、ユーザは、コンセプトに対して「いいね!」を表明し、コンセプトに「出席し」、コンセプトを「再生し」、コンセプトを「聴取し」、コンセプトを「調理し」、コンセプトに「取り組み」、またはコンセプトを「視聴する」ことができ、そのそれぞれは、エッジ・タイプまたはサブタイプに対応することができる。コンセプト・ノード204に対応するコンセプトプロフィール・ページは、例えば、選択可能な「チェックイン」アイコン(例えば、クリッカブル(clickable)「チェックイン」アイコンなど)または選択可能な「お気に入りに追加」アイコンを含むことができる。同様に、ユーザがこれらのアイコンをクリックした後、ソーシャル・ネットワーキング・システム160は、それぞれのアクションに対応するユーザのアクションに応答して、「お気に入り」エッジまたは「チェックイン」エッジを作成することができる。限定ではなく別の例として、ユーザ(ユーザ「C」)が、特定のアプリケーション(オンライン音楽アプリケーションであるSPOTIFY)を使用して、特定の歌を聴取することができる(「Imagine」)。この場合、ソーシャル・ネットワーキング・システム160は、(図2に示すように)ユーザに対応するユーザ・ノード202と、歌およびアプリケーションに対応するコンセプト・ノード204との間の「聴取済み(listened)」エッジ206および「使用済み(used)」エッジを作成し、ユーザが歌を聴取し、アプリケーションを使用したことを示すことができる。さらに、ソーシャル・ネットワーキング・システム160は、(図2に示すように)歌およびアプリケーションに対応するコンセプト・ノード204間の「再生済み(played)」エッジ206を作成し、特定の歌が特定のアプリケーションによって再生されたことを示すことができる。この場合、「再生済み」エッジ206は、外部アプリケーション(SPOTIFY)によって外部オーディオ・ファイル(歌「イマジン」)に対して実施されたアクションに対応する。本開示は、ユーザ・ノード202およびコンセプト・ノード204を接続する特定の属性を有する特定のエッジ206を説明するが、本開示は、ユーザ・ノード202およびコンセプト・ノード204を接続する任意の適切な属性を有する任意の適切なエッジ206を企図する。さらに、本開示は単一の関係を表すユーザ・ノード202とコンセプト・ノード204との間のエッジを説明するが、本開示は、1つまたは複数の関係を表すユーザ・ノード202とコンセプト・ノード204との間のエッジを企図する。限定ではなく例として、エッジ206は、ユーザが特定のコンセプトを好むこと、および特定のコンセプトを使用したことの両方を表すことができる。あるいは、別のエッジ206は、(図2の、ユーザ「E」に関するユーザ・ノード202と、「SPOTIFY」に関するコンセプト・ノード204との間で示されるように)ユーザ・ノード202とコンセプト・ノード204との間の各タイプの関係(または複数の単一の関係)を表すことができる。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、ソーシャル・グラフ200内のユーザ・ノード202とコンセプト・ノード204との間のエッジ206を作成することができる。限定ではなく例として、(例えば、ユーザのクライアント・システム130によってホストされるウェブ・ブラウザまたは専用アプリケーションを使用することによって)コンセプトプロフィール・ページを閲覧するユーザは、「いいね!」アイコンをクリックまたは選択することにより、ユーザがコンセプト・ノード204によって表されるコンセプトを好むことを示すことができ、それによって、ユーザのクライアント・システム130に、ユーザがコンセプトプロフィール・ページに関連するコンセプトを好むことを示すメッセージをソーシャル・ネットワーキング・システム160に送信させることができる。メッセージに応答して、ソーシャル・ネットワーキング・システム160は、ユーザとコンセプト・ノード204との間の「いいね!」エッジ206で示されるように、ユーザに関連するユーザ・ノード202と、コンセプト・ノード204との間のエッジ206を作成することができる。特定の実施形態では、ソーシャル・ネットワーキング・システム160は、1つまたは複数のデータ・ストア内にエッジ206を格納することができる。特定の実施形態では、特定のユーザ・アクションに応答して、エッジ206をソーシャル・ネットワーキング・システム160によって自動的に形成することができる。限定ではなく例として、第1のユーザが写真をアップロードし、映画を視聴し、または歌を聴取する場合、第1のユーザに対応するユーザ・ノード202と、これらのコンセプトに対応するコンセプト・ノード204との間のエッジ206を形成することができる。本開示は、特定の方式で特定のエッジ206を形成することを説明するが、本開示は、任意の適切な方式で任意の適切なエッジ206を形成することを企図する。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、様々なソーシャル・グラフ・エンティティの、互いに対するソーシャル・グラフ・アフィニティ(本明細書では「アフィニティ(affinity)」と呼ぶことがある)を決定することができる。アフィニティは、オンライン・ソーシャル・ネットワークに関連するユーザ、コンセプト、コンテンツ、アクション、広告、他のオブジェクト、またはそれらの任意の適切な組合せなどの、オンライン・ソーシャル・ネットワークに関連する特定のオブジェクト間の関係の強さまたは関心のレベルを表すことができる。サードパーティ・システム170または他の適切なシステムに関連するオブジェクトに関してアフィニティを決定することもできる。ユーザ、主題、またはコンテンツのタイプごとのソーシャル・グラフ・エンティティについての全アフィニティを確立することができる。全アフィニティは、ソーシャル・グラフ・エンティティに関連するアクションまたは関係の継続した監視に基づいて変化することがある。本開示は、特定の方式で特定のアフィニティを求めることを説明するが、本開示は、任意の適切な方式で任意の適切なアフィニティを求めることを企図する。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、アフィニティ係数(本明細書では「係数(coefficient)」と呼ぶことがある)を使用してソーシャル・グラフ・アフィニティを測定または定量化することができる。係数は、オンライン・ソーシャル・ネットワークに関連する特定のオブジェクト間の関係の強さを表すか、または定量化することができる。係数はまた、アクションへのユーザの関心に基づいてユーザが特定のアクションを実施する予測確率を測定する確率または関数も表すことができる。このようにして、ユーザの以前のアクションに基づいてユーザの将来のアクションを予想することができ、ユーザのアクションの履歴に少なくとも部分的に基づいて係数を計算することができる。係数を使用して、オンライン・ソーシャル・ネットワーク内、またはオンライン・ソーシャル・ネットワーク外であることがある任意の数のアクションを予測することができる。限定ではなく例として、これらのアクションは、メッセージを送ること、コンテンツを投稿すること、コンテンツに対してコメントすることなどの様々なタイプの通信、プロフィール・ページ、メディア、または他の適切なコンテンツにアクセスし、またはそれを閲覧することなどの様々なタイプの観察アクション、同一グループ内にいること、同一の写真内でタグ付けされること、同一の位置でチェックインすること、同一のイベントに出席することなどの2つ以上のソーシャル・グラフ・エンティティについての様々なタイプの一致情報、または他の適切なアクションを含むことができる。本開示は、特定の方式でアフィニティを測定することを説明するが、本開示は、任意の適切な方式でアフィニティを測定することを企図する。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、様々な要素を使用して係数を計算することができる。これらの要素は、例えば、ユーザ・アクション、オブジェクト間、位置情報間、他の適切な要素間の関係のタイプ、またはそれらの任意の組合せを含むことができる。特定の実施形態では、係数を計算するとき、異なる要素を異なるように重み付けすることができる。各要素についての重みは静的でよく、または重みは、例えば、ユーザ、関係のタイプ、アクションのタイプ、ユーザの位置などに従って変化することができる。要素の重みに従って要素についてのレーティング(rating)を組合せ、ユーザについての全体的係数を求めることができる。限定ではなく例として、特定のユーザ・アクションに、レーティングと重みをどちらも割り当てることができ、特定のユーザ・アクションに関連する関係に、レーティングおよび(例えば、重みの合計が100%となるような)相関する重みに割り当てられる。特定のオブジェクトに対するユーザの係数を計算するために、ユーザのアクションに割り当てられるレーティングが、例えば全体的係数の60%を含むことができ、ユーザとオブジェクトとの間の関係が、全体的係数の40%を含むことができる。特定の実施形態では、ソーシャル・ネットワーキング・システム160は、係数を計算するのに使用される様々な要素についての重みを決定するときに、例えば、情報にアクセスされてからの時間、減衰要素、アクセスの頻度、情報に対する関係、もしくはそれについての情報にアクセスされたオブジェクトに対する関係、オブジェクトに接続されるソーシャル・グラフ・エンティティに対する関係、ユーザ・アクションの短期もしくは長期平均、ユーザ・フィードバック、他の適切な変数、またはそれらの任意の組合せなどの、様々な変数を考慮することができる。限定ではなく例として、係数を計算するときに、より最近のアクションがより関連性が高くなるように、係数は、特定のアクションによって供給される信号の強さを時間と共に減衰させる減衰要素を含むことができる。係数がそれに基づくアクションの継続した追跡に基づいて、レーティングおよび重みを継続的に更新することができる。各要素についてのレーティング、および要素に割り当てられる重みの割当て、組合せ、平均化などのために、任意のタイプの工程またはアルゴリズムを利用することができる。特定の実施形態では、ソーシャル・ネットワーキング・システム160は、履歴アクションおよび過去のユーザ応答に関してトレーニングされた機械学習アルゴリズムを使用して、またはユーザを様々なオプションにさらし、応答を測定することによってユーザからファーミングされたデータを使用して、係数を求めることができる。本開示は、特定の方式で係数を計算することを説明するが、本開示は、任意の適切な方式で係数を計算することを企図する。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、ユーザのアクションに基づいて係数を計算することができる。ソーシャル・ネットワーキング・システム160は、オンライン・ソーシャル・ネットワーク上、サードパーティ・システム170上、他の適切なシステム上、またはそれらの任意の組合せの上のそのようなアクションを監視することができる。任意の適切なタイプのユーザ・アクションを追跡または監視することができる。典型的なユーザ・アクションは、プロフィール・ページを閲覧すること、コンテンツを作成または投稿すること、コンテンツと対話すること、画像にタグ付けまたはタグ付けされること、グループに加わること、イベントへの出席リストおよび確認すること、位置でチェックインすること、特定のページをリンクすること、ページを作成すること、ならびにソーシャル・アクションを容易にする他のタスクを実施することを含む。特定の実施形態では、ソーシャル・ネットワーキング・システム160は、特定のタイプのコンテンツとの間のユーザのアクションに基づいて係数を計算することができる。オンライン・ソーシャル・ネットワーク、サードパーティ・システム170、または別の適切なシステムにコンテンツを関連付けることができる。コンテンツは、ユーザ、プロフィール・ページ、投稿、ニュース記事、ヘッドライン、インスタント・メッセージ、チャットルーム会話、電子メール、広告、写真、ビデオ、音楽、他の適切なオブジェクト、またはそれらの任意の組合せを含むことができる。ソーシャル・ネットワーキング・システム160は、ユーザのアクションを解析して、アクションのうちの1つまたは複数が主題、コンテンツ、他のユーザなどに対するアフィニティを示すかどうかを判定することができる。限定ではなく例として、ユーザが「コーヒー」またはその変形に関するコンテンツを頻繁に投稿することがある場合、ソーシャル・ネットワーキング・システム160は、ユーザがコンセプト「コーヒー」に関する高い係数を有すると判定することができる。特定のアクションまたはアクションのタイプに、他のアクションよりも高い重みおよび/またはレーティングを割り当てることができ、それは、計算される全体的係数に影響を及ぼすことがある。限定ではなく例として、第1のユーザが第2のユーザに電子メールを送る場合、第1のユーザが第2のユーザについてのユーザ・プロフィール・ページを単に閲覧する場合よりも、アクションについての重みまたはレーティングを高くすることができる。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、特定のオブジェクト間の関係のタイプに基づいて係数を計算することができる。ソーシャル・グラフ200を参照すると、ソーシャル・ネットワーキング・システム160は、係数を計算するとき、特定のユーザ・ノード202およびコンセプト・ノード204を接続するエッジ206の数および/またはタイプを解析する。限定ではなく例として、(2人のユーザが結婚していることを表す)配偶者タイプ・エッジによって接続されるユーザ・ノード202に、友達タイプ・エッジによって接続されるユーザ・ノード202よりも高い係数を割り当てることができる。言い換えれば、特定のユーザについてのアクションおよび関係に割り当てられる重みに応じて、ユーザの配偶者についてのコンテンツに関して、ユーザの友達についてのコンテンツに関してよりも全アフィニティが高いと判定することができる。特定の実施形態では、ユーザが別のオブジェクトとの間で有する関係が、そのオブジェクトについての係数を計算することに関して、ユーザのアクションの重みおよび/またはレーティングに影響を及ぼすことがある。限定ではなく例として、ユーザが第1の写真内でタグ付けされるが、単に第2の写真に「いいね!」を表明する場合、ソーシャル・ネットワーキング・システム160は、コンテンツとのタグ付けタイプ関係(tagged-in-type relationship)を有することに、コンテンツとの「いいね!」タイプ関係を有することよりも高い重みおよび/またはレーティングを割り当てることができるので、ユーザが、第1の写真に関して、第2の写真よりも高い係数を有すると判定することができる。特定の実施形態では、ソーシャル・ネットワーキング・システム160は、1つまたは複数の第2のユーザが特定のオブジェクトとの間で有する関係に基づいて、第1のユーザについての係数を計算することができる。言い換えれば、他のユーザがオブジェクトとの間で有する接続および係数が、オブジェクトについての第1のユーザの係数に影響を及ぼすことがある。限定ではなく例として、第1のユーザが1人または複数の第2のユーザに接続され、または1人または複数の第2のユーザについて高い係数を有し、そうした第2のユーザが特定のオブジェクトに接続され、または特定のオブジェクトについて高い係数を有する場合、ソーシャル・ネットワーキング・システム160は、第1のユーザがその特定のオブジェクトについても比較的高い係数を有するはずであると判定することができる。特定の実施形態では、係数は、特定のオブジェクト間の分離度に基づくことができる。低い係数は、第1のユーザがソーシャル・グラフ200内の第1のユーザに間接的につながるユーザのコンテンツ・オブジェクトへの関心を共有する可能性が低いことを表すことができる。限定ではなく例として、ソーシャル・グラフ200内で近い(すなわち、分離度が低い)各ソーシャル・グラフ・エンティティが、ソーシャル・グラフ200内でさらに離れている各エンティティよりも高い係数を有する。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、位置情報に基づいて係数を計算することができる。互いに地理的に近いオブジェクトは、より離れたオブジェクトよりも互いにより高く関係付けられ、またはより高い関心があるとみなすことができる。特定の実施形態では、特定のオブジェクトに対するユーザの係数は、ユーザに関連する現在位置(またはユーザのクライアント・システム130の位置)に対するオブジェクト位置の近接に基づくことができる。第1のユーザは、第1のユーザにより近い他のユーザまたはコンセプトにより関心を持つことがある。限定ではなく例として、ユーザが空港から1.6km(1マイル)であり、ガソリン・スタンドから3.2km(2マイル)である場合、ソーシャル・ネットワーキング・システム160は、ユーザに対する空港の近さに基づいて、ユーザがガソリン・スタンドよりも空港について高い係数を有すると判定することができる。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、係数情報に基づいて、ユーザに関する特定のアクションを実施することができる。係数を使用して、アクションへのユーザの関心に基づいて、ユーザが特定のアクションを実施するかどうかを予測することができる。広告、検索結果、ニュース記事、メディア、メッセージ、通知、または他の適切なオブジェクトなどの任意のタイプのオブジェクトを生成し、またはユーザに提示するときに、係数を使用することができる。係数を利用して、そのようなオブジェクトを適宜ランク付けおよび順序付けすることもできる。このようにして、ソーシャル・ネットワーキング・システム160は、ユーザの関心および現在の環境に関連する情報を提供し、そのような情報を興味深いと感じる可能性を高めることができる。特定の実施形態では、ソーシャル・ネットワーキング・システム160は、係数情報に基づいてコンテンツを生成することができる。ユーザに特有の係数に基づいてコンテンツ・オブジェクトを提供または選択することができる。限定ではなく例として、係数を使用して、ユーザについてのメディアを生成することができ、ユーザがメディア・オブジェクトに関して高い全体的係数を有するメディアをユーザに提示することができる。限定ではなく別の例として、係数を使用して、ユーザに対する広告を生成することができ、広告するオブジェクトに関してユーザが高い全体的係数を有する広告をユーザに提示することができる。特定の実施形態では、ソーシャル・ネットワーキング・システム160は、係数情報に基づいて検索結果を生成することができる。照会するユーザに関する検索結果に関連する係数に基づいて、特定のユーザについての検索結果をスコアリングまたはランク付けすることができる。限定ではなく例として、高い係数を有するオブジェクトに対応する検索結果を、低い係数を有するオブジェクトに対応する結果よりも、検索結果ページ上で高くランク付けすることができる。
特定の実施形態では、ソーシャル・ネットワーキング・システム160は、特定のシステムまたは工程への係数を求める要求に応答して係数を計算することができる。所与の状況でユーザが取る可能性のある(または、ユーザがその対象となる可能性のある)、可能性の高いアクションを予測するために、任意の工程が、ユーザについての計算される係数を要求することができる。要求はまた、係数を計算するのに使用される様々な要素のために使用する重みのセットをも含むことができる。この要求は、オンライン・ソーシャル・ネットワーク上で実行中のプロセスから、(例えば、APIまたは他の通信チャネルを介して)サードパーティ・システム170から、または別の適切なシステムから来ることがある。要求に応答して、ソーシャル・ネットワーキング・システム160は、係数を計算する(または、係数情報が以前に計算および格納された場合、係数情報にアクセスする)ことができる。特定の実施形態では、ソーシャル・ネットワーキング・システム160は、特定の工程に関するアフィニティを測定することができる。異なる工程(オンライン・ソーシャル・ネットワークの内部と外部の両方)が、特定のオブジェクトまたはオブジェクトのセットを求める係数を要求することができる。ソーシャル・ネットワーキング・システム160は、アフィニティの尺度を要求した特定の工程に関連するアフィニティの尺度を提供することができる。このようにして、各工程は、工程がアフィニティの尺度を使用する異なるコンテキストに対して調整されるアフィニティの尺度を受信する。
ソーシャル・グラフ・アフィニティおよびアフィニティ係数に関連して、特定の実施形態が、2006年8月11日に出願された米国特許出願第11/503093号、2010年12月22日に出願された米国特許出願第12/977027号、2010年12月23に出願された米国特許出願第12/978265号、および2012年10月01日に出願された米国特許出願第13/632869号に開示された1つまたは複数のシステム、構成要素、要素、機能、方法、動作、ステップを利用する可能性があり、これらの特許出願のそれぞれは、本願明細書に援用する。
特定の実施形態においては、オンライン・ソーシャル・ネットワークのコンテンツ・オブジェクトのうちの1つまたは複数がプライバシー設定に関連付けられていてもよい。オブジェクトのプライバシー設定(または、「アクセス設定」)は、たとえばオブジェクトとの関連付けで、認証サーバ上のインデックスで、別の適切な様式で、またはこれらの任意の組み合わせ等、任意適切に格納されていてもよい。オブジェクトのプライバシー設定は、オンライン・ソーシャル・ネットワークを用いてオブジェクト(または、オブジェクトに関連付けられている特定情報)にアクセス(たとえば、視聴または共有)可能な方法を指定してもよい。オブジェクトのプライバシー設定によって特定のユーザが該オブジェクトにアクセス可能な場合、該オブジェクトは、該ユーザに関して「可視」であると説明され得る。限定ではなく例として、ユーザ・プロフィール・ページ上の職歴情報にアクセス可能なユーザのセットを識別するユーザ・プロフィール・ページ用のプライバシー設定をオンライン・ソーシャル・ネットワークのユーザが指定することによって、他のユーザが該情報にアクセスできないようにすることができる。特定の実施形態において、プライバシー設定は、オブジェクトに関連付けられている特定の情報へのアクセスを許可すべきではないユーザの「ブロック・リスト」を指定してもよい。言い換えると、ブロック・リストは、オブジェクトが可視ではない1人または複数のユーザまたはエンティティを指定してもよい。限定ではなく例として、ユーザに関連付けられている写真アルバムにアクセスできないユーザのセットをユーザが指定することによって、(場合により、ユーザのセット外の特定のユーザが写真アルバムにアクセスできるようにしつつ)該ユーザが写真アルバムにアクセスできないようにすることができる。特定の実施形態においては、プライバシー設定は、特定のソーシャル・グラフ要素に関連付けられていてもよい。ノードまたはエッジ等のソーシャル・グラフ要素のプライバシー設定は、オンライン・ソーシャル・ネットワークを用いてソーシャル・グラフ要素、ソーシャル・グラフ要素に関連付けられている情報、またはソーシャル・グラフ要素に関連付けられているコンテンツ・オブジェクトにアクセス可能な方法を指定してもよい。限定ではなく例として、特定の写真に対応する特定のコンセプト・ノード204は、写真の中でタグ付けされているユーザとその友達のみが写真にアクセス可能であることを指定するプライバシー設定を有していてもよい。特定の実施形態において、プライバシー設定は、ユーザが、自身のアクションのソーシャル・ネットワーキング・システム160による記録または他のシステム(たとえば、サードパーティ・システム170)との共有をオプトインまたはオプトアウトすることができるようにしてもよい。特定の実施形態において、オブジェクトに関連付けられているプライバシー設定は、許可されたアクセスまたはアクセスの拒否の任意適切な粒度を指定してもよい。限定ではなく例として、特定のユーザ(たとえば、自分だけ、自分のルームメイト、および自分の上司)、特定の分離度のユーザ(たとえば、友達または友達の友達)、ユーザ群(たとえば、ゲーム・クラブ、自分の家族)、ユーザ・ネットワーク(たとえば、特定の雇用主の雇用者、特定の大学の学生または同窓生)、すべてのユーザ(「パブリック」)、ゼロ・ユーザ(「プライベート」)、サードパーティ・システム170のユーザ、特定のアプリケーション(たとえば、サードパーティ・アプリケーション、外部ウェブサイト)、他の適切なユーザもしくはエンティティ、またはこれらの任意の組み合わせに対して、アクセスまたはアクセスの拒否が指定されてもよい。本開示は、特定のプライバシー設定を特定の方式で使用することを説明するが、本開示は、任意の適切なプライバシー設定を任意の適切な方式で使用することを企図する。
特定の実施形態において、1つまたは複数のサーバ162は、プライバシー設定を実行するための認証/プライバシー・サーバであってもよい。データ・ストア164に格納された特定のオブジェクトに対するユーザ(または、他のエンティティ)からの要求に応答して、ソーシャル・ネットワーキング・システム160は、オブジェクトに対する要求をデータ・ストア164に送信してもよい。この要求は、該要求に関連付けられているユーザを識別するものであってもよく、また、オブジェクトに関連付けられているプライバシー設定に基づいてオブジェクトへのアクセスをユーザが認証されていると認証サーバが判定した場合にのみ、ユーザ(または、ユーザのクライアント・システム130)に送信されてもよい。要求しているユーザがオブジェクトへのアクセスを認証されていない場合、認証サーバは、要求されたオブジェクトがデータ・ストア164から読み出されないようにしてもよいし、要求されたオブジェクトがユーザに送られないようにしてもよい。検索クエリのコンテキストにおいては、問い合わせているユーザがオブジェクトへのアクセスを認証されていない場合、オブジェクトは検索結果としてのみ生成されてもよい。言い換えると、オブジェクトは、問い合わせているユーザに可視である可視性を有する必要がある。オブジェクトは、ユーザに可視ではない可視性を有する場合、検索結果から除外されてもよい。本開示は、プライバシー設定を特定の方式で実行することを説明するが、本開示は、プライバシー設定を任意の適切な方式で実行することを企図する。
図3Aおよび図3Bは、仮想現実システムのヘッドセット表示装置を示している。特定の実施形態において、仮想現実システムは、表示装置上でユーザに表示するための仮想空間をレンダリングしてもよい。特定の実施形態において、仮想現実システムは、該仮想現実システムのユーザに対してローカルに存在するデバイスを含むローカル・システムであってもよい。特定の実施形態において、仮想現実システムは、リモート装置(たとえば、リモート・サーバ・コンピューティング・マシン)であってもよいし、少なくともリモート装置を含んでいてもよい。限定ではなく例として、仮想現実システムは、ソーシャル・ネットワーキング・システム160のサーバを含むように規定されていてもよい。限定ではなく別の例として、仮想現実システムは、ソーシャル・ネットワーキング・システム160のサーバのほか、ローカル・コンピューティング・デバイスを含むように規定されていてもよい。特定の実施形態において、仮想空間は、仮想要素が現実世界に重ね合わされた拡張現実空間であってもよい。限定ではなく例として、仮想現実システムは、ユーザが現実世界および仮想世界と同時に相互作用できるように、(たとえば、ユーザのヘッドセット上のカメラを用いて)現実世界のイメージを連続的にキャプチャし、他のユーザの仮想オブジェクトまたはアバターをこれらのイメージに重ね合わせてもよい。特定の実施形態において、ユーザは、ヘッドセット・デバイスを用いて仮想空間を見てもよい。限定ではなく例として、図3Aを参照すると、ユーザは、ユーザの頭部に、ヘッドセット・デバイス320を装着してもよい。特定の実施形態において、ヘッドセット・デバイスは、ユーザの頭部に装着、載置、あるいは接続可能なデバイスであってもよい。特定の実施形態において、ヘッドセット・デバイスは、仮想空間の領域をユーザに表示する表示機構を含んでいてもよい。限定ではなく例として、表示機構は、仮想空間の上記領域を表示するスクリーンを含んでいてもよい。限定ではなく別の例として、表示機構は、仮想空間の上記領域の表示をユーザの眼の最適点(たとえば、ユーザの眼それぞれの窩)に直接投影するプロジェクタであってもよい。特定の実施形態において、ヘッドセット・デバイスは、ユーザの視線(すなわち、仮想空間に対するユーザの推定焦点)の追跡を可能にする(たとえば、1つまたは複数のセンサ・デバイスまたは送信機デバイスを採用した)視線追跡機構を含んでいてもよい。本開示は、仮想現実に焦点を当て、仮想現実と一般的に関連付けられている用語を使用しているが、本開示は、記載の方法を拡張現実に適用することを企図する。
特定の実施形態において、仮想現実システムは、仮想空間の特定領域を見ようとするユーザの意図を特定する入力装置(たとえば、ヘッドセット・デバイス)からの1つまたは複数の入力を受信してもよい。特定の実施形態において、これらの入力には、仮想空間の領域内の、ユーザが意図する焦点の場所を示す視線入力を含んでいてもよい。限定ではなく例として、図3Aおよび図3Bを参照すると、ユーザは、ヘッドセット・デバイス320を動かして焦点310を調整することにより、視線入力を特定してもよい。特定の実施形態において、焦点は、仮想空間の上記領域のユーザの視野上の所定の場所(たとえば、ユーザの視野の中心)にあってもよい。特定の実施形態において、視線入力は、ヘッドセット・デバイスの場所を追跡するセンサ・データに基づいていてもよい。仮想現実システムは、追跡カメラがヘッドセット・デバイスの外部に、かつヘッドセット・デバイスの照準線内に配置されるアウトサイド・イン追跡を利用してもよい。アウトサイド・イン追跡において、追跡カメラは、(たとえば、ヘッドセット・デバイス上の1つまたは複数の赤外線LEDマーカの追跡によって)ヘッドセットの場所を追跡してもよい。この代替または追加として、仮想現実システムは、追跡カメラがヘッドセット・デバイス自体またはヘッドセット・デバイスの内部に配置され得るインサイド・アウト追跡を利用してもよい。インサイド・アウト追跡において、追跡カメラは、現実世界における周りのイメージをキャプチャしてもよく、また、現実世界の変化する視点を用いて、追跡カメラ自体の空間中の位置を決定してもよい。特定の実施形態において、仮想現実システムは、ユーザが頭部を動かさずに瞳を適切に動かすことで焦点をシフトできるように、ユーザの瞳を追跡して焦点の場所を決定してもよい。また、特定の実施形態において、視線追跡機構は、ユーザの頭部またはヘッドセット・デバイスの1つまたは複数の傾斜角を追跡することにより、仮想枢動点に対するピッチ、ヨー、ロールの追跡(たとえば、6自由度の追跡)を行ってもよい。図3Aおよび図3Bは、ユーザの頭部またはヘッドセットにより規定された軸に対するピッチ、ヨー、およびロールの例示を与えるものである。これらの傾斜角は、1つまたは複数の追跡カメラからの入力に基づいて決定されてもよい。限定ではなく例として、インサイド・アウト追跡システムにおいては、ヘッドセットの2つ以上の領域の場所(たとえば、2つ以上の赤外線LEDマーカ)に基づいて仮想現実システムが傾斜角を計算してもよい。また、傾斜角は、加速度計、ジャイロスコープ、および磁力計等のセンサの任意の組み合わせを含み得る慣性測定ユニット等、ヘッドセット・デバイス上またはヘッドセット・デバイス内に位置付けられた1つまたは複数のセンサ・ユニットに基づいて決定されてもよい。仮想現実システムは、慣性測定ユニットからのデータを使用して、ヘッドセットに対する速度、方位、および重力を決定してもよい。仮想枢動点は、(たとえば、平均的な頭部に基づいて、ユーザに合わせたカスタム測定値に基づいて)ユーザの頭部を表すのに仮想現実システムが生成した頭部モデルに関連付けられている点であってもよい。限定ではなく例として、仮想枢動点は、頭部モデルの中心またはその近傍にあってもよい。ユーザの頭部または瞳の現在の場所および仮想枢動点の現在の場所に基づいて、仮想現実システムは、ユーザの視線を表す仮想光線であって、焦点を指す、仮想光線をモデル化してもよい。特定の実施形態において、ユーザは、視線入力(または、コントローラを用いたジェスチャ入力等、別の適切な入力)に基づいて、焦点および表示領域の両方または一方をシフトまたは維持可能であってもよい。限定ではなく例として、ユーザは、仮想枢動点周りのユーザの頭部の枢動あるいは頭部の別様の動き(たとえば、左または右への旋回)によって、現在表示されている仮想空間の領域をシフト可能であってもよい。本例において、仮想現実システムは、仮想光線に基づいて(すなわち、仮想光線が指す場所への焦点の調整によって)新たな焦点を決定してもよく、また、仮想空間の表示領域をシフトして、ユーザの視野上の同じ場所(たとえば、中心)に焦点を維持してもよい。
特定の実施形態において、ヘッドセット・デバイスは、表示機構を含まずに視線追跡機構のみを有していてもよい。限定ではなく例として、仮想空間は、(たとえば、ユーザの視聴可能半径の全部または一部を囲む)1つまたは複数のスクリーンに表示されてもよい。特定の実施形態において、ヘッドセット・デバイスは、視線追跡機構を含まずに表示機構のみを有していてもよい。限定ではなく例として、ユーザの視線は、リモートに位置付けられた1つまたは複数のデバイス(たとえば、ユーザに向けられ、ユーザの頭部および瞳の両方または一方を追跡する1つまたは複数のカメラまたは他のセンサ)により追跡されてもよい。特定の実施形態において、仮想現実システムは、ヘッドセット・デバイスを必要としなくてもよく、この場合は、仮想空間の表示およびユーザの視線の追跡が、他の手段を用いて行われてもよい。限定ではなく例として、仮想空間は、(たとえば、ユーザの視聴可能半径の全部または一部を囲む)1つまたは複数のスクリーンに表示されてもよく、ユーザの視線は、リモートに位置付けられた1つまたは複数のデバイス(たとえば、ユーザに向けられ、ユーザの頭部または瞳を追跡する1つまたは複数のカメラ)により追跡されてもよい。
特定の実施形態においては、仮想空間の表示領域において、ユーザの視野の焦点の直上、周囲、または近傍に、レチクルが重ね合わされていてもよい。本明細書において使用する場合、用語「レチクル」は、焦点の場所を視覚的に示し得るガイドを表す。特定の実施形態において、レチクルは、仮想現実システムによって表示に重ね合わされた生成イメージであってもよい。特定の実施形態において、レチクルは、物理的要素(たとえば、表示スクリーンに埋め込まれたファイバ)であってもよい。レチクルは、ユーザが高い精度で焦点をシフトまたは調整するのに役立つ照準ガイドとして作用してもよい。
特定の実施形態においては、仮想空間のコンテンツと相互作用する手段として視線入力が用いられてもよい。特定の実施形態において、ユーザは、焦点を「ヒット・ターゲット」に合わせることによって仮想空間の仮想オブジェクトと相互作用可能であってもよく、ヒット・ターゲットは、仮想オブジェクトまたはインタラクティブ要素に関連付けられている領域であってもよい。限定ではなく例として、特定の仮想オブジェクトに関連付けられているヒット・ターゲットは、該特定の仮想オブジェクトの周りに境界が延びている、現在表示されている領域の副領域であってもよい。本例において、ユーザは、(たとえば、副領域内の点に対してレチクルの位置を調整することにより)焦点を副領域に合わせることによって、仮想オブジェクトと相互作用(たとえば、選択する、手に取る、押す等)してもよい。特定の実施形態において、インタラクションは、ユーザが、閾値期間にわたって、関連するヒット・ターゲットに焦点を合わせた場合にのみ発生してもよい。限定ではなく例として、仮想オブジェクトは、焦点が1秒間にわたって関連するヒット・ターゲットに合わされた場合にのみ選択されてもよい。特定の実施形態においては、焦点がヒット・ターゲットに近づくとレチクルがこれらのヒット・ターゲットに引き寄せられ得るように、ヒット・ターゲットのうちの1つまたは複数が「スティッキー(sticky)」であってもよい。これらの実施形態において、仮想現実システムは、これらのヒット・ターゲットに合わせようとするユーザの意図を効果的に予測していてもよい。仮想現実システムは、複数の因子のいずれかに基づいて、このようなユーザの意図を予測してもよい。限定ではなく例として、このような意図は、焦点の場所および軌跡に基づいて、ヒット・ターゲットの境界に向かう閾値慣性度が存在する場合、焦点がヒット・ターゲットの境界の閾値距離内となる場合に予測されてもよい。特定の実施形態において、仮想現実システムは、仮想オブジェクト(または、一般的には仮想空間)と相互作用するユーザの意図があると仮想現実システムが予測するまで、レチクルをレンダリングしなくてもよい。限定ではなく例として、焦点がヒット・ターゲットに近づいていると判定されるまで、レチクルは表示にレンダリングされなくてもよい。本開示は、視線入力を用いてヒット・ターゲットを選択することに焦点を当てているが、本開示は、任意の適切な入力を用いてヒット・ターゲットを選択することを企図する。限定ではなく例として、ユーザの手のレンダリングに対応するコントローラを用いて、ユーザがヒット・ターゲットを選択してもよい。本例において、ユーザは、コントローラを動かして、ユーザの手のレンダリングによってヒット・ターゲットのポインティング、ヒット・ターゲットのタップ、ヒット・ターゲットのグラブ等を行ってもよく、また、その結果としてヒット・ターゲットを意図的にアクティベートしてもよい。ボタンを押し、仮想世界において何らかのジェスチャを実行し、現実世界において何らかのジェスチャを実行すること(たとえば、現実世界においてコントローラから指を持ち上げることで、仮想世界において指さし動作をすること(これは、現実世界において指さす行為をユーザが身ぶりで示し得ることから、特に直感的である))、および/またはその他任意適切な方法によって、コントローラによりポインティング・ジェスチャが実行されてもよい。特定の実施形態において、ポインティング・ジェスチャによってビーム(たとえば、レーザ・ポインタ・ビーム)が指から出て(たとえば特に、ポインティング対象のエリアまたはアイテムが仮想空間内で離れている場合に)、精度良く特定のエリアまたはアイテムを指すのに役立つようにしてもよい。
特定の実施形態において、ユーザは、視線入力を用いて、本明細書において「視覚的メディア・アイテム」と総称するイメージ(たとえば、写真、レンダリング)、ビデオ、インタラクティブ・コンテンツ(たとえば、コンテンツ中で発生することをユーザがある程度制御し得るゲーム等のエクスペリエンス)等のメニューをナビゲートして、特定の視覚的メディア・アイテムを視聴可能であってもよい。特定の実施形態において、視覚的メディア・アイテムは、事実上球形あるいは没入型であってもよい(たとえば、360°視覚的メディア・アイテム、180°視覚的メディア・アイテム、パノラマまたは広角視覚的メディア・アイテム等)。本開示の目的上、用語「球形」および「360°」は、区別せずに用いられてもよい。これらの実施形態において、ユーザは、本明細書に記載の通り、視線入力を用いて、焦点を調整することによりイメージまたはビデオの異なる領域を視聴可能であってもよい。
図4Aは、メディア・アイテム・フィードの例示的なメニューを示している。特定の実施形態において、仮想現実システムは、視覚的メディア・アイテムの異なるカテゴリのメニューを最初に表示してもよい。このメニューは、視覚的メディア・アイテムを含む多様な異なるフィードを含んでいてもよい。限定ではなく例として、図4Aを参照すると、メニューは、過去にユーザが(たとえば、オンライン・ソーシャル・ネットワークのニュースフィードから)保存または(たとえば、友達または連絡先から、オンライン・ソーシャル・ネットワーク上のソーシャルつながりから)受信した視覚的メディア・アイテム(たとえば、視覚的メディア・アイテム440)を含む「セーブ」フィード410、ユーザがフォローすることにしたかもしれないソーシャルつながりまたは組織により投稿またはアップロードされた視覚的メディア・アイテム(たとえば、オンライン・ソーシャル・ネットワーク上のページまたはグループ)を含む「フォロー」フィード420、新たにアップロードされた視覚的メディア・アイテムおよび/もしくはユーザが関心を持っている可能性がある(たとえば、プロフィール情報、人口統計学的情報、ジオロケーション情報、コンセプトに対するアフィニティ、ユーザが過去に視聴した視覚的メディア・アイテムの履歴、ユーザが過去に「いいね!」した視覚的メディア・アイテムの履歴、過去の視聴履歴もしくは習慣、またはユーザに関連付けられているその他任意適切な情報に基づいて決定された)視覚的メディア・アイテムを含むことにより視覚的メディア・アイテムをプロモーションし得る「ディスカバー」フィード430、またはその他任意適切なフィードを含んでいてもよい。特定の実施形態においては、現在表示されている領域内ですべてのフィードが可視となっていなくてもよく、この場合、ユーザは、さらなるフィードの表示を促すエリアに焦点を合わせ得る可能性がある。限定ではなく例として、ユーザは、現在表示されている領域の右側のエリアに焦点を合わせることにより、表示されているフィードに対して、さらなるフィードのスクロールおよび表示を促してもよい。特定の実施形態において、ユーザは、(たとえば、ブラウザ・アプリケーションを用いたウェブ・ページへのアクセスによる)オンラインでのコンテンツのナビゲーションまたは他の適切なアクションの実行が可能であってもよい。本開示は、視覚的メディア・アイテムに焦点を当てているが、本開示は、記載の概念を他のコンテンツ・アイテム(たとえば、オーディオ・アイテム)に適用することを企図する。
図4Bは、複数のサブフィードを伴う例示的なフィードを示している。特定の実施形態において、ユーザは、適切な視線入力の提供によって、特定のフィードを選択可能であってもよい。限定ではなく例として、ユーザは、フォロー・フィードに関連付けられているヒット・ターゲットに焦点を合わせることにより「ディスカバー」フィードを選択可能であってもよい。特定のフィードが選択されたら、該特定のフィードは、仮想空間の表示領域の中心にシフトしてもよい。特定の実施形態において、フィードはそれぞれ、フィードと同じようにユーザが選択可能と考えられるサブフィードにさらに細分類されてもよい。限定ではなく例として、図4Bを参照すると、「ディスカバー」フィード内においてユーザは、特定グループのサブフィード(たとえば、「ネイチャー・チャンネル」という名前のグループに関連付けられているサブフィード450)を選択可能であってもよく、このサブフィードは、特定のグループ(たとえば、ネイチャー系のビデオ)との関連でアップロードされた視覚的メディア・アイテムを含んでいてもよい。特定の実施形態においては、フィードと同様に、焦点を適切に合わせることによって、ユーザがさらなるサブフィードの表示を促し得る可能性がある。
特定の実施形態において、ユーザは、フィードまたはサブフィード内に提示される個々の視覚的メディア・アイテムを選択することにより、それぞれのコンテンツを視聴可能であってもよい。特定の実施形態において、視覚的メディア・アイテムは、(たとえば、図4Aおよび図4Bに示すように)ページとして提示され、一組の視覚的メディア・アイテムが各ページ上に提示されてもよい。視覚的メディア・アイテムはそれぞれ、各サムネイルにより表現されていてもよい。ユーザは、視線入力を用いることにより(たとえば、右、左、上、または下を見て、異なる組の視覚的メディア・アイテムを含む異なるページの表示を促すことにより)、視覚的メディア・アイテムの異なるページをナビゲート可能であってもよい。
図5A〜図5Eは、視覚的メディア・アイテムのスライドショーの例示的なインタフェースを示している。特定の実施形態において、ユーザは、フィードまたはサブフィードから1つまたは複数のイメージを選択して視聴してもよい。特定の実施形態において、イメージは、選択されたイメージを含むスライドショーに表示されてもよい。また、特定の実施形態において、仮想現実システムは、ユーザにより明示的には選択されなかった関連イメージ(または、他の視覚的メディア・アイテム)(たとえば、フィードまたはサブフィード中の他のイメージ、本明細書に記載の通りユーザに関連付けられている情報に基づくユーザが関心を持っている可能性がある他のイメージ、他の関連イメージ等)も表示してもよい。スライドショーは、あるイメージから次のイメージに自動的に進んで、ある期間にわたって各イメージを表示し得るものであってもよい。限定ではなく例として、各イメージは、20秒間にわたって表示されてもよく、その後、次のイメージが表示されてもよい。特定の実施形態においては、スライドショーが次のイメージに進むまでに残っている継続時間の表示を、時間要素が表示してもよい。限定ではなく例として、図5A〜図5Cを参照すると、時間要素510は、時間の経過とともに進むカウントダウンを示してもよい。特定の実施形態において、ユーザは、視線入力を用いることにより、イメージの進行を制御可能であってもよい。特定の実施形態において、ユーザは、仮想空間に表示された(たとえば、表示された視覚的メディア・アイテム上の適切なイメージにおいて重ね合わされた)仮想ボタンに焦点を合わせてもよい。限定ではなく例として、図5Aを参照すると、ユーザは、時間要素510に関連付けられているタイマーを停止させる「一時停止」ボタン540に関連付けられているヒット・ターゲットに焦点を合わせ得る可能性がある。限定ではなく別の例として、ユーザは、「次」または「前」ボタンに関連付けられているヒット・ターゲットに焦点を合わせることにより、視覚的メディア・アイテムの進行においてそれぞれ、進めることまたは戻すことが可能であってもよい。限定ではなく例として、図5Aを参照すると、ユーザは、「前」ボタン520に狙いを定めることによって、対応する過去の視覚的メディア・アイテムに切り替え可能であってもよいし、「次」ボタン530に狙いを定めることによって、対応する次の視覚的メディア・アイテムに切り替え可能であってもよい。
図6A〜図6Dは、ユーザ入力に応じた、現在の視覚的メディア・アイテムから次の視覚的メディア・アイテムへの例示的な遷移を示している。これら一連の例示的な図において、ユーザは、焦点を、時間要素610から「次」ボタン630に移動させる。図6Dにより、「次」ボタン630が選択されたことで、仮想現実システムが、対応する次の視覚的メディア・アイテムを表示してもよい。図6Aを参照して、ユーザが焦点を「前」ボタン620に向けている場合は、過去の視覚的メディア・アイテムへの遷移が発生してもよい。特定の実施形態において、スライドショーは、ユーザの入力(たとえば、「次」または「前」ボタンのヒット・ターゲットに焦点を合わせる視線入力)のみに応答して進んでもよい。特定の実施形態において、ユーザは、タイマーをスピードアップすることにより、特定のイメージの表示に残された継続時間を短縮または延長してもよい。特定の実施形態において、これは、(たとえば、各イメージの表示に重なるかまたは近接する)ユーザの視野上の適切な場所に表示可能なタイムライン・スクラバ要素を用いて行われてもよい。タイムライン・スクラバ要素は、イメージが表示される期間を示すタイムラインの表示と、タイムライン上の現時点を示し得る可動スクラバ構成要素とを含んでいてもよい。限定ではなく例として、ユーザは、タイムライン・スクラバ要素内のスクラバに関連付けられているヒット・ターゲットに焦点を合わせることによってスクラバを選択してもよく、また、次いで焦点をシフトさせることにより、タイムライン・スクラバ要素に沿ってスクラバを移動させる(右に移動させて残り時間を短縮し、左に移動させて残り時間を延長する)ようにしてもよい。たとえば、図5Aを参照して、時間要素510は、カウントダウンがユーザ入力の影響を受け得る(たとえば、残り時間を延長または短縮する)ように、タイムライン・スクラバ要素を含んでいてもよい。本開示は、水平方向を向いたタイムライン・スクラバ要素に焦点を当てているが、本開示は、任意の適切な向き(たとえば、垂直、斜め、円形等)を企図する。特定の実施形態において、スクラバは、現在表示されているイメージの縮小版またはその他何らかの表現を含んでいてもよい。限定ではなく例として、「前」ボタン520は、その対応する視覚的メディア・アイテムの表現(たとえば、球形表現)を含んでいてもよく、「次」ボタン530も同様に、その対応する視覚的メディア・アイテムの表現を含んでいてもよい。特定の実施形態において、タイムライン・スクラバ/時間要素(たとえば、図5A〜図5Cの時間要素510)および他の要素(たとえば、図5A〜図5Cの「前」ボタン520および「次」ボタン530)は、奥行きの錯覚を引き起こす視差および視点または視差もしくは視点のような視覚的効果を考慮し得る、イメージの球形表現であってもよい。図5Dおよび図5Eは、ユーザが仮想空間において右および左を見た場合それぞれの上記要素の視差および視点または視差もしくは視点の例示を与えるものである。
特定の実施形態において、ユーザは、(たとえば、ボイス・コマンドを用いた)音声入力を使用することにより、本明細書において視線入力のコンテキストで記載したのと同じ機能のうちの一部を実行可能であってもよい。限定ではなく例として、ユーザは、適切なボイス・コマンド(たとえば、「一時停止」、「次」)を話すことにより、次の視覚的メディア・アイテムの一時停止または次の視覚的メディア・アイテムへのスキップが可能であってもよい。特定の実施形態においては、視線入力の代替への追加として、音声入力が用いられてもよい。
図7A〜図7Cは、ビデオに関連付けられている例示的なタイムライン・スクラバ要素を示している。図8は、ビデオに関連付けられている別の例示的なタイムライン・スクラバ要素を示している。特定の実施形態において、ユーザは、視聴する1つまたは複数のビデオを選択してもよく、これにより、選択されたビデオのうちの1つを表示するように仮想現実システムが促されてもよい。特定の実施形態において、現在表示されているビデオについて、ユーザには、各ビデオのタイムラインに対応するタイムラインおよび可動スクラバと併せて、ビデオのナビゲーションに使用可能なタイムライン・スクラバ要素が提示されてもよい。ユーザは、(たとえば、本明細書に記載の視線入力の使用、ユーザの手のレンダリングに対応する、コントローラを適切に用いたスクラバの「グラブ」および移動等によって)可動スクラバを選択して、タイムライン上の異なる場所に移動可能であってもよく、これにより、ビデオの異なる時点に移動させてもよい。限定ではなく例として、図7Aを参照すると、タイムライン・スクラバ要素は、ビデオのタイムラインを表す水平タイムライン710と、ビデオの現時点の上に配置された可動スクラバ720とを含んでいてもよい。本例において、ユーザは、可動スクラバ720を選択して、左または右に移動させることにより、ビデオ中でそれぞれ前に戻るまたは先に進むようにナビゲートしてもよい。図7Aおよび図7Bは、図7Aの位置から図7Bの位置までの可動スクラバの移動を示している。特定の実施形態において、スクラバは、ビデオのフレームの縮小版またはその他何らかの表現(たとえば、数的な時点、フレームの球形表現)を含んでいてもよい。表示されるフレームは、現在のフレームであってもよいし、タイムライン上のスクラバの場所に応じて変化するものであってもよい。限定ではなく例として、図7Aを参照すると、可動スクラバ720中の表示フレームは、スクラバが位置決めされた時点またはその前後に存在するフレームに対応していてもよく、また、タイムラインに沿ってスクラバが移動した場合に更新されてもよい。特定の実施形態において、タイムライン・スクラバ要素は、適切なユーザ入力に応答してユーザに提示されてもよい。限定ではなく例として、タイムライン・スクラバ要素は、ヘッドセット・デバイス上のタッチセンサ式の場所をユーザがタップすること、表示の特定領域(たとえば、表示の下部)への焦点合わせ、コントローラによる特定のジェスチャの実行、またはその他任意適切な入力に応答してユーザに提示されてもよい。特定の実施形態において、タイムライン・スクラバ要素は、1つまたは複数の他のメニュー・オプション要素と併せて提示されてもよい。限定ではなく例として、ユーザには、(たとえば、シーケンス中の過去の視覚的メディア・アイテムに戻るための)「前」ボタン、(たとえば、シーケンス中の次の視覚的メディア・アイテムに進むための)「次」ボタン、(たとえば、再生速度を上げるための)「早送り」ボタン、(たとえば、再生速度を落とすための)「巻き戻し」ボタン、クローズド・キャプション・ボタン、または視覚的メディア・アイテムに適し得るその他任意のメニュー・オプション要素が表示されてもよい。たとえば、図7Cを参照して、「次」ボタン730は、タイムライン710の右側に現れてもよい。特定の実施形態において、これらのメニュー・オプション要素は、(たとえば、意図するメニュー・オプション要素に閾値期間にわたって焦点を合わせることによる)視線入力または(たとえば、本明細書に記載のコントローラ・システムを用いた)その他任意適切な入力によりアクティベートされてもよい。特定の実施形態において、タイムライン・スクラバ要素およびメニュー・オプション要素は、単一のヘッドアップ・ディスプレイの一部としてユーザに提示されてもよい。特定の実施形態において、タイムライン・スクラバ要素およびメニュー・オプション要素の両方または一方は、表示の特定領域(たとえば、現在表示されている領域の下部)に現れてもよく、また、ユーザが入力を提供するまで、またはユーザからの入力のないある期間が経過するまで、適所に固定されたままであってもよい。図8は、タイムライン・スクラバ要素の別のレンディション(rendition)を示しており、可動スクラバ810がその対応するフレームの表現を含まず、該表現は代わりに、関連する要素(たとえば、要素820)中に表示されている。本開示は、ビデオまたはスライドショーのナビゲーションに用いられるスクラバ要素に焦点を当てているが、本開示は、スクラバ要素のインタフェースの他の用途を企図する。限定ではなく例として、アイテムのメニューのナビゲーションまたは文書のナビゲーションにスクラバ要素が用いられてもよい。たとえば、ユーザがスクラバをグラブして意図する方向に移動させられるように、スクラバ要素がスクロール・バーのように機能してもよい。
特定の実施形態においては、イメージの場合と同様に、ビデオがスライドショーとして(すなわち、あるビデオから次のビデオに進むように)提示されてもよい。さらに、特定の実施形態においては、イメージの場合と同様に、仮想現実システムは、ユーザにより明示的には選択されなかった関連ビデオ(または、他の視覚的メディア・アイテム)も表示してもよい。特定の実施形態において、ユーザは、焦点を適切なヒット・ターゲット(たとえば、「次」または「前」ボタン)に合わせることによって、次のビデオまたは前のビデオに進むことができてもよい。特定の実施形態において、ユーザは、イメージとビデオとの両方を選択して表示してもよく、両種の視覚的メディア・アイテムが連続してユーザに提示されてもよい。
特定の実施形態において、フィード、サブフィード、または視覚的メディア・アイテムのスライドショーにおける、次に現れるコンテンツは、仮想現実システムにより実行された会話分析に基づいていてもよい。会話分析は、会話(2人以上のユーザ間の対話を含んでいてもよいし、他のユーザが存在/聞いていない状態でのユーザの発話を単に含んでいてもよい)の音声認識、(たとえば、ユーザがテキストまたはイメージでやりとりしている場合の)会話のテキストまたはイメージ(たとえば、絵文字)分析、(たとえば、手話およびボディ・ランゲージの両方または一方でのコミュニケーションを分析する)ビデオ分析等に基づいていてもよい。会話分析では、特定のテーマを判断してもよい。限定ではなく例として、会話分析では、特定のテーマに関連付けられている1つまたは複数のキーワードが検出された場合に、該特定のテーマを判断してもよい。特定の実施形態において、仮想現実システムは、フィード、サブフィード、またはスライドショーにおける提示用に、上記判断された特定のテーマに関連付けられている1つまたは複数の視覚的メディア・コンテンツ・アイテム(たとえば、関連する写真、ビデオ、投稿、広告等)のプロモーションをしてもよい。限定ではなく例として、第1のユーザと第2のユーザとが、猫のビデオを視聴しながら、最近の選挙討論の結果を議論し始めていてもよい。本例において、仮想現実システムは、(たとえば、ユーザが会話を変更した可能性があり、その結果としてコンテンツへの関心も変化した可能性があることから)テーマ「選挙討論」を検出して、該テーマに関連付けられているビデオのプロモーションをしてもよい。提示は、ユーザに対してプライベートであってもよいし、共有仮想空間においてユーザ群(たとえば、仮想ルーム内で会話に関わっているユーザの部分集合、共有に関するユーザとコンテンツとのプライバシー設定を満たしたユーザ、両基準を満たすユーザ等)に提示されてもよい。同様に、特定の実施形態において、特定のテーマの判断は、個別に実行されてもよいし、共有仮想空間中のユーザ群に対して実行されてもよい。特定の実施形態において、特定のテーマの判断は、そのユーザについて該特定のテーマが判断されているユーザに関連する情報(たとえば、ソーシャル・グラフ200からのソーシャル・グラフ情報)を含む、本明細書に記載のような現在のコンテキストに基づいていてもよい。特定の実施形態において、仮想現実システムは、1つまたは複数の適切な機械学習アルゴリズムを用いて、その会話分析機能を経時的に最適化してもよい。特定の実施形態において、機械学習アルゴリズムは、仮想現実におけるユーザ・インタラクションから具体的に得られたデータに基づいていてもよいし、かかるデータに特化されていてもよい。特定の実施形態において、機械学習アルゴリズムは、ソーシャル・ネットワーキング・システム160から得られたデータ(たとえば、オンライン・ソーシャル・ネットワーク上の会話、オンライン・ソーシャル・ネットワーク上のテーマ、オンライン・ソーシャル・ネットワーク上のトレンド・テーマ等)に基づいていてもよい。特定の実施形態においては、ユーザがこの機能を検索ツールとして利用してもよい。限定ではなく例として、ユーザは、テーマ「猫」に関連付けられている言葉(たとえば、「猫」、「ニャー」)を話すことにより、猫のビデオを識別可能であってもよい。
特定の実施形態において、遷移効果は、ある仮想空間から別の仮想空間への遷移時に採用されてもよい。特定の実施形態において、(仮想空間の全体または一部としてレンダリング可能な)あるコンテンツ・アイテムから別のコンテンツ・アイテムへの遷移の場合、仮想現実システムは、遷移効果を採用してもよい。限定ではなく例として、仮想現実システムは、ある写真、ビデオ、またはその他任意のメディア・アイテムから別の写真、ビデオ、またはその他任意のメディア・アイテムへの遷移時に遷移効果を採用してもよい。有意なユーザ試験により、あるコンテンツ・アイテムから別のコンテンツ・アイテムへの急速なカットまたは切り替えは、多くのユーザにとって不快であると受け止められるため、一般的にはユーザ・エクスペリエンスに悪影響を及ぼし得ることが明らかとなっている。場合によっては、(たとえば、対応する動きが欠如した視覚的入力の急変に起因する認識の断絶による)乗り物酔い、吐き気、または不安感にすらつながる。遷移効果の採用によって、仮想現実システムは、これらの悪影響のうちの一部を緩和し得る。任意の適切な遷移効果が採用されてもよい。限定ではなく例として、仮想現実システムは、第1のコンテンツ・アイテムの現在のビューが(たとえば、周囲エリアが黒にフェードする状態で)中心点に収縮され、中心点から外方に延びた第2のコンテンツ・アイテムのビューと置き換えられる「テレスコーピング」または「カメラ・シャッター」効果を採用してもよい。限定ではなく他の例として、フェード効果、ディゾルブ効果、ワイプ効果等が採用されてもよい。特定の実施形態において、ユーザは、特定の遷移効果の指定または採用された場合の遷移効果のカスタマイズ(たとえば、写真間の遷移の場合の特定の遷移効果、写真とビデオとの間の遷移の場合の特定の遷移効果)が可能であってもよく、仮想現実システムは、ユーザの指定に応じて、選択またはカスタマイズされた遷移効果を使用してもよい。
本開示は、仮想空間における特定種のコンテンツとのインタラクションに焦点を当てているが、本開示は、仮想空間における任意の適切な種類のコンテンツとのインタラクションを企図する。限定ではなく例として、ユーザは、視線入力を用いることにより、イメージおよびビデオ・コンテンツのメニューまたはイメージもしくはビデオ・コンテンツのメニューに関して記載したのと同様に、一般的にコンテンツ(たとえば、オンライン・ソーシャル・ネットワークのニュースフィード・インタフェース、ウェブ・ページ)のメニューをナビゲート可能であってもよい。限定ではなく別の例として、ユーザは、本のページをナビゲート可能であってもよい。限定ではなく別の例として、ユーザは、地図をナビゲート可能であってもよい。限定ではなく別の例として、ユーザは、(たとえば、ゲーム中の)仮想世界をナビゲート可能であってもよい。
特定の実施形態において、仮想現実システムは、生成およびユーザの視野への重ね合わせが可能な異なる種類のレチクルを含んでいてもよい。特定の実施形態において、これら異なる種類は、視線入力と関連して仮想空間において(たとえば、仮想オブジェクトに)異なる効果を有し得る異なる機能を有していてもよい。これによって、ユーザは、同じ種類の視線入力を提供することにより、少なくとも部分的に現在のレチクルの種類に応じたインタラクションの効果を伴って、異なる方法で仮想空間と相互作用可能であってもよい。限定ではなく例として、ユーザは、仮想オブジェクトに関連付けられているヒット・ターゲットに閾値期間にわたってグラブ型レチクルを合わせてもよく、それにより、仮想オブジェクトをグラブするかまたは手に取ってもよい(たとえば、仮想オブジェクトは、レチクルの経路に追従し得るように、レチクルに関連付けられている場所に固定されるように現れ得る)。限定ではなく別の例として、ユーザは、ページの右縁(または、左縁)(たとえば、仮想本のページの縁部)近くのヒット・ターゲットに次ページ型レチクル(または、前ページ型レチクル)を合わせてもよく、それにより、現在のページが次のページ(または、前のページ)に切り替わるようにしてもよい。限定ではなく別の例として、ユーザは、ページ上のテキストに蛍光ペン型レチクルを合わせてもよく、それにより、適切なテキストがハイライトされてもよい。限定ではなく例として、ユーザは、テキストまたは仮想オブジェクトに選択型レチクルを合わせてもよく、それにより、テキストまたは仮想オブジェクトが(たとえば、さらなる入力のために)選択されてもよい。限定ではなく別の例として、ユーザは、仮想空間の領域または仮想オブジェクトに関連付けられているある領域またはヒット・ターゲットにペイントブラシ型レチクル(または、ペン型レチクル)を合わせてもよく、それにより、適切なエリアがペイント(または適宜、描画/筆記)されてもよい。限定ではなく別の例として、ユーザは、仮想オブジェクトに関連付けられているヒット・ターゲットにプッシュ型レチクル(または、プル型レチクル)を合わせてもよく、それにより、仮想オブジェクトがプッシュ(または、プル)されてもよい。限定ではなく別の例として、ユーザは、仮想空間中の領域または仮想オブジェクトに関連付けられているヒット・ターゲットにファイア型レチクル、レーザ型またはスリングショット型レチクルを合わせてもよく、それにより、ゲーム化された機能が生じてもよい(たとえば、仮想空間の領域または仮想オブジェクトの燃焼、レーザによる狙撃、オブジェクトの発射等)。
特定の実施形態において、異なる種類のレチクルは、ユーザに対して(たとえば、形状、色、サイズ等が)視覚的に異なって見えてもよい。これは、ユーザがレチクルを識別し、レチクルを伴う視線入力が仮想空間において及ぼす効果を判断するのに役立ち得る。限定ではなく例として、グラブ・レチクルは手の形状であってもよい。限定ではなく別の例として、次ページ型レチクルは矢印の形状であってもよい。限定ではなく別の例として、レーザ型レチクルはクロスヘア(crosshair)の形状であってもよい。
特定の実施形態において、ユーザは、適切な入力に基づいてレチクル・タイプを選択可能であってもよい。限定ではなく例として、ユーザは、レチクルのメニューから所望のレチクルを選択してもよい。
図9A〜図9Dは、コンテキストに基づいて動的に変化する例示的な種々レチクルを示している。特定の実施形態においては、ユーザの視野上に表示されるレチクルのレチクル・タイプが仮想現実システムによって動的に決定されてもよい。特定の実施形態においては、レチクル・タイプの決定において、仮想現実システムが、コンテキスト情報に基づいて、ユーザの意図するインタラクションの種類を効果的に予測しようとしてもよい。特定の実施形態において、レチクルは、本明細書に記載の複数の異なる因子(または、その他任意適切な因子)に基づき得る、決定された現在のコンテキストに基づいて、適宜、自動的に変化してもよい。限定ではなく例として、図9Aおよび図9Bを参照すると、図9Aのニュートラル・レチクル920は、ユーザ入力に応答して、仮想オブジェクト910に接近または到達した場合に(または、閾値期間にわたってニュートラル・レチクルが仮想オブジェクト910の近傍または上でホバリングすることに応答して)、図9Bのグラブ型レチクル930に変化してもよい。限定ではなく別の例として、図9Cおよび図9Dを参照すると、ニュートラル・レチクル950は、仮想オブジェクト960を選択して該仮想オブジェクト960に関連付けられているテキスト・コンテンツ(たとえば、仮想オブジェクト960に関連付けられている本のページ)のビューを呼び出すユーザ入力に応答して、ペン型または蛍光ペン型レチクル970に変化してもよい。特定の実施形態においては、現在のコンテキストに関する適切なレチクル・タイプの決定において、仮想現実システムが、上記異なる因子(または、その他任意適切な因子)のうちの1つまたは複数に基づいて異なるレチクル・タイプについてのスコアを計算してもよい。これらの実施形態において、仮想現実システムは、レチクル・タイプの各スコアに基づいて適切なレチクル・タイプの部分集合を決定してもよい。限定ではなく例として、仮想現実システムは、閾値スコアを上回るスコアのレチクル・タイプのみを適切と判定してもよい。特定の実施形態において、仮想現実システムは、それぞれのスコアに基づいて異なるレチクル・タイプをランク付けしてもよく、また、閾値ランクを上回るランクのレチクル・タイプのみを適切と判定してもよい。限定ではなく例として、仮想現実システムは、最上位ランクのレチクル・タイプのみを適切と判定してもよい。
特定の実施形態において、レチクル・タイプは、1つまたは複数の仮想オブジェクトに対するレチクルの場所と軌道との両方または一方に基づいて決定されたコンテキストに基づいていてもよい。限定ではなく例として、レチクルは、(たとえば、レチクルの場所と軌道との両方または一方によって決まるような)特定の仮想オブジェクトに接近するにつれて、または、特定の仮想オブジェクトに関連付けられているヒット・ターゲットの境界の閾値距離内にある場合に、変化してもよい。特定の実施形態において、各仮想オブジェクトは、異なるオブジェクト・タイプの異なる仮想オブジェクトに同じように接近するレチクルによって、仮想現実システムが各オブジェクト・タイプに基づいて異なる種類のレチクルを決定し得るように、特定のオブジェクト・タイプを有していてもよい。限定ではなく例として、グラブ可能な仮想オブジェクに関連付けられているヒット・ターゲットに接近するレチクルが、グラブ型レチクルとなり得る。限定ではなく別の例として、ページの縁部に関連付けられているヒット・ターゲットに接近するレチクルが、次ページ型または前ページ型レチクルとなり得る。限定ではなく別の例として、(たとえば、ビデオ視聴環境における)再生もしくは一時停止ボタンまたはその他任意適切なインタラクティブ要素に接近するレチクルが、選択型レチクルに変化してもよい。
特定の実施形態において、レチクル・タイプは、現在の仮想空間に関連付けられている情報に基づいて決定されたコンテキストに基づいていてもよい。このような情報には、(たとえば、ゲームに関連付けられている空間であれ、視覚的メディア・アイテムに関連付けられている空間であれ、オンライン・ソーシャル・ネットワークに関連付けられている空間であれ)現在の仮想空間の仮想空間タイプを含んでいてもよい。限定ではなく例として、敵ユニットに関連付けられているヒット・ターゲットにレチクルが接近する場合は、レーザ型レチクルが特定のゲーム型仮想空間内に現れてもよい。限定ではなく別の例として、レチクルがテキストの閾値距離内にある場合は、ハイライト型レチクルが本ブラウジング仮想空間内に現れてもよい。
特定の実施形態において、レチクル・タイプは、ユーザに関連付けられている情報(たとえば、ソーシャル・グラフ200からのソーシャル・グラフ情報)に基づいて決定されたコンテキストに基づいていてもよい。特定の実施形態において、この情報は、人口統計学的情報を含んでいてもよい。限定ではなく例として、特定の年齢層のユーザは、異なる年齢層のユーザよりも、レーザ型レチクルを使用する可能性が高い可能性がある。特定の実施形態において、この情報は、ユーザの過去のインタラクションに基づいていてもよい。限定ではなく例として、仮想空間において本に蛍光ペンでマークすることと読書との両方または一方をよく行うユーザは蛍光ペン型レチクルを意図する可能性が高く、この場合、仮想現実システムは、このようなレチクルをユーザに対して決定する可能性が高くてもよい。特定の実施形態において、決定されたコンテキストは、(たとえば、ソーシャル・グラフ200に基づいて決定されるような)ユーザのソーシャルつながりに関連付けられている情報に基づいていてもよい。限定ではなく例として、一般的にユーザの一次のつながりまたはユーザの一次のつながりの部分集合(たとえば、ユーザが少なくとも1つの閾値アフィニティ・レベルを有する一次のつながり、家族である一次のつながり)において特定のレチクル・タイプが頻繁に用いられる場合、ユーザは、該特定のレチクル・タイプを気に入っている可能性が高いと考えられる(したがって、仮想現実システムは、該特定のレチクル・タイプを他より優先的に決定する可能性が高いと考えられる)。特定の実施形態において、決定されたコンテキストは、一般的にユーザに関連付けられている情報に基づいていてもよい。限定ではなく例として、仮想現実システムは、現在ユーザの間で人気が高い(たとえば、よく利用されている)レチクル・タイプを、人気が低いレチクル・タイプよりも優先して決定する可能性が高くてもよい。特定の実施形態において、この情報は、ユーザが特定のレチクルに対するアクセスを有するかどうかを判定する、ユーザのアカウント情報を含んでいてもよい。限定ではなく例として、一部のレチクル・タイプがプレミアム・コンテンツであってもよく、ユーザは、これらのレチクルへのアクセスに支払いを求められる場合がある。限定ではなく別の例として、特定のグループ(たとえば、特定の年齢層)のメンバーであるユーザに対して、一部のレチクル・タイプが制限されていてもよい。
特定の実施形態において、レチクル・タイプは、仮想空間の外部の環境に基づいて決定されたコンテキストに基づいていてもよい。限定ではなく例として、レチクル・タイプは、現在の時刻または現在の日付に基づいていてもよい。たとえば、余暇(たとえば、夜、週末)に関連付けられている時間および日付には、レーザ型レチクルがより頻繁に現れてもよい。限定ではなく別の例として、レチクル・タイプは、(たとえば、ユーザのカレンダー、トレンド・ニュースまたはテーマ等に基づいて決まるような)現在または将来のイベントに基づいていてもよい。たとえば、仮想現実システムが、ユーザのカレンダーに基づいて、ユーザが学校の期末試験を間近に控えていると判定した場合、蛍光ペン型レチクルが現れる可能性が高くなってもよい。
特定の実施形態において、レチクル・タイプは、ユーザからの1つまたは複数の適切な入力に基づいて決定されたコンテキストに基づいていてもよい。限定ではなく例として、ユーザは、仮想オブジェクトに近づきつつ、コントローラ(たとえば、手の上に位置決めされたコントローラ)で特定のジェスチャを実行してもよく、決定されたレチクル・タイプは、この特定のジェスチャに部分的に基づいていてもよい。限定ではなく別の例として、ユーザは、あるパターンであり得るジェスチャ、またはユーザによる一連の視線入力によってレチクルにより追跡された他のジェスチャを実行してもよい。限定ではなく別の例として、ユーザは、ボイス・コマンドを発して、レチクル・タイプの変更をそれに応じて生じさせてもよい。たとえば、ユーザは、レチクルをレーザ型レチクルに変更可能な言葉「レーザ」を発してもよい。
図10および図11A〜図11Dは、1つまたは複数の仮想ツールを選択するための例示的なインタフェースを示している。特定の実施形態において、仮想現実システムは、仮想空間において、ユーザが仮想的に手に取って仮想空間と具体的な方法で相互作用し得るアイテムである、1つまたは複数の仮想ツールをレンダリングしてもよい。各ツールは、仮想環境において特定の機能を有していてもよい。特定の実施形態においては、適切な場所でユーザに対して一組のツールが表示されてもよい。限定ではなく例として、これらのツールは仮想空間の下部側に現れてもよく、ユーザは、仮想空間に対して視野を下向きに調整することにより、これらのツールを見ることができてもよい。特定の実施形態において、これらのツールは、常に可視でなくてもよく、ユーザの特定の入力により起動されてもよい。限定ではなく例として、特定の視線入力(たとえば、レチクルにより追跡されるジェスチャ、下向きの視線)または別の適切な入力(たとえば、ヘッドセット・デバイス上のタッチセンサ式の場所のタップ、手でなされるジェスチャ)によってツールが現れてもよい。特定の実施形態において、これらのツールは、ツール・ベルト上、ツール・バッグ中、引き出し中等の任意の適切な形態の1つまたは複数の仮想トレイ上にあるかのごとく仮想空間中に現れるようにレンダリングされていてもよい。図10は、一組のツール1010、1020、および1030が仮想トレイ上に現れる例示的なインタフェースを示している。一組のツールは、図10に示す現在の空間に関連していてもよく、ビデオのレンダリングを含んでいてもよい。本例において、ユーザは、コメント・ツール1010を選択して、タイムライン・スクラバ要素1040により指定されたビデオ中の任意の時点にコメントを残してもよい。同様に、図11Cは、複数組のツールが異なるトレイ(たとえば、トレイ1160)上に現れるインタフェースを示している。特定の実施形態において、これらのツールは単に、現在のビュー上に浮かんでいる要素として表示されてもよい。図11Aは、たとえば友達探索ツール1110、タブレット・ツール1120、仮想鏡ツール1130等、現在のビュー上に浮かぶ一組の仮想ツールを示している。図11Aに示すように、ユーザは、仮想ツールのいずれか(たとえば、タブレット・ツール1120)を選択可能であってもよい。図11Bは、ソーシャル・ネットワーク・ツール1150の選択の結果を示しており、オンライン・ソーシャル・ネットワーク(たとえば、Facebook)のインタフェース1140が表示されてもよい。同様に、図11Dは、一組のツールがフローティング・メニュー1180に現れるインタフェースを示している。また、図11Dは、コンテンツの視聴にユーザが現在使用している可能性があるデスクトップまたはタブレット・ツールを示しており、フローティング・メニュー1180中のツールのうちの1つを用いて編集されてもよい。
図12A〜図12Eは、異なる機能を有する異なる仮想ツールを取り扱うインタフェースの例を示している。特定の実施形態においては、本明細書に記載のさまざまなレチクル・タイプと同一または同様の機能のうちのいくつかを実行するさまざまなツールが存在していてもよい。限定ではなく例として、一組のツールには、レーザ・ツールもしくはスリングショット・ツール、ペイントブラシ・ツール、蛍光ペン・ツール、カメラ・ツール、マーカ・ツール、ステッカー・ツール、コメント・ツール、(たとえば、現在表示されているコンテンツの変更に使用可能な)リモート・コントロール・ツール、(たとえば、仮想空間の他のユーザにスライド・デッキを提示するための提示の補助として使用可能な)レーザ・ポインタ・ツール、またはその他任意適切なツールを含んでいてもよい。これらのツールは、ユーザに対してより具体的ではっきりとした感覚の制御を可能にし、ユーザは、特定の機能で特定のツールを仮想的に手に取って「保持」することができる。図12Aは、ユーザにより保持されたマーカ・ツール1210(marker tool)の一例を示している。限定ではなく例として、マーカ・ツール1210は、仮想空間における(たとえば、仮想空間におけるコンテンツ・アイテム上、仮想オブジェクト上、3次元中の)筆記または描画に用いられてもよい。特定の実施形態において、特定のツールが保持されている場合は、本明細書にさらに記載する通り、追加の関連オプションがユーザに提示されてもよい。限定ではなく例として、図12Aを参照すると、消しゴムに対応するインタラクティブ要素1220が(たとえば、マーカ・ツール1210を仮想的に保持しているユーザの手の手首に対応する場所で)ユーザに提示されてもよい。限定ではなく別の例として、(たとえば、マーカ・ツール1210の色の調整に使用可能な)色調整要素1230または(たとえば、マーカ・ツール1210の先端のサイズの調整に使用可能な)サイズ調整要素1230等、保持されているツールの特徴をカスタマイズ可能な要素が提供されてもよい。図12Cは、マーカ・ツール1210の色を調整するための色相環1260を含む、例示的な色調整インタフェースを示している。図12Dは、マーカ・ツール1210の先端のサイズを調整するためのサイズ調整器1270を含む、例示的なサイズ調整インタフェースを示している。図12Bは、ユーザにより保持されているペイントブラシ・ツール1250の一例を示している。限定ではなく例として、ペイントブラシ・ツール1250は、仮想空間における(たとえば、仮想空間におけるコンテンツ・アイテム上、仮想オブジェクト上、3次元中の)ペイントまたは描画に用いられてもよい。図12Eは、ユーザにより保持されているスティックまたは延長ツール1290に取り付けられ、(たとえば、現在の仮想空間に現れるユーザのアバターの)セルフィーを撮影するためのカメラ・ツール1280の一例を示している。
特定の実施形態において、これらのツールは、仮想現実システムに提供された1つまたは複数の入力に基づいて、ユーザにより選択され、仮想的に保持されてもよい。限定ではなく例として、ユーザは、レチクルに関連付けられている場所に固定されるように(ユーザが焦点をシフトした場合に特定のツールがレチクルの経路に追従し得るように)特定のツールが現れるように、(たとえば、自動的にグラブ型レチクルになっている可能性がある)レチクルの狙いを特定のツールに合わせてもよく、これによって該ツールがレチクルにより「ピックアップ」および保持されてもよい。特定の実施形態においては、ツールがユーザにより保持されたまま、保持されているツールの性質に基づいて、さらなるユーザ入力が(たとえば、視線入力、ハンド・ジェスチャ入力)仮想空間において影響を及ぼしてもよい。限定ではなく例として、ユーザがカメラ・ツールを保持する場合は、閾値期間にわたる仮想空間の特定領域での視線入力またはヘッドセット・デバイス上のタップ入力によって、(たとえば、カメラ・ツールのビューファインダーに表示されている可能性がある)特定領域または特定領域の副領域の写真が撮影されてもよい。限定ではなく別の例として、ユーザは、ステッカー・ツールに関連付けられているメニューから特定のステッカー(たとえば、GIF、縮小イメージ、絵文字、またはその他任意適切なステッカー)を選択してもよく、選択されたこの特定のステッカーを有するステッカー・ツールをユーザが保持する場合、ユーザは、仮想空間中の現在表示されているコンテンツの副領域(たとえば、視覚的メディア・アイテム、オンライン・ソーシャル・ネットワークのニュースフィード、書類)を閾値期間にわたって注視することによって、ステッカーを副領域に重なり合わせてもよい。限定ではなく別の例として、ユーザは、ペン/マーカ・ツールを選択して、(ペン/マーカ・ツールがレチクルに追従して、その後ろの描画を追跡する状態で)意図する軌道にレチクルを動かすことによって、仮想空間の領域に描画してもよい。
特定の実施形態において、一組のツールは、3次元の仮想オブジェクトをユーザが迅速に生成可能な空間構成ツールまたは何らかの類似ツール(たとえば、彫刻ツール)等の構築ツールを含んでいてもよい。これらのオブジェクトは、作成された場合、仮想現実の他のオブジェクトと同様に挙動してもよく、また、初期設定での割り当てとユーザ(作成者)による指定/変更との両方または一方が可能な特性(たとえば、重量、色、質感、剛性、引っ張り強度、展性)を有していてもよい。限定ではなく例として、ユーザは空間構成ツールを用いて剣を描画可能であってもよく、これにより、仮想空間中のオブジェクトとして剣が生成される。そして、ユーザは、その他任意の仮想ツールであるかのごとく剣と相互作用(たとえば、手に取る、振る、他のオブジェクトに対して攻撃する等)が可能であってもよい。限定ではなく別の例として、ユーザはボード・ゲーム・ピースでゲーム・ボードを描画可能であってもよい。本例において、ユーザはその後、ユーザの友達とボードおよびピースを用いてボード・ゲームをプレイ可能であってもよい。限定ではなく別の例として、ユーザは、仮想空間に配置可能な家具等のアイテムを構成可能であってもよい。限定ではなく別の例として、ユーザは、空中への描画によってルーム内の人々のネームタグを作成可能であってもよいし、または、単に空中で言葉(たとえば、名前)を描画して楽しむようにしてもよい。限定ではなく別の例として、ユーザが吹き出しを描画した後、吹き出しにテキスト、イメージ等を追加し、それをユーザのアバターの頭上(または、別のユーザのアバターもしくは仮想ルーム中のその他任意適切な位置)に配置可能であってもよい。限定ではなく別の例として、ユーザは、仮想ルームで開催される誕生パーティ用のバルーンまたはケーキを作成可能であってもよい。特定の実施形態においては、作成されたオブジェクトが(たとえば、作成したユーザまたは現在所有しているユーザのアカウントに関連付けられている)ストレージに無期限で保存および保持されてもよい。特定の実施形態においては、オブジェクトをコピー可能である。特定の実施形態においては、オブジェクトを他のユーザに配布可能である。特定の実施形態においては、構築ツールの使用により、ユーザが思うようにゲームを修正してもよい。限定ではなく例として、ユーザは、アーケード式ゲームをプレイしていてもよく、また、ゲーム中で使用可能なオブジェクトの生成を選択してもよい。特定の実施形態において、これらのゲームは、他のユーザとオンザフライで作成されてもよい。限定ではなく例として、仮想ルーム内の2人のユーザが、テーブル上または空中で3次元三目並べのゲームをプレイしていてもよい。特定の実施形態において、構築ツールは、機能的に、現実世界と統合可能である。限定ではなく例として、(現実世界の同じ場所または現実世界の異なる場所の)ユーザが「ピクショナリー(Pictionary)」と類似のゲームをプレイしていてもよく、ユーザは、言葉またはコンセプトを含む現実世界の物理的なカードを引いてから、仮想世界でその絵を描いて、他のユーザに言葉またはコンセプトを当てさせる。本例において、仮想現実システムは、拡張現実をユーザに提示してもよいため、ユーザは、現実世界で引いたカード(または、カードのレンダリング)を見ることができる。限定ではなく別の例として、仮想オブジェクトは、3Dプリンタを用いて現実世界でプリントアウトされてもよいし、または、別様に現実世界で製造されてもよい。
特定の実施形態において、一組のツールは、オーディオ・コメント・ツールを含んでいてもよい。オーディオ・コメント・ツールは、選択して保持された場合、ユーザの声を記録し、仮想空間または仮想空間中のコンテンツに関連付けることが可能なオーディオ・コメント・ファイルを生成するレコーディング装置のように機能してもよい。ユーザ(または、許可を得た他のユーザ)は、後でオーディオ・コメント・ファイルにアクセスして再生してもよい。限定ではなく例として、ユーザは、スライドショー中の一組の写真について、(たとえば各写真を説明し得る)オーディオ・コメンタリを記録してもよい。本例においては、一組の写真にアクセスする別のユーザは、その一組の写真の個々の写真を見る際に、オーディオ・コメンタリを聞くことができてもよい。特定の実施形態において、仮想現実システムは、(たとえば、イメージ・コメント・ツールによりキャプチャされ投稿されたかまたはキャプチャされるかもしくは投稿された)イメージ・コメント・ファイル、(たとえば、ビデオ・コメント・ツールによりキャプチャされ投稿されたかまたはキャプチャされるかもしくは投稿された)ビデオ・コメント・ファイル、(たとえば、テキスト・コメント・ツールによりキャプチャされ投稿されたかまたはキャプチャされるかもしくは投稿された)テキスト・コメント・ファイル、またはリアクション・コメント・ファイル(たとえば、リアクション・コメント・ツールによりキャプチャされ投稿されたかまたはキャプチャされるかもしくは投稿された「いいね!」、「すごいね」等)にも、同じ種類の機能を可能にしてもよい。特定の実施形態においては、仮想空間の同じ領域を見るユーザがコメント・ファイルの仮想表現を見られるように、コメント・ファイルの視覚的表現(たとえば、適切なアイコン)が仮想空間のどこかに配置されていてもよい。これらのコメント・ファイルは、配置された場所に残っていてもよく、それにより、関連付けられているコンテンツに関する情報の伝達に用いられてもよい。限定ではなく例として、ユーザは、写真内で、写真に示された異なるオブジェクトを表すオーディオ・コメントを記録し、コメントが表すオブジェクトの近くに配置してもよい。特定の実施形態において、仮想現実システムは、ユーザが、スリングショット・ツール、ガン・ツール(たとえば、ステッカー・ガン・ツール)、または別の適切なツールを使用することにより、仮想空間においてコメント・ファイル(または、リアクション、ステッカー等)を立ち上げることによって、何らかの表示コンテンツの領域上にあるいは仮想空間内の所望の場所にそれを配置できるようにしてもよい。特定の実施形態においては、(たとえば、視線入力を関連アイコンに合わせた状態で)ユーザは、コメント・ファイルを選択して、コメンタリを見聞きすることまたは見るか聞くかすることができてもよい。特定の実施形態において、コメント・ファイルは、イメージ、文書、ウェブ・ページ、およびオンライン・ソーシャル・ネットワークのインタフェース等の任意適切なコンテンツ上に重ね合わされてもよい。特定の実施形態において、コメント・ファイルは、仮想空間の領域(たとえば、ユーザの仮想デスクトップ)に直接重ね合わされていてもよい。特定の実施形態において、コメント・ファイルは、ビデオ・コンテンツに重ね合わされていてもよい。これらの実施形態において、コメントは、特定の期間中のみ出現またはアクセス可能となり得るように、時間要素を有していてもよい(すなわち、時間成分を有していてもよい)。限定ではなく例として、スタンダップ・コメディ・ビデオのコメディアンが落ちを発したときに、リアクション・コメント(たとえば、笑うリアクションを表す笑顔)が現れてもよい。限定ではなく別の例として、表示されているコンテンツに対してテキスト・コメントが関連付いた場合に、テキスト・コメント(または、そのコンテンツを視線入力に従って表示可能なコメントに対応するアイコン)がビデオ・ドキュメンタリ内に現れてもよい。限定ではなく別の例として、関連時間における史跡のウォークスルーを示すビデオまたはインタラクティブ・コンテンツ内でオーディオ・コメントが再生されてもよい(または、オーディオ・コメント用のアイコンが現れてもよい)。特定の実施形態においては、一部のリアクションまたはコメントは、空間要素を有さずに時間要素を有していてもよく、この場合、これらのリアクションまたはコメントは、それぞれの時間となった場合に、何らかの適切な場所に現れてもよい。限定ではなく例として、異なる時点に対応するリアクションは、それぞれの時間となった場合に、リアクションまたはコメントのストリームとして、ビデオの下部、上部、中心等をスクロールしてもよい。これは、ライブ・ビデオの場合、リアクションまたはコメントのライブ・ストリームであってもよい。本開示は、ツールを用いてリアクションまたはコメントをコンテンツ・アイテム(または、仮想空間中のいずれかの場所(たとえば、仮想ルーム))に配置することに焦点を当てているが、本開示は、(たとえば、ドック要素のオプションの使用、ボイス・コマンドの使用等により)リアクションまたはコメントを任意適切に配置することを企図する。
図13A〜図13Cは、視覚的メディア・アイテムの場所にユーザ・リアクションを配置する一例を示している。図14Aおよび図14Bは、異なる場所にリアクションが配置された視覚的メディア・アイテムの一例を示している。特定の実施形態においては、コンテンツ(たとえば、視覚的メディア・アイテム)、仮想ルーム、または一般的に任意の仮想空間にユーザがリアクションまたはコメント(本明細書においては「ソーシャル・コメンタリ・アイテム」と総称する)を配置可能であってもよい。これらのソーシャル・コメンタリ・アイテムは、それらがコンテンツ中に現れる場所および時間の両方または一方を指定する、空間的および時間的情報または空間的もしくは時間的情報とともに配置されていてもよい。限定ではなく例として、図13A〜図13Cを参照すると、ユーザは、メニュー・バー1320からグラブして図13Cの場所に位置決めすることにより、表示された視覚的メディア・アイテム上に、笑うリアクション1310を配置してもよい。図13A〜図13Cは、この一連のイベントを示している。特定の実施形態において、ユーザは、ソーシャル・コメンタリ・アイテムを有するコンテンツ、仮想ルーム、または一般的に任意の仮想空間を視聴する場合、コンテンツ(または、一般的に任意の仮想空間)中の(空間的および時間的にまたは空間的もしくは時間的に)特定のスポットに関する他のユーザのソーシャル・コメンタリを視聴可能であってもよい。これらのリアクションまたはコメントは、仮想環境に重ね合わされていてもよい(たとえば、笑うリアクションに対応するスポットに、笑うアイコンが現れてもよい)。特定の実施形態においては、表示されたリアクションまたはコメントに関連付けられている識別情報(たとえば、小さなプロフィール写真、名前)が存在していてもよい。限定ではなく例として、図14Aを参照すると、ハート・リアクション1420は、ハート・リアクション1420を示したユーザのプロフィール写真1410(または、複数のユーザの複数のプロフィール写真)を伴っていてもよい。本例において、最大数よりも多いユーザ(たとえば、識別情報を表示するのに最適な数よりも多いユーザ)が「いいね!」を示した場合、仮想現実システムは、(たとえば、オンライン・ソーシャル・ネットワークのソーシャル・グラフ情報により決定され得るような、そのユーザに対して高いアフィニティを有する、ユーザのソーシャルつながりを「お気に入り」にした(favoring))選ばれた数のユーザの識別情報のみを表示してもよい。特定の実施形態において、ユーザに表示される視野には、まだ視野に存在していない(たとえば、ユーザ自身または別のユーザにより過去に示された)最新または次のリアクションまたはコメントの「ヒント」または表示を含んでいてもよい。これらのヒントは、周辺(たとえば、示されたリアクションの場所の方向)に現れてもよい。限定ではなく例として、図14Aを参照すると、「いいね!」ヒント1430は、現在のビューの右方に「いいね!」リアクションが存在することを示していてもよい。本例において、ユーザがビューを右にシフトすると、(「いいね!」ヒント1430に対応し得る)「いいね!」リアクション1450が(「いいね!」リアクション1450を示したユーザのプロフィール写真1440と併せて)視野に入る。この代替または追加として、ヒントは、示されたリアクションの場所の方向の何らかの表示(たとえば、矢印記号)を提示してもよい。ヒントを表示する利点の一つは、ユーザの注意を、特定のコンテンツ・アイテムの関心エリア(たとえば、他のユーザが「いいね!」した時間的または空間的スポット)に向かわせるように作用し得る点である。限定ではなく例として、360°写真を見ているユーザは、ユーザの現在の視野の右側にヒントが表示されていると気づく場合がある(たとえば、右を指す矢印を伴う笑うアイコンの表示)。本例において、ユーザは、右を向いた際(それにより、視野をシフトした際)、笑うアイコンに対応するスポットを見ることができてもよい(たとえば、おかしな猫の描写)。
特定の実施形態において、一組のツールは、現在の仮想空間から異なる仮想空間へのユーザ(および/または、1人もしくは複数人の他のユーザ(たとえば、該ユーザを含む仮想ルーム中の他のユーザ))のトランスポートを可能にするポータル・ツールを含んでいてもよい。限定ではなく例として、ユーザは、ポータル・ツールを選択することにより、(本明細書の他の部分に記載の)特定の仮想ルームから出て、異なる仮想ルーム、視覚的メディア・アイテムをブラウズするためのユーザ・インタフェース、オンライン・ソーシャル・ネットワークのニュースフィード、ウェブ・ブラウザ、またはその他任意適切な仮想空間に入ることができてもよい。
特定の実施形態において、一組のツールは、仮想鏡ツールを含んでいてもよく、(たとえば、反射アイテムであるかのごとく鏡ツールの領域内にアバターのイメージをレンダリングすることによって)ユーザが自身のアバターを見ることができるようにしてもよい。仮想鏡は本質的に、仮想空間における鏡のように機能し得る。また、仮想鏡の概念は、他の用途に拡張可能である。限定ではなく例として、仮想鏡の概念は、たとえば仮想鏡(または、カメラ・ツール)を手に取り、所望のイメージを表示するようにそれを位置決めすることによって、ユーザがイメージ(たとえば、「セルフィー」イメージ)をキャプチャ可能となるようにカメラ・ツールに拡張可能である。限定ではなく別の例として、ユーザは、鏡(または、カメラ・ツール)で同じようにビデオをキャプチャ可能であってもよい。限定ではなく別の例として、ユーザは、該ユーザとの通信セッションまたは他のユーザへの片方向ブロードキャスト中に他のユーザに何が見えるかを制御する手段として仮想鏡を使用可能であってもよい。本例において、ユーザは、所望のイメージをキャプチャするように仮想鏡(または、カメラ・ツール)を位置決め可能であってもよく、仮想現実システムは、仮想鏡に現れたイメージをストリーミングまたはブロードキャストしてもよい。特定の実施形態においては、仮想現実空間内の2人のユーザが、複数の他のユーザに情報をブロードキャストしてもよい。これらのユーザは、複数の他のユーザが見るものをフレーミングする際の視覚的補助として仮想鏡(または、カメラ・ツール)を使用してもよい。特定の実施形態において、仮想鏡(または、カメラ・ツール)は、ユーザのアバターの領域に(たとえば、アバターの顔または身体を中心として)自動位置決めされてもよい。限定ではなく例として、仮想鏡(または、カメラ・ツール)は、アバターの最適なビューの方へ自動的に付勢してもよい。特定の実施形態において、初期設定の位置(たとえば、顔の中心、身体の中心等)は、ユーザにより設定されてもよい。また、特定の実施形態において、仮想鏡(または、カメラ・ツール)は、ユーザの手または他の入力手段により存在し得る一切の揺れを抑えることによって、イメージを整えてもよい。
特定の実施形態において、仮想現実システムは、リーチ(reach)および距離のような概念を仮想空間に導入してもよい。リーチおよび距離の概念は、仮想世界を現実世界により近づけるとともに仮想世界におけるインタラクションをより直感的にするのに有用と考えられる。これらの実施形態において、オブジェクトがユーザのアバターのリーチ範囲内である場合は、オブジェクトとの特定のインタラクションをユーザのみが利用可能であってもよい。限定ではなく例として、ユーザのアバターの手のリーチ範囲内である場合は、ユーザのみにより手に取られてもよい。リーチの概念は、仮想空間の視点レンダリングによって伝達可能であるため、(現実世界と同様に)リーチ範囲内のオブジェクトが明らかとなる。特定の実施形態において、仮想現実システムは、明瞭化のために、(たとえば、ハイライトすることによって、またはユーザのリーチ範囲外のオブジェクトよりも不透明化することによって)リーチ範囲内のオブジェクトを示してもよい。特定の実施形態においては、オブジェクトに向かって移動することによって、またはオブジェクトをユーザに近づける仮想ツール(たとえば、トラクタ・ビーム・ツールまたはバキューム・ツール)の使用によって、ユーザがオブジェクトをそれぞれのリーチ範囲に近づけることができてもよい。特定の実施形態においては、特定のユーザが、オブジェクトまたはコンテンツに近い別のユーザに、それを手に取って渡してもらうように頼むことができてもよい。アイテムを他のユーザに手渡す「物理的」な行為には、非常にリアルかつ非常に人間的なエクスペリエンスをユーザにもたらす利点があり得るとともに、仮想世界をより現実世界のように感じさせるのに役立ち得る。
特定の実施形態において、仮想現実システムは、コンテンツ用の第1の組の物理特性および仮想オブジェクト用の第2の組の物理特性を有していてもよい。限定ではなく例として、コンテンツが仮想空間において浮かぶ一方、オブジェクトが現実世界のオブジェクトであるかのごとく重力を有していてもよい。
特定の実施形態においては、仮想空間において第1のユーザがツール(たとえば、ユーザが購入したプレミアム・ツール)を第2のユーザに手渡すことができてもよい。そして、第2のユーザは、そのツールを使用可能であってもよい。特定の実施形態において、第2のユーザは、ある期間中または特定の制約内でのみツールを使用可能であってもよく、その後は、他のユーザがツールを利用できなくなってもよい。限定ではなく例として、第1のユーザは、プレミアム・カメラ・ツール(たとえば、高品質イメージを取得するツールまたは特定のフィルタを有するツール)を第2のユーザに手渡してもよい。本例において、第2のユーザは、第1のユーザと同じ仮想空間にいる間だけにカメラの使用が制限されていてもよいし、10分間だけカメラを使用可能であってもよい。
特定の実施形態においては、所与の仮想空間において所与の時間にレンダリングされるツールは異なってもよい。レンダリングされる特定のツールは、本明細書に記載の通り(たとえば、動的に変化するレチクルの場合のように)、決定された現在のコンテキストに基づいていてもよい。限定ではなく例として、ユーザは、(たとえば、ユーザの層、プレミアム・ツールの場合にはユーザがアクセスに支払いを行ったかどうかに基づいて)アクセスを有するツールを見ることまたは選択することのみが可能であってもよい。限定ではなく別の例として、特定の仮想空間において特定のツールが現れる可能性がより高くなっていてもよい。本例においては、勉強または仕事用に設計可能な、オフィスをテーマとする仮想空間において、ペン・ツールが現れる可能性がより高くなっていてもよい。同様に、ゲーム環境においては、レーザ・ツールが生じる可能性がより高くなっていてもよい。限定ではなく別の例として、ユーザは、適切なボイス・コマンド(たとえば、「ペン・ツール」)を話すようにしてもよく、ペン・ツールが現れてもよい(たとえば、空から降ってくるように現れる、何もない場所から現れる)。特定の実施形態において、レンダリングされる特定のツールは、類似のコンテキストについて本明細書の他の部分に記載の通り(たとえば、動的に変化するレチクルの場合のように)、考え得るさまざまなツールのスコア付けまたはランク付けにより決定されてもよい。
特定の実施形態においては、ツールの使用がツールの可用性またはユーザによるツールの継続的な選択に影響を及ぼしてもよい。限定ではなく例として、ユーザが所定期間にわたってペン・ツールを使用した後は、ペン・ツールの選択が解除されてもよい。限定ではなく別の例として、(たとえば、ユーザが購入した仮想「フィルム」の量により規定され得る)所定数の写真をユーザがカメラ・ツールで撮影した後は、カメラ・ツールが利用不可能となってもよい。限定ではなく別の例として、ユーザが特定のツールを責任なく使っている場合(たとえば、ユーザのツールの使用が他のユーザにより報告されている場合)は、該特定のツールが(たとえば、ある期間にわたって)利用不可能となってもよい。たとえば、別のユーザが生成した仮想オブジェクトを破壊するために、あるユーザがレーザ・ツールを用いる場合は、24時間にわたって、そのユーザがレーザ・ツールを利用できなくなってもよい。特定の実施形態においては、ツールの使用が、ツールについて計算されるスコアまたはランクに影響を及ぼしてもよい。限定ではなく例として、ユーザが過去5時間の間に所定の期間にわたってペイントブラシ・ツールを使用した後は、(たとえば、ユーザがペイントブラシ・ツールに対する関心を失ってしまった可能性があるために)そのスコアが低下し得るとともに、結果として、(たとえば、より高いスコアを有する可能性があるために)別のツールが現れる可能性が、ペイントブラシ・ツールよりも高くなってもよい。
特定の実施形態においては、仮想空間中の仮想オブジェクト(たとえば、仮想ツール)がユーザに対してカスタマイズされてもよい。特定の実施形態において、仮想オブジェクトのカスタマイズは、仮想現実システムにおいて、仮想現実システムに関連付けられているデータベース、オンライン・ソーシャル・ネットワークに関連付けられているデータベース、または任意適切なサードパーティ・システムに関連付けられているデータベースにローカルに格納可能な、ユーザに関連付けられている情報に基づいていてもよい。限定ではなく例として、オンライン・ソーシャル・ネットワークのソーシャル・グラフ上に存在し得るソーシャル・グラフ情報に基づいて仮想オブジェクトがカスタマイズされてもよい。本例において、このような情報は、(ユーザによる明示的な指定またはオンライン・ソーシャル・ネットワーク上のユーザの行為による推測が可能な)ユーザのアフィニティおよびプリファレンスを含んでいてもよい。たとえば、ユーザの仮想大型携帯用ステレオ(ブームボックス)が、(たとえば、ユーザの音楽ストリーミング・プロフィールに基づく、ユーザのソーシャル・グラフ情報に基づく、ユーザにより明示的に指定された再生リストに基づく)個別の音楽再生リストを有していてもよい。限定ではなく別の例として、ユーザの仮想TVが、(たとえば、ユーザのテレビ契約アカウントへの接続によって、ユーザにより仮想現実システムまたはユーザに関連付けられている別のシステム(現実世界におけるデジタル・ビデオ・レコーダ、パソコン、またはクラウド・プラットフォーム等)に格納されたメディア・アイテムへの接続によって)パーソナライズされた一組のTV番組/映画を有していてもよい。
特定の実施形態において、仮想現実システムは、仮想ルームをレンダリングしてもよく、この仮想ルームは、複数のユーザが仮想的に会える仮想空間であってもよい。特定の実施形態において、仮想ルームは、特定のユーザにより「生成」されたものであってもよい。すなわち、仮想現実システムは、仮想ルームのレンダリングを要求する特定のユーザによる入力に応答して仮想ルームをレンダリングしてもよい。特定の実施形態において、仮想ルームは、該仮想ルーム中のすべてのユーザが、特定のユーザ(たとえば、仮想ルームを生成したユーザ)の場所で現実世界に自身らが存在すると認識し得るように、該特定のユーザのヘッドセット・カメラからのイメージを背景として有していてもよい。特定の実施形態において、各ユーザは、(それぞれ自身の個々の現実世界に基づく拡張現実を見るために)背景が自身のヘッドセット・カメラからのイメージで形成された仮想ルームを見てもよい。特定の実施形態において、仮想現実システムは、ユーザのアバターを仮想ルーム内にレンダリングしてもよい。仮想ルーム内のアバターは、カスタマイズ可能な、生成された各ユーザのレンディションであってもよい。特定の実施形態において、仮想空間は、(たとえば、各ユーザに向けられたカメラからキャプチャされた)ユーザのビデオ表現をレンダリングしてもよい。特定の実施形態において、レンダリングされたアバターは、ビデオ表現の1つまたは複数の要素を含んでいてもよい。限定ではなく例として、アバターの顔は、ビデオ表現中の顔から構成された顔であってもよい。特定の実施形態において、仮想ルームは、実際の部屋に似るように、壁で仕切られていてもよい。
特定の実施形態においては、ユーザの1つまたは複数の写真(または、ビデオ等の他のイメージ・コンテンツ)に基づいて、ユーザの最初のアバターが仮想現実システムにより生成されてもよい。限定ではなく例として、仮想現実システムは、オンライン・ソーシャル・ネットワークからのユーザの写真(たとえば、ユーザをタグ付けしている写真、ユーザのプロフィール写真)またはその他適切な何らかのリソース(たとえば、ユーザのローカルまたはクラウドの写真データベース)からのユーザの写真を自動的に選択してもよい。仮想現実システムは、特定の種類の写真(たとえば、ユーザのプロフィール写真であった写真、相対的に多くの「いいね!」またはコメントを受けた写真、ユーザの顔の角度および詳細が最適な写真等)を「お気に入り」にすること(favoring)によって、最適な写真の選択を試みてもよい。
図15は、仮想空間におけるアバター・カスタマイズ・エリアの一例を示している。図16A〜図16Gは、アバターをカスタマイズするための仮想ツールの例示的な使用を示している。特定の実施形態においては、ユーザは、該ユーザのアバターをカスタマイズ可能であってもよい。特定の実施形態において、ユーザは、アバターの特徴を変更可能であってもよい。アバターの変更は、少なくともユーザの認識に基づいて、最初のアバターが正確または最適にレンダリングされていなかった場合に望ましいと考えられる。また、(写真にキャプチャされていない可能性がある)最高の自分または理想の自分をアバターに反映させたいとユーザが望む場合にも望ましいと考えられ、あるいは単に、ユーザが遊びで作成したいと思う、自身の想像上のバージョンであってもよい。特定の実施形態において、ユーザは、(レンダリングされたユーザの手で指す/つつくことによって)最初のアバターの個々の特徴(たとえば、鼻、口、顎のライン、肌の色、眼の色、顔ひげの種類)を選択して、望む通りに変更可能であってもよい。限定ではなく例として、ユーザは、既存の特徴を、考え得る特徴群から選択可能な異なる特徴に切り替え可能であってもよい。限定ではなく別の例として、ユーザは、任意適切な入力を用いることにより、既存の特徴を変更可能であってもよい。たとえば、ユーザは、特徴として鼻をつついて選択した後、ジェスチャで引き出すことで鼻を大きくしてもよいし、髪の毛をグラブして下方に引っ張ることで生え際を延ばすようにしてもよいし、眼変更ツールを手に取って新たな眼をアバターに適用することで(この時点で、アバターの眼はアニメのように大きくなるため、ユーザは、選択された眼の色をより鮮明に見ることができる)眼の色を変更してもよい。特定の実施形態においては、これらの変更を補助するために、ユーザのアバターの位置および動きを映す仮想鏡がユーザに提示されてもよい。限定ではなく例として、ユーザには、仮想鏡1510が提示されてもよい。本例において、ユーザは、特徴(たとえば、口1530)を選択して修正可能であってもよい。特定の実施形態において、ユーザは、アクセサリ(たとえば、帽子、眼鏡)をアバターに追加してもよいし、アバターが着ている服をカスタマイズしてもよい。特定の実施形態において、ユーザは、現実世界の身だしなみ用品に類似し得る仮想ツール等を用いてアバターの見た目を変更してもよい。限定ではなく例として、ユーザは、仮想ヘア・ドライヤ・ツール、仮想ヘア・ストレートアイロン・ツール、仮想カール・アイロン・ツール、仮想ヘア・ジェル、仮想化粧品、仮想ヘア・カラーリング剤、仮想シェービング・クリーム、仮想顎ひげトリマー、仮想バリカン、仮想かみそり、((たとえば、顔の)毛を加速度的に成長させ得る)仮想育毛クリーム等を手に取って、現実世界と同様にアバターを修正可能であってもよい。図15を参照して、仮想ツール(たとえば、仮想バリカン1550)は、仮想鏡1510の前の化粧台1520等の直感的な場所に現れてもよい。図16Aおよび図16Bは、ユーザが仮想ヘア・ドライヤ・ツール1610を用いてユーザのアバターの髪の毛を修正する一例を示している。本例において、ユーザは、仮想ヘア・ドライヤの設定を指定可能であってもよく、指定された設定の表示(たとえば、インジケータ1620)が仮想ヘア・ドライヤ上またはその近傍に現れてもよい。ユーザは、生じた変化を仮想鏡1630で見ることができてもよい。図16E〜図16Gは、ユーザが仮想育毛クリーム1650を用いてユーザのアバターの顎ひげを修正する一例を示している。ユーザは、図16Fの仮想育毛クリーム1650を塗布してもよく、その結果、アバターが図16Gのように顎ひげをたくわえてもよい。特定の実施形態において、ユーザは、単にフィルタを有効にすることによって、アバターをカスタマイズ可能であってもよい。限定ではなく例として、図16Cおよび図16Dを参照すると、ユーザは、図16Dに見られるように、(たとえば、コメディ効果を目的として)アバターに大きな眼を重ね合わせる「アニメの眼」または「キョロキョロ動く眼」フィルタを(たとえば、フィルタ・ツール1640によって)有効にしてもよい。特定の実施形態においては、物理的コントローラ上の異なるボタンが、ユニバーサル・ツールで見た目を変更するための異なる機能に対応していてもよい。限定ではなく例として、ユニバーサル・ツールは、物理的コントローラを介してユーザが提供する入力(たとえば、ボタンを押すこと、ジェスチャの実行)に応じて、髪の毛を伸ばすこと、髪の毛をカールさせること、髪の毛をストレートにすること、髪の毛にジェルを塗布すること、髪の毛を染めること等を行ってもよい。特定の実施形態において、これらのツールは、現実世界の対応する製品の使用をシミュレートするハンド・ジェスチャにより(たとえば、ハンド・コントローラを動かすことにより)操作されてもよい。特定の実施形態において、アバターのカスタマイズは、現実世界の鏡のように機能してユーザのアバターの動きおよび特徴を映す仮想鏡により容易化されてもよい。特定の実施形態において、鏡は、仮想空間における任意の時間もしくは場所でのユーザによる呼び出しと、ユーザが仮想更衣室もしくは別の個人用空間(パーソナル・スペース)に入った場合(たとえば、本明細書に記載の通り、ユーザが「一時停止モード」に入った場合)のユーザへの提供と、の両方または一方が可能であってもよい。仮想更衣室(または、他の個人用空間)は、アバター修正用のツールまたはオプション(たとえば、アクセサリ、仮想ヘア・ドライヤ・ツール)を含んでいてもよい。限定ではなく例として、ユーザは、一時停止モードに入って仮想更衣室に入り、(たとえば、仮想鏡上の対応する場所の鼻を指さすことにより)鼻を特徴として選択し、(たとえば、ユーザによる鼻の選択に応答してユーザに提示され得る複数の考え得る鼻のうちから1つを選択することにより)異なる鼻を選択してもよい。特定の実施形態においては、カスタマイズが頭部または顔に限定されずに胴体または手足(たとえば、身体サイズ、体形、および/または身長)のカスタマイズを含んでいてもよい。
図17Aおよび図17Bは、アバターをカスタマイズするための例示的な仮想雑誌を示している。特定の実施形態においては、カスタマイズの容易化とカスタマイズ・アイデアのユーザへの提供との両方のために、現実世界のファッション雑誌と同様にさまざまなスタイル・テンプレートまたはモデル化されたスタイル(たとえば、服、ヘアスタイル、口ひげ、アクセサリ)を(たとえば、ユーザがパラパラとめくることができる異なる「ページ」に)含み得る、1つまたは複数の仮想「雑誌」(または、何らかの類似物)がユーザに提示されてもよい。各スタイルは、図17Bの例示的な雑誌1720に示すように、1つまたは複数のさまざまな特徴(たとえば、さまざまなヘアスタイル、鼻)または品物(たとえば、さまざまな眼鏡、帽子)を掲載していてもよい。雑誌は、アバターのカスタマイズを試しているユーザに特に有用であってもよく、ユーザに出発点を与えてもよい。異なる個性に対して異なる雑誌が存在していてもよく、ユーザは、それぞれの個性または好みに最も近い雑誌を選んでもよい。限定ではなく例として、図17Aを参照すると、ユーザには多様な異なる雑誌(たとえば、ヒップスター・スタイルを紹介可能な「ヒップスター」雑誌1710)が提示されてもよい。雑誌は、更衣室(または、個人用空間)で提示されてもよい。限定ではなく例として、図15を参照すると、雑誌1540は、化粧台1520上に現れてもよい。雑誌の中のスタイルは、ユーザがさまざまなスタイルをパラパラと手早くめくって各スタイルがユーザの現在のアバター上でどのように見えるかを確認できるように、雑誌の中で、ユーザの現在のアバターの表現上にモデリングされてもよい。この代替または追加として、スタイルは、モデルの他のアバターまたは写真上にモデリングされてもよい。また、雑誌は、さまざまな特徴集合(たとえば、ユーザの現在のアバターに適用してユーザにさまざまな可能性を示せるように、さまざまな鼻、眼、顎等)を表示してもよい。雑誌の一部または全部は、無料であってもよいし、購入されてもよい。ユーザは、アバターのカスタマイズ・アイデアを求めて雑誌を見ることができてもよく、また、雑誌に基づいてユーザのアバターを調整してもよい。特定の実施形態において、ユーザは、(たとえば、雑誌のページ上で)単に特定のスタイルを選択可能であってもよく、また、(たとえば、更衣室において)仮想鏡を見ることにより、ユーザのアバターの変化を即座に確認可能であってもよい。ユーザは、雑誌の中の個々のアイテム(たとえば、眼鏡、眼の色)を選択してもよいし、スタイル全体を選択(たとえば、雑誌の中のモデルに示されたすべての特徴を追加)してもよい。ユーザは、満足したら、変更を受け入れて、それ以上何も行う必要なくアバターを即座にカスタマイズしてもよい。特定の実施形態において、ユーザは、現実世界のように片手で雑誌の背を持って、雑誌を保持してもよい。これらの実施形態において、ユーザは、もう片方の手で雑誌のページをパラパラめくって(または、その他任意適切な入力を行って)もよい。
特定の実施形態において、仮想現実システムは、アバターのレンダリングにおいて、顔のみならず身体もレンダリングしてもよく、したがって、身体のさまざまな部分をどこにどのように位置決めするかを決定することを必要としてもよい。限定ではなく例として、仮想現実システムは、身体におけるさまざまな関節の角度、または手足と胴体の位置、または手足もしくは胴体の位置を決定してもよい。これらを決定する際に、仮想現実システムは、ユーザからさまざまな入力を受け付けてもよい。限定ではなく例として、仮想現実システムは、ユーザおよびユーザのさまざまな身体部分の動きを追跡可能なカメラを含んでいてもよい。限定ではなく別の例として、仮想現実システムは、ユーザの1つまたは複数の手足への保持または固定(たとえば、ユーザの足または膝に結ぶこと、ユーザの手に保持または固定されること)が可能なコントローラを含んでいてもよい。特定の実施形態において、仮想現実システムは、逆運動学(inverse kinematics)を利用することにより、さまざまな身体部分および関節の動き、角度、および場所を連続して決定してもよい。限定ではなく例として、アバターの関節角度および位置と入力データ(たとえば、ユーザを追跡するカメラからのデータ、ユーザの手および足の位置を表すコントローラからのデータ)との間の関係を逆運動学方程式が規定してもよく、また、これらの関係を用いて、アバターの関節の場所および向きを決定してもよい。限定ではなく別の例として、アバターの関節角度および位置とアバターの決定された姿勢との間の関係を逆運動学方程式が規定してもよい。本例において、アバターの姿勢は、ユーザにより決定されてもよいし、ユーザを追跡するカメラからのデータまたはコントローラからのデータであってもよいが、コンテキスト情報等の他の因子にも基づいて決定されてもよい。たとえば、コンテキスト上の指定として、(たとえば、会話に基づいて、肩をすくめる「仮想絵文字」をトリガした特定のジェスチャに基づいて決定可能なように)ユーザが肩をすくめている場合、これは、アバターが肩をすくめる姿勢をとるべきことを仮想現実マシンに知らせる。この場合は、逆運動学方程式の使用により、肩をすくめる姿勢の場合のアバターの関節の場所および向きを決定してもよい。
特定の実施形態において、仮想ルームは、特殊な特性を有する仮想ルーム中の特定の領域であり得る「インタラクティブ面」を含んでいてもよい。特定の実施形態において、インタラクティブ面は、仮想ルーム中のすべてのユーザにとって可視のテーブル、デスク、またはこのような他の面に類似していてもよい。特定の実施形態において、インタラクティブ面は、特定のインタラクティブ・エクスペリエンスを共有する手段を仮想ルーム内のユーザに提供してもよい。特定の実施形態において、インタラクティブ面は、ユーザが仮想ルームにおいて他のユーザとコンテンツを共有する手段であってもよい。共有されるコンテンツ(たとえば、スライドショー、ビデオ)は、2次元または3次元であってもよく、また、フラットなコンテンツであってもよいし、フラットではないコンテンツ(たとえば、球形コンテンツ、360°コンテンツ、180°コンテンツ)であってもよい。フラットではないコンテンツの場合、エクスペリエンスを共有しているユーザは、ともにコンテンツに没入してもよい(たとえば、球形コンテンツの場合は、ルーム中の全員が、球形コンテンツに囲まれたルームにいることを認識し、同じルーム中で互いをアバターとして見てもよい)。
図18Aおよび図18Bは、コンテンツの共有または他の形でのインタラクティブ・エクスペリエンスの共有にユーザが使用し得るインタラクティブ面を示している。図19は、ロックされているコンテンツ・アイテムの一例を示している。図20は、コンテンツ・アイテムが可視ではないユーザに対して示された、コンテンツ・アイテムのコンテンツ・アイテム表現の一例を示している。特定の実施形態において、ルーム中で個人的にコンテンツ(たとえば、品物、視覚的メディア・アイテム、オンライン・ソーシャル・ネットワークのニュースフィード上のアイテム)をブラウズまたは視聴しているユーザが仮想ルーム中の他のユーザとのコンテンツ共有を決定した際は、コンテンツに対応する仮想オブジェクトをインタラクティブ面上に配置してもよい。仮想オブジェクトをインタラクティブ面上に配置する行為は、「コンテンツ・ロック解除」入力として機能することにより、仮想ルーム中の他のユーザが、対応するコンテンツを見ることができるようにしてもよい。限定ではなく例として、ユーザは、オンライン・ソーシャル・ネットワークのニュースフィードをブラウズしてもよく、また、ニュースフィード上で投稿されたビデオが面白いと気付く場合がある。本例において、ユーザは、(たとえば、視線入力を使用し、ビデオのサムネイルをグラブ型レチクルで「グラブ」し、レチクルをインタラクティブ面上に合わせることによってサムネイルをインタラクティブ面上にドラッグすることにより)ビデオに対応する仮想オブジェクトを選択して、インタラクティブ面上にドラッグしてもよい。仮想オブジェクトがインタラクティブ面上に配置されている場合、仮想オブジェクトに関連付けられているコンテンツは、ルーム中のユーザまたはインタラクティブ面の閾値距離内のユーザに可視であってもよい。限定ではなく例として、このように共有されたビデオは、仮想ルームのユーザが見ることができるように、インタラクティブ面もしくはインタラクティブ面の近く(たとえば、映画投影スクリーンと同様に、インタラクティブ面に隣接して)、または別の適切な場所に投影されてもよい。特定の実施形態においては、コンテンツ・アイテムへのアクセスを有するユーザがインタラクティブ面の特定領域上にコンテンツ・アイテムを配置するまで、該コンテンツ・アイテムがロック解除されず、他のユーザにとって可視でなくてもよい。限定ではなく例として、図18Aを参照すると、コンテンツ・アイテム1820は、インタラクティブ面1810の領域1830に配置されるまで、ロック解除されたままである。本例において、コンテンツ・アイテムは、領域1830に配置されると、仮想ルーム中の他のユーザ(たとえば、ユーザ「ブライアン(Brian)」)がこれを視聴できるように、スクリーン1840に投影される。特定の実施形態においては、(たとえば、コンテンツに対応する仮想オブジェクトをインタラクティブ面上に配置することによって)ユーザが明示的に許可するまで、ルーム中で個人的にユーザがブラウズまたは視聴しているコンテンツが他のユーザにとって可視(または、可聴)とならない場合もある。特定の実施形態において、ユーザは、同じ仮想ルーム内であっても、特定のコンテンツがユーザの部分集合のみに可視となることを選ぶようにしてもよい。これらの実施形態においては、ユーザの部分集合がコンテンツを視聴可能であってもよい一方で、ユーザの部分集合に含まれない他のユーザは、コンテンツを視聴可能でなくてもよい。特定の実施形態において、コンテンツが可視ではないユーザは、本明細書に記載の通り、コンテンツ・アイテム表現のみを見てもよい。限定ではなく例として、コンテンツ・アイテム表現は、ブランク・スクリーンのように見えるプライバシー・スクリーンであってもよい。特定の実施形態において、コンテンツ・アイテム表現は、コンテンツがプライベートである旨の表示、または選ばれたユーザもしくはユーザ群のみにコンテンツが可視である旨の表示を含んでいてもよい。限定ではなく例として、図20を参照すると、プライベート・コンテンツをルーム中に示しているユーザが該コンテンツをマイケル(Michael)という名前の特定のユーザにのみ可視にしている場合、(特定のユーザ「マイケル」以外のすべてのユーザに表示可能な)コンテンツ・アイテム表現2010は、テキスト「コンテンツを見られるのはマイケルだけです」を含んでいてもよい。ユーザには、ユーザが「コンテンツ・ロック解除」入力を提供できるようにするための任意適切なユーザ・インタフェース要素が与えられてもよく、これによりユーザは、コンテンツを、特定の他のユーザに対して選択的に可視(または、一般的に他のユーザに対して可視)にすることができてもよい。限定ではなく例として、図19を参照すると、ユーザには、コンテンツ・アイテム1920を他のユーザに対して可視にするように選択可能な仮想ボタン(たとえば、仮想ロック解除ボタン1930)またはメニュー・アイテムが提供されてもよい。本例において、ユーザはまた、仮想ロック解除ボタン1930の選択後に現れ得るドロップ・ダウン・メニューから特定のユーザを指定することによって、コンテンツを可視にする特定のユーザを指定可能であってもよい。コンテンツが他のユーザには可視ではないことを示す通知(たとえば、通知要素1910)がユーザに提供されてもよい。限定ではなく別の例として、ユーザは単に、コンテンツ・アイテムをインタラクティブ面上に配置してもよく、これにより、仮想ルーム中の他のすべてのユーザにとってコンテンツ・アイテムが可視になってもよいし、インタラクティブ面の隣に配置してもよい。
図21は、コンテンツ・アイテムが可視ではないユーザの観点からコンテンツ・アイテムと相互作用するユーザの一例を示している。ユーザ試験により、ユーザが個人的にコンテンツを視聴している場合、結果的な状況は(たとえば、コンテンツが可視ではない他のユーザにとって)落ち着かないかまたは不愉快となり得ることが明らかである。個人的にコンテンツを視聴しているユーザは、他のユーザにとって、(たとえば、コンテンツと相互作用している場合)空中でおかしなジェスチャまたはでたらめなジェスチャを行っているか、または、単にぼんやりと空間を見つめているように見える可能性がある。この問題は、コンテンツが実際に何であるかについての一切の表示なく、(たとえば、コンテンツがあると予想され得る場所において)コンテンツを視聴しているユーザの前に何らかの種類のコンテンツ表現を表示することにより改善されてもよい。限定ではなく例として、図21を参照すると、ブランク・スクリーン2110が、コンテンツ表現としてユーザ2120の前に表示されてもよい。本例において、ブランク・スクリーンまたはプライバシー・スクリーンは、コンテンツの裏側を表していてもよい。コンテンツ表現は、不透明であってもよいし、透明であってもよい。コンテンツ表現は、ユーザ・インタラクションを示していてもよい。限定ではなく例として、プライベート・ビデオを視聴しているユーザがビデオのブランク・スクリーン表現に「タッチ」した場合は、(たとえば、図21のリング2130による)「接触」点がハイライトされることによって、ユーザがコンテンツと相互作用しており、ただ指しているだけではないことを示すようにしてもよい。コンテンツ表現は、任意適切な形状をとっていてもよく、また、コンテンツで調整されてもよい。限定ではなく例として、ユーザがプライベート・ビデオのパネルを視聴している場合は、他のユーザはブランク・スクリーンのパネルを見ていてもよい。特定の実施形態において、コンテンツ表現は、それが表すコンテンツ・アイテムがプライベートである旨の表示を含んでいてもよい。特定の実施形態において、コンテンツ表現は、コンテンツが可視であるユーザをさらに示してもよい。限定ではなく例として、(たとえば、コンテンツが可視ではないユーザである)ユーザ「トーマス(Thomas)」に対しては、テキスト「コンテンツを見られるのはジェーン(Jane)とジム(Jim)だけです」を含んでいてもよい(たとえば、ジェーンとジムは、コンテンツを可視にされたユーザである)。本開示は、プライベート・コンテンツを他のユーザに視聴可能にする特定の方法に焦点を当てているが、本開示は、そのようにする任意の適切な手段を企図する。限定ではなく例として、適切なジェスチャ(たとえば、特定のスワイプ・ジェスチャ、シークレット・ジェスチャ)の実行、パスワードの発話、ボタン(たとえば、仮想空間においてレンダリングされたボタンまたは物理的コントローラ上のボタン)を押すこと等によって、ユーザが自身のプライベート・コンテンツを視聴可能にしてもよい。
特定の実施形態において、仮想現実システムは、現在のコンテキストに基づいてインタラクティブ面を変更してもよい。インタラクティブ面は、形状、サイズ、色、物理特性(たとえば、質感、たとえばインタラクティブ面に落ちた仮想オブジェクトのさまざまなレベルの跳ね返りを可能にし得る仮想材料の弾力性))、またはその他任意適切な特性が変更されてもよい。限定ではなく例として、卓球台のインタラクティブ面およびビリヤード台のインタラクティブ面が異なる形状、サイズ、色、および物理特性(たとえば、高密度ファイバ・ボード対フェルト)であってもよい。現在のコンテキストは、本開示内で記載の因子(たとえば、現在の時刻、ルーム中のユーザのうちの1人または複数に関する情報)の任意の組み合わせに基づいて決定されてもよい。特定の実施形態において、レンダリングされる特定のインタラクティブ面は、類似のコンテキストについて本明細書の他の部分に記載の通り(たとえば、動的に変化するレチクルの場合のように)、考え得るさまざまなインタラクティブ面のスコア付けまたはランク付けにより決定されてもよい。
図22Aおよび図22Bは、ユーザが選択したツールに基づいて変更される例示的なインタラクティブ面を示している。特定の実施形態において、現在のコンテキストは、ユーザが選択した1つまたは複数のツールに基づいていてもよい。特定の実施形態において、インタラクティブ面には、仮想ルーム中の任意適切な場所に現れ得る1つまたは複数のツールが関連付けられていてもよい。限定ではなく例として、図22Aを参照すると、これらのツールは、インタラクティブ面2210に関連付けられている仮想引き出し2220(たとえば、インタラクティブ面に接続され、ヘッドセット・デバイスによる視線入力、図22Aに示すようなハンドヘルド・コントローラによる引っ張り入力、または別の適切な入力によってユーザが引いて開けることができる引き出し)内に位置付けられていてもよい。この代替または追加として、これらのツールは、ユーザに関連付けられていてもよい(たとえば、ユーザのツール・ベルトからのツール)。特定の実施形態において、ツールのうちの1つまたは複数は、関連するツールをユーザが手に取ると仕様に応じてインタラクティブ面が変化し得るような、インタラクティブ面の1つまたは複数の特性を変更する仕様を有していてもよい。本開示内に記載のツールはいずれかも、仮想ルーム内に現れてよい(たとえば、ペン/マーカ・ツール、ペイントブラシ・ツール、レーザ・ツール等)。特定の実施形態において、これらのツールは、インタラクティブ面上でプレイが可能であるとともに特定のレイアウトを要する特定のゲームに関連付けられているアイテムを含んでいてもよい。限定ではなく例として、図22Aおよび図22Bを参照すると、ツールのうちの1つは、卓球のラケットに類似していてもよい(たとえば、卓球ラケット・ツール2230)。本例において、ユーザが卓球ラケット・ツールを手に取った場合(または、卓球ラケット・ツールをインタラクティブ面2210上に配置した場合)、インタラクティブ面2210は、(たとえば、ネットと、卓球のルールに従ってインタラクティブ面に引かれたラインとを有する)卓球台に見えるように変化することで図22Bに示すように変化したインタラクティブ面2240であってもよい。限定ではなく別の例として、ツールのうちの1つは、ポーカー・チップに類似していてもよい。本例において、ユーザがポーカー・チップ・ツールを手に取った場合、インタラクティブ面は、カジノ・テーブルに見えるように変化してもよい。限定ではなく別の例として、ツールのうちの1つは、レーザに類似していてもよい。本例において、ユーザがレーザ・ツールを手に取った場合、投影スクリーンのように見えるものがインタラクティブ面上またはその近傍に現れて、ゲーム(たとえば、ルーム内でレーザ・ツールを保持しているユーザが撃つことができるターゲットを含むゲーム)が開始されてもよい。異なるゲーム(たとえば、エア・ホッケー、プール(ポケット・ビリヤード)、フーズボール等)に対応するために、任意適切な変化が生じてもよい。特定の実施形態において、インタラクティブ面は、ユーザがツールを手に取り、かつ、該ツールを用いて何らかの適切な行為を実行した場合にのみ変化してもよい。限定ではなく例として、インタラクティブ面は、ユーザがツールをインタラクティブ面またはインタラクティブ面の特定領域上に配置した場合にのみ変化してもよい。
図23は、コンテンツ・ブラウザ面となるように変更されたインタラクティブ面の一例を示している。特定の実施形態においては、ユーザがコンテンツ・ブラウザ・ツールを選択した場合に、(たとえば、仮想ルーム中のユーザ間での)コンテンツのブラウズおよび再生を容易化するようにインタラクティブ面が変化してもよい。限定ではなく例として、図23を参照すると、ユーザは、コンテンツ・ブラウザ・ツール2310(たとえば、ソーシャル・ネットワーキング・システム160上のコンテンツをブラウズするためのコンテンツ・ブラウザ・ツール)を選択してもよく、これにより、コンテンツのメニューを仮想空間の領域に投影するように面が変化してもよい。本例において、ユーザはその後、リモート・コントロール・ツール2320を用いることにより、特定のコンテンツ・アイテム(たとえば、コンテンツ・アイテム2330)を選択してもよい。仮想ルーム中のユーザは、コンテンツ・アイテムを視聴し、リアクションまたはコメントをコンテンツ・アイテムに追加し、または他の形でコンテンツ・アイテムと相互作用してもよい。
図24は、コンテンツ・プレーヤ面となるように変更されたインタラクティブ面の一例を示している。特定の実施形態において、現在のコンテキストは、ユーザが選択した仮想オブジェクトに基づいていてもよい。限定ではなく例として、ユーザは、コンテンツ・アイテム(たとえば、写真、ビデオ)を選択してもよい。本例において、ユーザがコンテンツ・アイテムの選択またはインタラクティブ面へのコンテンツ・アイテムの配置を行った場合、インタラクティブ面は、(たとえば、コンテンツ・アイテムの投影に使用可能な投影スクリーンを中央に備えた)コンテンツ・プレーヤ面となるように変化してもよい。限定ではなく別の例として、図24を参照すると、コンテンツ・アイテムは、インタラクティブ面に対向するスクリーン2410上でユーザ2420、2430、および2440の視野内に投影されているかのごとく投影されてもよい。図24を参照して、仮想空間は、たとえば雰囲気の設定またはエクスペリエンスの別様の向上を図る適切な360°イメージ(たとえば、スクリーン2410に投影されたコンテンツ・アイテムに関連付けられているイメージ)のレンダリングを含んでいてもよい。
特定の実施形態において、インタラクティブ面は、ボイス・コマンドによって変化してもよい。限定ではなく例として、ユーザは、言葉「卓球台」を発してもよく、これにより、インタラクティブ面が卓球台に変換されてもよい。
図25Aおよび図25Bは、近くのユーザの数に基づいて変更されるインタラクティブ面の一例を示している。特定の実施形態において、インタラクティブ面は、仮想ルーム中またはインタラクティブ面の閾値距離内のユーザの数に基づいて変化してもよい。限定ではなく例として、図25Aおよび図25Bを参照すると、2人のユーザ(たとえば、ユーザ2510および2520)が存在する場合に現れる長方形のインタラクティブ面2530は、4人のユーザ(たとえば、ユーザ2510、2520、2530、および2540)が存在する場合に五角形のインタラクティブ面2560となるように変化してもよい。特定の実施形態において、仮想現実システムは、インタラクティブ面に関連付けられている情報に基づいて、ユーザのアバターを必要に応じて配置または再配置してもよい。限定ではなく例として、図25Aおよび図25Bを参照すると、ユーザ2510および2520のアバターは、(たとえば、テーブルの形状に対応するために)図25Aの最初の位置から図25Bの位置に再位置決めされてもよい。限定ではなく別の例として、インタラクティブ面が卓球台に変化した場合は、インタラクティブ面の近くにいたユーザがインタラクティブ面の両端に再位置決めされてもよい(たとえば、これにより、卓球の対戦ができる)。特定の実施形態において、仮想現実システムは、ユーザを再位置決めする際に遷移効果(たとえば、テレスコーピング効果)を採用してもよい。
特定の実施形態において、仮想ルーム自体は、現在のコンテキストに基づいて変化してもよい。限定ではなく例として、ユーザの誕生日には、仮想ルームが誕生日の装飾を有していてもよい。特定の実施形態において、インタラクティブ面および仮想ルームの両方または一方は、具体的な変更を要求する、ユーザからの明示的な入力に基づいて変化してもよい。限定ではなく例として、(たとえば、ポータル・ツールにアクセスして特定の視覚的メディア・アイテムを選択することにより)特定の視覚的メディア・アイテムに対応する特定の仮想空間にユーザが仮想的に「トランスポート」されることを仮想ルーム中のユーザが要求してもよい。本例において、仮想ルーム中のユーザは、特定の視覚的メディア・アイテムを表示している仮想ルーム(すなわち、特定の視覚的メディア・アイテムを再生する仮想空間)に自身らがいることを認識してもよい。限定ではなく別の例として、ユーザは単に、仮想ルームにいる間に、同じ結果をもたらす適切なメニュー・オプション要素にアクセスしてもよい。特定の実施形態において、仮想ルームは、ボイス・コマンドによって変化してもよい。限定ではなく例として、ユーザは、言葉「ディスコ・ルーム」を発してもよく、これにより、仮想ルームがディスコをテーマとする部屋に変換されてもよい。
特定の実施形態においては、1つの仮想ルームに複数のインタラクティブ面が存在していてもよい。特定の実施形態において、仮想ルーム中のユーザは、相互作用したい利用可能なインタラクティブ面から1つまたは複数のインタラクティブ面を選択可能であり、また、利用可能なインタラクティブ面を任意の時点で切り替え可能であってもよい。任意所与の時間において、インタラクティブ面はそれぞれ、進行中の異なる活動を有していてもよい。特定の実施形態において、仮想ルーム中のユーザは、現実世界と同様に、異なるインタラクティブ面で周囲を見わたすことにより、進行中の異なる活動を確認してもよい。特定の実施形態においては、同じインタラクティブ面の他のユーザからの音声のみがユーザに聞こえてもよい(たとえば、あるインタラクティブ面のユーザ間の会話は、異なるインタラクティブ面のユーザには聞こえない可能性がある)。特定の実施形態において、仮想ルーム中のユーザは、任意の時点で新たなインタラクティブ面を生成することにより、異なるユーザのセットとともに異なる活動に携わってもよい。あるいは、ユーザのうちの1人または複数が単に仮想ルームから出て、新たな仮想ルームを生成してもよい。
特定の実施形態において、仮想現実システムは、仮想ルームに入室してもよいユーザについて制約を課すようにしてもよい。特定の実施形態において、仮想ルームは、該仮想ルームに入室することができるユーザの数を制限してもよい。限定ではなく例として、仮想現実システムは、ユーザが20人に達した場合、仮想ルームへのアクセスを拒否してもよい。特定の実施形態において、仮想ルームは、ユーザに関連付けられている情報に基づいて、特定のユーザを制限してもよい。限定ではなく例として、仮想ルームには、(たとえば、仮想ルームを生成したであろうユーザにより指定された)プライバシー設定が関連付けられていてもよく、このプライバシー設定に基づいて、特定のユーザのみが仮想ルームにアクセス可能であってもよい。本例において、仮想ルームを生成したユーザは、ユーザの友達(たとえば、オンライン・ソーシャル・ネットワーク上の一次つながり)のみが仮想ルームに入室できること、特定の招待されたユーザのみが仮想ルームに入室できること、特定の層のユーザもしくは特定の関心を有するユーザのみが仮想ルームに入室できること、または特定のグループのメンバー(たとえば、「猫好きクラブ(Cat Lovers Club)」という名前のグループのメンバー)であるユーザのみが仮想ルームに入室できることを指定してもよい。限定ではなく別の例として、仮想ルームは、18歳未満のユーザが許可されないように、18歳という最低年齢要件を有していてもよい。
特定の実施形態においては、物理的な部屋であるかのごとく、ユーザは、仮想ルーム等の仮想空間の中を動き回ることができてもよい。限定ではなく例として、ユーザは、コントローラ・ジョイスティック等の何らかの形態の入力(たとえば、ジェスチャ、視線入力、ボタン、ユーザによる歩行動作)を用いることにより、ルーム内で、ある場所から別の場所に移動可能であってもよい。特定の実施形態において、ユーザは、ルーム内の所定の場所に移動可能であってもよい。限定ではなく例として、ユーザは、所望の位置を選択することにより、仮想面の周りで位置を切り替え可能であってもよい。特定の実施形態において、位置の切り替えは、(たとえば、エクスペリエンスが不快過ぎることのないように)テレスコーピング等の遷移効果により行われてもよい。特定の実施形態においては、仮想空間の中を容易に動き回ることができるように、ユーザには、移動先の場所をユーザが選択可能な、仮想空間の少なくとも1つの部分の俯瞰を、任意の時間に呼び出せる能力が与えられていてもよい。限定ではなく例として、ミーティング中の任意の時点で、仮想ルーム中のユーザがルームの俯瞰を呼び出し、異なる場所を選択する。限定ではなく例として、ユーザは、インタラクティブ面の周りの1つまたは複数の空いた「席」のいずれかに対応する場所を選択してもよい。本例において、ユーザは、誰かが座っている席を選択しないようにしてもよい。特定の実施形態においては、俯瞰と地上視点(ground view)との間の遷移に遷移効果が適用されてもよく、逆も同様である。
特定の実施形態において、仮想現実システムは、ユーザからの追加の入力(たとえば、視線入力以外の入力、タップ入力、またはヘッドセットに由来する他の入力)を受け入れ可能なコントローラ・システムから入力を受信してもよい。コントローラ・システムは、1つまたは複数のコントローラを含んでいてもよい。コントローラ・システムは、仮想空間とより完全に相互作用するための追加の制御レイヤをユーザに提供してもよい。特定の実施形態において、コントローラ・システムは、コントローラのうちの1つもしくは複数の動きおよび場所または動きもしくは場所を決定する検出機構を含んでいてもよい。特定の実施形態において、検出機構は、1つまたは複数のコントローラの場所を検出するカメラ等のセンサを含んでいてもよい。カメラ等のセンサは、コントローラから離れた場所に位置決めすることおよびコントローラ上に位置決めすることの両方または一方が可能である。また、特定の実施形態において、検出機構は、(たとえば、各コントローラ上の2つ以上の赤外線LEDマーカを追跡することにより)コントローラのピッチ、ヨー、およびロールを追跡して、6自由度の方位を決定してもよい。特定の実施形態において、検出機構は、ジェスチャまたは他種の動作入力を検出可能な動作追跡デバイス(たとえば、コントローラの6自由度の位置および方位を連続して追跡する慣性測定ユニット)を各コントローラ内に含んでいてもよい。あるいは、検出機構は、アウトサイド・イン追跡を採用してもよい。特定の実施形態において、コントローラは、ユーザの人物によって保持されてもよく、または、ユーザの人物に固定(たとえば、手、足、胴体等への取り付け)されてもよい。
特定の実施形態において、ユーザは、コントローラ・システムと物理的に相互作用することにより、仮想空間と相互作用可能であってもよい。コントローラ・システムは、仮想空間と連動して、ユーザが仮想空間と相互作用するための直感的な入力手段を生成してもよい。特定の実施形態において、ユーザは、コントローラに関連付けられている仮想空間中のレンダリングを確認可能であってもよい。特定の実施形態において、レンダリングは、その場所、向き、サイズ、および/または他の特性がコントローラからの入力に基づき得る、ユーザの手、足、胴体、または他の身体部分の表現を含んでいてもよい。限定ではなく例として、ユーザは、各コントローラの場所および向きに対応する両手の場所および向きとともに、仮想空間中の両手のレンダリングを確認可能であってもよい。特定の実施形態において、レンダリングは、仮想空間においてリアル・タイム効果を生じ得る仮想空間中の仮想オブジェクトとして機能してもよい。
特定の実施形態において、ユーザは、コントローラからの入力を用いて、仮想オブジェクトまたは一般的に仮想空間と相互作用可能であってもよい。限定ではなく例として、ユーザの手のレンダリングは、該レンダリングが仮想ボールの近くである場合に、意図するプッシュまたはプルの方向に関連するコントローラ(たとえば、ハンドヘルド・コントローラ)を対応的に移動させることによって、仮想空間において仮想ボールをプッシュまたはプル可能であってもよい。限定ではなく別の例として、ユーザは、関連するコントローラ(たとえば、足に固定されたコントローラ)を対応的に適切に移動させることにより、仮想ボールを蹴ることができてもよい。特定の実施形態において、ユーザは、ツール(たとえば、本明細書に記載するようなツール)を保持し、該ツールによって仮想オブジェクトおよび一般的に仮想空間と相互作用可能であってもよい。限定ではなく例として、ユーザは、卓球ラケット・ツールを手に取り、仮想ルームのインタラクティブ面上で別のユーザと卓球をプレイ可能であってもよい。限定ではなく別の例として、ユーザは、ユーザの手のレンダリングに固定されたカメラ・ツールを保持可能であってもよく、また、適切な入力によって、仮想空間の領域の写真を撮影してもよい。限定ではなく別の例として、ユーザは、仮想ルームのインタラクティブ面の引き出しを引いて開けることにより、1つまたは複数のツールをピックアップ可能であってもよい。特定の実施形態において、ユーザは、ボイス・コマンドを用いて仮想空間と相互作用可能であってもよい。限定ではなく例として、ユーザは、言葉「ボール消去」を発してもよく、これにより、仮想ボールが仮想空間から消えてもよい。
図26A〜図26Cは、複数のコントローラで仮想空間と相互作用する例示的な方法を示している。特定の実施形態において、コントローラ・システムによれば、特定の種類のインタラクションに対して相乗的に作用する少なくとも2つのコントローラからの入力を使用するインタラクション方法が可能であってもよい。限定ではなく例として、図26Aを参照すると、第1の手2610のレンダリングに関連付けられている第1のコントローラを用いてユーザがマーカ・ツール2620を選択している場合は、(たとえば、マーカ・ツール2620が第1の手に保持されている場合は常に、または、トリガ・ジェスチャに従って)第1の手2610のレンダリングに関連付けられている場所に1つまたは複数のインタラクティブ要素(たとえば、サイズ調整要素2630)が提示されてもよい。本例において、ユーザは、第2の手のレンダリングに関連付けられている第2のコントローラを用いることにより、インタラクティブ要素のうちの1つまたは複数を選択して、マーカ・ツール2620のサイズまたは色を変更してもよい。限定ではなく別の例として、図26Bを参照すると、(たとえば、左手の前腕の回転による手首の下面の表示を伴い得る)トリガ・ジェスチャの実行には、(たとえば、左手2640のレンダリングに対応する、ユーザの左手による保持または左手上への位置決めがなされた)第1のコントローラが用いられてもよく、この際、仮想空間にアイテムのパネル(または、メニュー)2650が表示されてもよい。特定の実施形態において、アイテムのパネルは、第1のコントローラとともに移動するように、第1のコントローラに関連付けられている領域に現れてもよい。限定ではなく例として、図26Bを参照すると、アイテムのパネルは、ユーザの左手2640のレンダリング上に位置決めされていてもよく、この仮想場所において、左手2640のレンダリングの動きにパネルが追従してもよい。特定の実施形態においては、アイテムのメニューの使用をユーザにとって直感的なものとするために、ユーザの身体の容易にアクセス可能な領域(たとえば、第1のコントローラを保持している手のレンダリング、ユーザの胴体のレンダリング)に概念的に対応する仮想空間中の場所に存在するようにアイテムのパネルが現れてもよい。特定の実施形態において、パネル中に現れるアイテムのメニューは、ユーザが保持している可能性または保持(あるいは、他の形で選択)しようとしている可能性がある特定のツールの特性、ユーザに関連付けられている情報、現在の仮想空間に関連付けられている特性、本明細書に記載のその他任意のコンテキスト因子等、現在のコンテキストに基づいていてもよい。限定ではなく例として、(たとえば、第2のコントローラに関連付けられているユーザの右手のレンダリングに関連して、レチクルに関連して)ユーザがペイントブラシ・ツールを保持している場合、アイテムのメニューは、さまざまな色のメニューであってもよい。同様に、アイテムのパネルの現れ方は、現在のコンテキストに基づいていてもよい。限定ではなく上記例に基づいて、ユーザがペイントブラシ・ツールを保持している場合、さまざまな色のメニューは、第1のコントローラに関連付けられている手(たとえば、左手)のレンダリングに載るように現れる、アーティストのパレットのレンダリング上に現れてもよい。限定ではなく別の例として、仮想現実システムは、ユーザがペイントブラシ・ツールに手を伸ばしているものと判定してもよく、また、(たとえば、仮想色パレットを含む)ペイントブラシ・ツールに関連付けられているアイテムのメニューを適切な領域に前もって表示してもよい。限定ではなく別の例として、特定のインタラクティブ・ゲームに関連付けられている仮想空間にユーザがいる場合、仮想現実システムは、(仮想空間に関連付けられている特性によって決まるような)コンテキストに基づいて、該特定のインタラクティブ・ゲームと関連する1つまたは複数のアイテムをアイテムのメニューが含むものと判定してもよい。
特定の実施形態において、(たとえば、ユーザの右手による保持または右手上への位置決めがなされた)第2のコントローラは、アイテムのパネルからのアイテムの選択に用いられてもよい。限定ではなく例として、ユーザは、第2のコントローラを所望のアイテムまで対応的に移動させることにより、仮想空間において、第2のコントローラに関連付けられている手のレンダリング(たとえば、図26Bを参照すると、右手2610のレンダリング)を移動させるとともに、(たとえば、閾値期間にわたって)手のレンダリングにより、所望のアイテムに対して、指、または第2のコントローラに関連付けられている手のレンダリングにより保持されたツールを単に「指さす」こと、または、指さした後に適切なジェスチャを実行することによって、所望のアイテムを選択してもよい。本例において、ユーザは、関連するコントローラ(たとえば、第2のコントローラ)上のボタンを押すことにより、ポインティングを開始してもよい。この代替または追加として、ユーザは単に、(たとえば、現実世界においてユーザが指さそうとした場合に自然かつ直感的に起こり得るように)コントローラ上のボタンに接触した指を持ち上げて指をボタンから離してもよく、その検出によって、対応するレンダリングのポインティングが開始されてもよい。図26Bおよび図26Cを参照して、ユーザは、図26Bの色調整器に対応するインタラクティブ要素を選択してもよく、これにより、図26Cの色パレット2660の表示がトリガされてもよい。
特定の実施形態において、コントローラは、仮想現実システムにさらなる入力を与えるボタンまたはタッチ検出部位を含んでいてもよい。限定ではなく上記例に基づいて、ユーザは、アイテムのメニュー中のアイテムを指してから適切なボタンを押すことによって、該アイテムを選択してもよい。限定ではなく別の例として、ユーザは、カメラ・ツールを手に取ったら、コントローラ上の適切なタッチ検出部位をタップすることによって写真を撮影してもよい。
特定の実施形態において、アイテムのメニューは、適切なユーザ入力(たとえば、コントローラ上の仮想ボタンまたは物理的ボタンを押すこと)に応答して任意の時間に現れてよい。アイテムのメニューは、任意適切な場所に現れてもよい。限定ではなく例として、それは、仮想空間の特定の場所において、ユーザの前に浮かんで現れてもよい。限定ではなく別の例として、それは、ユーザの前腕または手より上に浮かんで現れてもよく、また、前腕または手の動きに追従して前腕または手の上でホバリングし続けるように、前腕または手に関連付けられていてもよい。
図27は、友達リストをブラウズしている、仮想ルーム内のユーザの一例を示している。特定の実施形態において、仮想現実システムは、ユーザ間のリアル・タイム仮想通信を可能にしてもよい。特定の実施形態において、これらの通信は、ユーザの友達または連絡先に関する情報を有する通信アプリケーション(たとえば、ソーシャル・ネットワーキング・システム160に関連付けられている通信アプリケーション)との関連付けまたは一体化がなされていてもよい。ユーザは、友達または連絡先リストにアクセスして、他のユーザとの通信を素早く開始可能であってもよい。限定ではなく例として、図27を参照すると、オンライン・ソーシャル・ネットワークに関連付けられているインタラクティブ要素(たとえば、ソーシャル・ネットワーキング・システム160に関連付けられている要素2710)をユーザがアクティベートしてもよく、これにより、連絡先アイテム(たとえば、「ステファニー(Stephanie)」という名前の連絡先に対応する連絡先アイテム2730)のメニューが呼び出されてもよく、そのいずれかのアクティベーションによって、対応する連絡先との通信が開始されてもよい。特定の実施形態において、本明細書の他の部分に記載の通り、これらの通信は、仮想ルーム内で行われてもよい(すなわち、仮想ルームは、該仮想ルーム中に存在するユーザ間の通信セッションであってもよい)。これらの実施形態においては、特定のユーザが仮想ルームへの参加または仮想ルームの生成を行ってもよく、また、他のユーザが(たとえば、必要な許可を有する場合は自発的に、あるいは、招待を受けて)後から参加してもよい。仮想ルーム中のユーザは、他のユーザのアバターを見ることができてもよい。限定ではなく例として、図27を参照すると、ユーザは、そのアバターをインタラクティブ面2720の周りに位置決め可能な他の2人のユーザ(たとえば、ユーザ「ルーシー(Lucy)」および「クリストフ(Christophe)」)とともに仮想ルームにいてもよい。アバターは、リアル・タイムで移動することにより、各ユーザによりなされた動きを反映してもよい。限定ではなく例として、ユーザが右手を上げた場合は、ユーザのアバターが対応してその手を上げてもよい。限定ではなく別の例として、ユーザが発話した場合、ユーザのアバターはこれに対応して、その口を動かすことにより、各ユーザが話していることを伝えてもよい。特定の実施形態においては、本明細書の他の部分にさらに記載する通り、仮想ルームは、内部のユーザ間の通信を可能にしてもよい。ユーザは、仮想ルーム内の他のユーザにストリーミングされる音声をキャプチャするマイクを有しており、ユーザは、通信セッションにおいてユーザ間で通信を行うことができる。アバターのレンダリング(たとえば、ユーザのボディ・ランゲージ、発話、または他の動作をシミュレートするレンダリング)と音声との組み合わせによって、現実世界の会話をシミュレートする、より自然で没入型のユーザ・エクスペリエンスがもたらされてもよい。特定の実施形態において、各ユーザは、(たとえば、「ミュート」ボタンまたは「カメラ・オフ」ボタンのアクティベーションまたはディアクティベーションによって)ユーザの音声またはビデオのキャプチャまたはストリーミングがなされるようにするか否かを選ぶことができてもよい。
特定の実施形態において、通信セッション中のユーザは、通信セッションの間に仮想空間においてストリーミングまたはレンダリングされる各ユーザからの通信の種類(本明細書においては、「通信タイプ」と称する)を指定可能であってもよく、仮想現実システムは、可能な範囲でこれらの指定に対応してもよい。特定の実施形態において、各ユーザは、通信セッション中に仮想現実システムが他のユーザに対してレンダリングまたはストリーミング可能なものを指定してもよい。限定ではなく例として、特定のユーザは、通信セッション中に自身の音声のみが他のユーザにストリーミングされ得ることを指定してもよい。限定ではなく別の例として、特定のユーザは、通信セッション中に自身のアバターのみが他のユーザにレンダリングされ得ることを指定してもよい。本例において、他のユーザは、特定のユーザのアバター表現を見ることができてもよく、また、任意のボディ・ランゲージ(たとえば、手振り、特定の姿勢)、表情、または手話コミュニケーションを視聴できてもよいが、特定のユーザからの音声は聞こえなくてもよい。限定ではなく別の例として、特定のユーザは、通信セッション中に自身のビデオ(たとえば、自身に向けられたカメラ・デバイスによりリアル・タイムでキャプチャされたビデオ)のみが他のユーザにストリーミングされ得ることを指定してもよい。上記例と同様に、本例においても、他のユーザは、特定のユーザのアバター表現を見ることができてもよく、また、任意のボディ・ランゲージまたは手話コミュニケーションを視聴できてもよい。限定ではなく別の例として、特定のユーザは、音声とビデオ、または音声とアバター、または音声とアバターとビデオ(たとえば、アバターの顔がユーザの顔のビデオとなり得るようにアバターと別個または一緒に現れるビデオ)が他のユーザにストリーミングおよびレンダリングまたはストリーミングもしくはレンダリングされ得ることを指定してもよい。特定の実施形態において、特定のユーザは、通信セッション中のユーザの第1のセットが特定種類の通信を受信し得る一方、通信セッション中のユーザの第2のセットが異なる種類の通信を受信し得ることを指定可能であってもよい。限定ではなく例として、特定のユーザは、友達と複数の他人とを含む通信セッションにおいて、友達のみが特定のユーザのビデオおよびアバターを視聴可能である一方、他人に許可されるのは特定のユーザのアバターの視聴のみであることを指定してもよい。また、特定の実施形態においては、通信セッション中の別のユーザから受信される通信の種類を、特定のユーザが指定してもよい。限定ではなく例として、特定のユーザは、通信セッション中のある別のユーザが特定のユーザにビデオを送ることができないように指定してもよい。特定の実施形態において、通信セッション中に特定のユーザが別のユーザから受信し得る通信の種類は、特定のユーザが他のユーザに送る通信の種類と同じであってもよい。限定ではなく例として、特定のユーザが他のユーザに音声のみを送る場合、該特定のユーザは、他のユーザから音声のみを受信してもよい。一方、特定の実施形態において、通信セッション中に特定のユーザが別のユーザから受信し得る通信の種類は、該特定のユーザが他のユーザに送る通信の種類と必ずしも同じでなくてもよい。限定ではなく例として、特定のユーザは、音声のみを他のユーザに送る場合でも、依然として他のユーザから音声およびビデオを受信してもよい。本明細書に記載の各例のほか、通信セッション中の1人または複数のユーザ間では、通信タイプの任意適切な組み合わせが任意適切に(たとえば、1人または複数のユーザそれぞれが個別に指定する通り)送受信されてもよい。特定の実施形態においては、通信セッション中の任意の時点で送信および受信または送信もしくは受信される通信の種類をユーザが変更可能であってもよい。
特定の実施形態においては、通信セッションが片方向通信であってもよい。片方向通信は、1人の他ユーザ、ユーザ群、または一般的に公衆を対象とすることができる。特定の実施形態において、ユーザは、通信を記録して保存してもよい。これらの実施形態において、ユーザは後々、記録した通信を1人の他ユーザ、ユーザ群、または一般的に公衆に送ってもよい。また、特定の実施形態において、ユーザは、片方向通信および記録された通信の両方または一方を受信してもよい。
特定の実施形態において、これらの通信セッションは、仮想ルームに限定されず、また、任意の時点に発生してもよい。発信側ユーザは、1人または複数の受信側ユーザに通信要求を送ることによって、1人または複数の受信側ユーザとの通信セッションを開始してもよい。限定ではなく例として、発信側ユーザは、ゲームの仮想空間に存在していてもよい。本例において、ゲームが依然として進行中である場合、発信側ユーザは、通信要求を1人または複数の受信側ユーザ(たとえば、オンライン・ソーシャル・ネットワーク上のソーシャルつながり、現在のゲームに関連付けられているゲーミング・ネットワークの他のユーザ)に送ってもよい。同様に、受信側ユーザは、任意の時点で、発信側ユーザからの通信要求を承認または拒否してもよい。限定ではなく例として、受信側ユーザは、発信側ユーザからの通信要求を受信したときに、仮想空間において360°ビデオを見ている場合がある。受信側ユーザは、適切な入力の提供によって、通信要求の承認または拒否を選んでもよい。本例において、受信側ユーザの視点からは、発信側ユーザのアバターまたは他の表現が受信側ユーザに見えてもよく、また、一緒に仮想空間(たとえば、仮想ルーム、ゲームの仮想空間)への参加を求める表示も見えてよい。受信側ユーザが承認すると、発信側ユーザのアバターまたは他の表現が、受信側ユーザの仮想空間にモーフィングしてもよい。特定の実施形態においては、発信側ユーザまたは受信側ユーザの現在の活動が、通信セッション中に中断されることなく継続されてもよい。限定ではなく例として、通信要求が受信されて承認された際、受信側ユーザは、仮想現実システム上のゲームのプレイの最中であってもよい。本例において、受信側ユーザが通信要求を承認すると、1つまたは複数のウィンドウがゲーム環境内(たとえば、ディスプレイの隅部)に現れて、通信セッションの一部である他のユーザのビデオまたはアバターを表示してもよい。あるいは、ビデオまたはアバターがシームレスにビデオ・ゲーム環境に統合され(たとえば、他のユーザのアバターがゲーム環境内に挿入され)てもよい。受信側ユーザが通信セッション中に他のユーザと通信する場合、ゲームは中断されることなく継続してもよい。
図28は、仮想現実システムを使用していないユーザを含む、仮想ルームにおける通信セッションの一例を示している。特定の実施形態においては、通信に仮想現実システムを使用していない可能性がある特定のユーザを通信セッションに含んでいてもよい。限定ではなく例として、特定のユーザは、仮想現実機能を持たない装置(たとえば、そうした機能を持たない電話)を介して通信を行っていてもよい。このような場合、仮想現実システムは、仮想空間において、特定のユーザがレンダリングを許可した任意の利用可能な情報をレンダリングしてもよい。限定ではなく例として、特定のユーザは、仮想空間において、(たとえば、特定のユーザの電話上で取得された)特定のユーザの音声を、仮想現実システムが通信セッション中に他のユーザにストリーミングすることを許可していてもよい。限定ではなく別の例として、図28を参照すると、特定のユーザ(たとえば、「ステファニー」)は、(たとえば、特定のユーザの電話のフロント・カメラで取得された)特定のユーザのビデオまたはイメージを仮想現実システムがストリーミングすることを許可していてもよい。本例において、通信セッション中の他のユーザは、特定のユーザ(たとえば、「ステファニー」)のイメージまたはビデオをストリーミングする、表示中(たとえば、ウィンドウ・オブジェクト2810内)の副領域を見ることができてもよい。本例において、特定のユーザの装置では、関連する表示スクリーンが仮想空間(たとえば、通信セッション中の他のユーザのアバターが存在し得る仮想ルーム)のビューを表示してもよい。
特定の実施形態において、副領域は、通信セッション中の他のユーザのうちの1人または複数が(たとえば、コントローラ入力または視線入力を用いて)操作して仮想空間の中を動き回ることができるウィンドウ・オブジェクト内にあってもよい。限定ではなく例として、ウィンドウ・オブジェクトは、仮想ルーム内に現れてもよく、また、仮想現実システムを使用していないユーザのビデオを表示してもよい。本例において、(仮想現実システムを使用している可能性がある)他のユーザは、対応するアバターを有していてもよく、また、インタラクティブ面の周りに現れてもよい。本例における他のユーザは、仮想ルームのあちこちにウィンドウ・オブジェクトを移動させてもよい。特定の実施形態においては、ウィンドウ・オブジェクトの移動によって、ウィンドウ・オブジェクトに関連付けられているユーザ(たとえば、仮想現実システムを使用していないユーザ)の視点が調整されてもよい。限定ではなく例として、ウィンドウ・オブジェクトは、ウィンドウ・オブジェクトに関連付けられているユーザが、ウィンドウ・オブジェクトが対向する仮想空間の領域を見るように、該ウィンドウ・オブジェクトに関連付けられているユーザにビデオをストリーミングするカメラがウィンドウ・オブジェクトに固定されているかのごとく挙動してもよい。本例において、ウィンドウ・オブジェクトに関連付けられているユーザの観点から、このウィンドウは、仮想空間への「仮想ウィンドウ」として機能してもよい。
図29A〜図29Cは、仮想ルーム内の没入型コンテンツを共有して相互作用する一例を示している。特定の実施形態においては、本明細書に記載のインタラクティブ・エクスペリエンスのうちの1つまたは複数を通信セッション中のユーザが共有可能である。限定ではなく例として、仮想ルームにおいてホストされる通信セッションの場合、ユーザは、通信セッション中に卓球ラケット・ツールを手に取って、卓球の対戦ができてもよい。限定ではなく別の例として、ユーザは、スライドショー表現、イメージ、またはビデオを併せて視聴可能であってもよい。本例において、視聴されるコンテンツ(たとえば、スライドショー、ビデオ)は、2次元または3次元であってもよく、また、フラットなコンテンツであってもよいし、フラットではないコンテンツ(たとえば、球形コンテンツ、360°コンテンツ、180°コンテンツ)であってもよい。たとえば、図29Aおよび図29Bを参照して、(たとえば、特定のユーザのハンド・コントローラを用いたグラブ入力により、特定のユーザの方へ引っ張って図29Aおよび図29Bのシーケンスに示すように拡大することによって)図示の仮想ルームで他のユーザと共有するための球形コンテンツ2910を特定のユーザが選択してもよい。限定ではなく別の例として、図29Cを参照すると、ユーザは、カメラ・ツール2920を手に取って仮想空間の写真を撮影可能であってもよい。本例において、カメラ・ツールは、仮想スティックまたはエクステンション2930に取り付けられて、「セルフィー」イメージをキャプチャ可能であってもよい(たとえば、ユーザがカメラ・ツールで仮想スティックを手に取り、通信セッション中のユーザのアバター、ウィンドウ、または他の表現を一堂に集め、グループのセルフィー・イメージをキャプチャしてもよい)。仮想鏡ツールのコンテキストで説明した機能がカメラ・ツールにも当てはまり得る。
特定の実施形態において、受信側ユーザが発信側ユーザからの通信を承認した場合、この通信は、(たとえば、通信セッション中の他のユーザとともに受信側ユーザが仮想ルームまたは他の場所に存在する場合に)受信側ユーザだけが見聞きすることまたは見るか聞くかすることができ、仮想空間内のその他一切のユーザが見聞きすることもまたは見るか聞くかすることもできない、ウィンドウ(たとえば、発信側ユーザが仮想現実システムを使用していない場合)として、またはアバター(たとえば、発信側ユーザが仮想現実システムを使用している場合)として、仮想空間に現れてもよい。同様に、特定の実施形態において、発信側ユーザは、他のユーザから何も見聞きできなくてもよい。特定の実施形態において、受信側ユーザは、適切な入力の実行(たとえば、ジェスチャによるウィンドウまたはアバターのピックアップおよびインタラクティブ面等の仮想空間の特定領域へのウィンドウまたはアバターの配置)によって、通信を、仮想空間中の他のユーザが見聞きすることまたは見るか聞くかすることができるようにしてもよい。特定の実施形態においては、この時点で、仮想空間中のその他任意のユーザも、ウィンドウまたはアバターを見ることができてもよく、また、同様に仮想空間中の他のユーザを見聞きし得る発信側ユーザと通信可能であってもよい。また、特定の実施形態において、仮想現実システムは、受信側ユーザが存在する仮想空間において発信側ユーザが何を見ているかを受信側ユーザ(および/または、他のユーザ)に示すウィンドウもレンダリングしてよい。このウィンドウは、本明細書に記載の仮想鏡ツールのように機能し得る。
図30Aおよび図30Bは、仮想ウォッチ上での着信通信の受信の一例を示している。図31Aおよび図31Bは、仮想ウォッチ上での着信通信の受信の別の例を示している。特定の実施形態においては、ユーザの手の一方のレンダリングへの固定あるいは(たとえば、ユーザの胴体、ベルト、またはズボンのポケットのレンダリング上で)ユーザの身体部分との別様の関連付けが可能な仮想ウォッチ(または、仮想電話等の別の類似仮想デバイスもしくはリストバンド)を介して通信要求が受信されてもよい。仮想空間において、仮想ウォッチは、(たとえば、ユーザの頭部をユーザの手に向けること、仮想区間においてユーザの照準線に入るように関連するコントローラを持ち上げること等により)手のレンダリングを表示領域内に移動させることによって、ユーザが任意の時点で仮想ウォッチを見られるようにユーザの手のレンダリングに取り付けられた(たとえば、現在の時刻または他の適切な情報を表示する)ウォッチとして現れてもよい。このように通信要求を受信することは、概念的にユーザにとって直感的と考えられる。特定の実施形態において、ユーザは、通信要求を受信した場合、仮想ウォッチを確認するように適切に通知されてもよい。限定ではなく例として、通知がヘッドアップ・ディスプレイ上に現れ、仮想ウォッチの確認をユーザに促してもよい。限定ではなく別の例として、ウォッチを仮想的に「着用」している手に関連付けられているコントローラ(たとえば、ユーザの左手に保持または固定されたコントローラ)が振動して、仮想ウォッチの確認をユーザに促してもよい。特定の実施形態において、ユーザは、関連するコントローラをユーザの視野まで持ち上げて、手およびウォッチのレンダリングを表示させることにより、仮想ウォッチを確認してもよい。特定の実施形態においては、ウォッチ上またはウォッチに隣接して、通信セッションを承認または拒否するためのメニュー・オプション要素が表示されてもよい。限定ではなく例として、図30Aを参照すると、仮想ウォッチ3010を着用しているレンダリングされた手に関連付けられているコントローラをユーザが持ち上げると、仮想ウォッチに関連して1つまたは複数の通知要素が提示されてもよい。本例において、これらの通知要素は、イメージ要素3030(たとえば、通信要求を送信しているユーザのプロフィール写真/ビデオ、通信要求を送信しているユーザのライブ・ストリーミング・ビデオまたは他の表現等)およびテキスト通知要素3030を含んでいてもよい。本例においては、通知要素と併せて、「拒否」インタラクティブ要素3040および「承認」インタラクティブ要素3050の提示により、仮想ウォッチに関連付けられているユーザが、通信要求を拒否または承認することができてもよい。特定の実施形態においては、テキスト通信(たとえば、「今は話せない」を表示するテキスト通信)を送信する要素または1つもしくは複数の設定を調整する要素等、任意適切な関連するメニュー・オプション要素の表示によって、通信が容易化されてもよい。特定の実施形態において、ユーザが通信要求の承認を選んだ場合は、通信セッションが開始されてもよい。通信を要求したユーザが仮想現実システムを使用している場合は、該ユーザのアバターが、通信要求を承認したユーザと併せて仮想空間にレンダリングされてもよい。通信を要求したユーザが仮想現実システムを使用していないものの、ビデオ(または、オーディオ)機能を有する装置を使用している場合は、通信セッションはビデオ・ストリーム(または、オーディオ・ストリーム)の形態であってもよい。限定ではなく例として、図30Bを参照すると、通信を要求したユーザ(たとえば、ユーザ「プリンダ(Prinda)」)は、電話(または、ビデオおよびオーディオ機能を有する別の非仮想現実デバイス)を使用していてもよく、この場合は、通信を要求したユーザ(たとえば、ユーザ「プリンダ」)のビデオ・ストリームがウィンドウ・オブジェク3060に表示されてもよい。本例においては、通信を要求したユーザ(たとえば、ユーザ「プリンダ」)に何が送信されているかの表現がウィンドウ・オブジェク3070に表示されてもよい。図31Aおよび図31Bは、インタフェースがわずかに異なるものの、図30Aおよび図30Bと類似するイベントのシーケンスを示している。
ユーザは、本明細書に記載のもの等、任意適切な入力を用いて(たとえば、仮想ウォッチ上で)所望の要素を選択してもよい。限定ではなく例として、ユーザは、閾値期間にわたって、レチクルを所望の要素に合わせてもよい。限定ではなく別の例として、ユーザは、コントローラ上の適切なボタンを押してもよい。限定ではなく別の例として、ユーザは、ユーザの他方の手(すなわち、仮想ウォッチを「着用」していない手)のレンダリングを移動させ、閾値期間にわたってポインティングすることによって、またはポインティングと他方の手に関連付けられているコントローラ上のボタンを押すこととによって、所望の要素を選択してもよい。特定の実施形態において、ユーザが通信セッションを承認する要素を選んだ場合は、通信セッションにおいて他のユーザにストリーミングまたはレンダリングされる通信の種類および受信される通信の種類をユーザが指定できるようにする他の要素が現れてもよい。限定ではなく例として、ユーザは、帯域幅の低減を望むようにしてもよく、また、ビデオ・ストリームを受信しないようにしてもよい。
図32は、仮想ウォッチ上でのテキスト通信の受信の一例を示している。特定の実施形態において、仮想ウォッチは、他のユーザからのテキスト通信を受信するゲートウェイであってもよい。限定ではなく例として、図32を参照すると、ユーザは、テキスト通知要素3210内でテキスト・メッセージを受信してもよい。本例において、テキスト・メッセージを受信したユーザは、インタラクティブ要素3220の選択によってテキスト・メッセージを送信したユーザ(たとえば、ユーザ「プリンダ」)への通信要求を開始し、(たとえば、親指を立てる絵文字での応答を現在提案している、インタラクティブ要素3230の選択によって)提案されているテキスト・メッセージ応答を提示し、または返信するメッセージ(たとえば、テキスト・メッセージ、オーディオ・メッセージ、ビデオ・メッセージ等)を作成してもよい。
図33は、仮想ウォッチ上でのライブ・ブロードキャスト通信の受信の一例を示している。特定の実施形態においては、受信ユーザが仮想空間にいる間に、ブロードキャスト・ユーザにより送信されたライブ・ブロードキャストが受信ユーザに送信されてもよい。限定ではなく例として、図33を参照すると、受信ユーザは、ブロードキャストを示す1つまたは複数の通知要素を受信してもよい。たとえば、受信ユーザは、(たとえば、ブロードキャストの単一のイメージ・フレーム、ブロードキャストのサイレント・ビデオ、ブロードキャストの低品質版等であってもよい)イメージ要素3340および(たとえば、ブロードキャストを説明、考察、あるいはブロードキャストと別様に関連するユーザからのメッセージを含む)メッセージ通知3310を受信してもよい。本例において、ユーザは、(たとえば、「いいね!」ボタン3320の選択によって)リアクションを提供すること、(たとえば、「視聴」ボタン3330の選択によって)ブロードキャストを視聴すること、または(たとえば、「クリア」ボタン3340の選択によって)ブロードキャストに関するすべての通知をクリアすることを選んでもよい。ライブ・ブロードキャストは、受信ユーザ(または、受信ユーザを含むユーザ群)を対象としていてもよいし、ブロードキャスト・ユーザのすべての連絡先にプッシュされてもよい。上記概念の本開示は、仮想ウォッチに焦点を当てているが、本開示は、同じ概念がその他任意の適切な方式(たとえば、異なる種類の仮想ツールを伴う場合または任意特定のツールを伴わない場合)でも当てはまり得ることを企図する。
特定の実施形態においては、本明細書の他の部分に記載の通り、仮想現実システムは、(たとえば、別のユーザとの会話中、アバターによるビデオ/写真メッセージの記録に際して)表情およびボディ・ランゲージをユーザ・アバター上にレンダリングしてもよい。表情およびボディ・ランゲージは、言語的合図(バーバル・キュー)およびコンテキストを提供することによって、ならびに会話をより自然に見せることによって、他のユーザとのコミュニケーションを向上させることができる(たとえば、ユーザは、現実世界のように、他のユーザが表情でリアクションすることを望む場合がある)。また、特定の実施形態において、仮想現実システムは、アバターに対応するユーザが話している間にそのアバターの口から言葉が発せられているように見せつつ、口の動き(および、口の動きの変形とともにモーフィングし得る顔のその他の部分の動き)もシミュレートしてもよい。これを行う際に、仮想現実システムは、一連の異なる技術の任意の組み合わせを使用してもよい。限定ではなく例として、仮想現実システムは、ユーザの口領域の動きを追跡するカメラを使用してもよく、また、これに対応してユーザのアバターを変更してもよい。限定ではなく別の例として、仮想現実システムは、発話(たとえば、発話音素)に対応するビゼーム(viseme)または他の類似する近似を利用して、アバターの顔の動きをリアル・タイムでレンダリングすることにより、ユーザが何を言っているのかを反映してもよい。また、特定の実施形態において、仮想現実システムは、(たとえば、ヘッドセットの1つまたは複数のカメラを用いて)ユーザの眼を追跡することにより、ユーザの視線の方向ならびにユーザの眼の中のユーザの瞳の対応する場所および角度を決定してもよい。これにより、仮想現実システムは、ユーザの視線を反映するようにアバターの眼をレンダリングしてもよい。アバターの眼にユーザの視線を反映させることにより、より自然で滑らかな会話がもたらされてもよい。これは、ほとんどの非言語的コミュニケーションが眼を通じて行われ得るためである。限定ではなく例として、ユーザがある方向を見つめることにより、関心点を示したり、ユーザが何を見ているかを示したり、眼を動かして憤慨または焦燥を表現したりしてもよい。また、アバターの眼にユーザの視線を反映させることは、会話をより自然なものとするのに役立ち得る。アバターとのアイ・コンタクトを認識することによって、ユーザは、アバターに対応するユーザと、よりつながっているように感じるためである。特定の実施形態においては、決定された視線に基づいて、ユーザが追加なオプションを利用可能となり得る。限定ではなく例として、2人のユーザがアイ・コンタクトを行う場合は、握手、フィスト・バンプ、またはハイタッチのオプションが現れてもよい。限定ではなく別の例として、ユーザの眼が特定のオブジェクトを見ていると判定された場合は、(たとえば、該オブジェクトとのインタラクションのために)該オブジェクトに固有のオプションが現れてもよい。
特定の実施形態においては、特定の感情または考え方に対応し得るアバターに関連付けられている特定の所定姿勢、ジェスチャ、または他の表示として特徴付けることが可能な「アバター絵文字」を用いてアバターに感情を表現させることにより、ユーザは、自身をさらに表現可能であってもよい。アバター絵文字を用いて感情を伝えることは、ユーザ間のコミュニケーションの支援と、(たとえば、会話において、ビデオにおいて)アバターをより本物らしくまたは自然に見せることと、の両方または一方につながり得る。特定の実施形態においては、(たとえば、ユーザの手または足を用いたジェスチャを実行することにより、仮想世界におけるボタンまたは現実世界におけるコントローラ上のボタンを押すことにより、ボイス・コマンドによって)トリガ入力を提供することにより、ユーザがアバター(たとえば、ユーザ自身のアバター)にアバター絵文字を実行させてもよい。特定の実施形態においては、トリガ入力を検出すると、仮想現実システムは1つまたは複数の対応するアバター絵文字を決定してもよく、また、表示するのに最適なアバター絵文字を選択してもよい。限定ではなく例として、ユーザが(現実世界において)手を頭上に上げた場合は、これにより、興奮を表すアバター絵文字がトリガされてもよい(これにより、アバターは興奮して手を上げるのみならず、アバターの適切な興奮の表情に切り替わってもよい)。限定ではなく別の例として、ユーザが手を両側に下ろして回転させた場合は、これにより、困惑を表すアバター絵文字がトリガされてもよい。限定ではなく別の例として、ユーザが手を下ろして腰の両側で握り拳を振った場合は、これにより、怒りを表すアバター絵文字がトリガされてもよい。限定ではなく別の例として、ユーザが両手を頬まで上げた場合は、これにより、驚きを表すアバター絵文字がトリガされてもよい。特定の実施形態において、アバター絵文字は、必ずしも自然なジェスチャではなくてもよいが、依然としていくぶんは何らかのコミュニケーション概念を伝達するようにアバターに関連付けられていてもよい。限定ではなく例として、特定のユーザが特定の仮想ボタン(たとえば、考え得るアバター絵文字のパレット上をホバリングするボタン)を押した場合は、ユーザの頭上に電球が現れて、特定のユーザがアイデアを有することを他のユーザに伝えてもよい。
特定の実施形態において、仮想現実システムは、該システムが収集可能なコンテキスト情報にさらに基づいて、アバター絵文字を決定してもよい。限定ではなく例として、ユーザのアバターの場合、コンテキスト情報は、ユーザに関する情報(たとえば、人口統計学的情報、アバター絵文字またはテキスト・メッセージ、オンライン・ソーシャル・ネットワーク上の投稿等の他のコンテキストにおける絵文字の使用履歴)に基づいていてもよい。限定ではなく別の例として、コンテキスト情報は、会話の内容を含んでいてもよい(真剣な会話の場合、仮想現実システムは、不真面目、分別がないと認識され得るかまたは他の無神経と認識され得るアバター絵文字の決定を好まない可能性がある)。限定ではなく別の例として、コンテキスト情報は、(たとえば、会話中のユーザの音声によって決まるような)会話のトーンを含んでいてもよい。本例において、ユーザの会話が高めの声でヒートアップしている場合は、怒りを反映したアバター絵文字が好まれる可能性がある。限定ではなく別の例として、コンテキスト情報は、笑い等の他の形態の発声表現を含んでいてもよい。本例において、ユーザが笑っていることを仮想現実システムが検出した場合、仮想現実システムは、ユーザのアバターに対して、笑いに対応するアバター絵文字を決定してもよい(たとえば、アバターが笑っているように見えてもよい。限定ではなく別の例として、コンテキスト情報は、仮想ルームの特性と視野内のユーザ視野内のユーザ(たとえば、仮想ルーム中のユーザ)の特性との両方または一方を含んでいてもよい。限定ではなく例として、仮想ルームがビジネス・ミーティングを目的として生成された場合は、「職場では見ない方がいい(not safe for work)」というアバター絵文字が好まれない可能性がある。限定ではなく別の例として、仮想現実システムは、視野内のユーザの人口統計学的特性、職業的特性、教育的特性、または他の適切な特性に基づいてアバター絵文字を決定してもよい。本例においては、特定の年齢層または地理的エリアにおいて特定のアバター絵文字の人気がより高くなっていてもよく、仮想現実システムは、アバター絵文字の決定に際してこれらの人気を考慮してもよい。
特定の実施形態においては、利用可能なアバター絵文字が制限されていてもよい。限定ではなく例として、仮想絵文字に年齢制限が存在していてもよい(たとえば、閾値年齢未満のユーザが特定の絵文字を利用できないようにする)。限定ではなく別の例として、特定のアバター絵文字は購入後にのみ利用可能であってもよい。
特定の実施形態においては、アバター絵文字がカスタマイズ可能であってもよい。限定ではなく例として、ユーザが特定のアバター絵文字の表現を微調整可能であってもよい(たとえば、笑顔の程度の調整、悲しみに対応するアバター絵文字の涙滴の追加/削除)。特定の実施形態において、仮想現実システムは、ユーザに対してアバター絵文字を自動的にカスタマイズしてもよい。限定ではなく例として、仮想現実システムは、そのカスタマイズをユーザの写真またはビデオに基づいて行うことにより、ユーザの写真またはビデオの特徴に基づいて、アバター絵文字の笑顔またはしかめっ面等の特徴を調整してもよい。
特定の実施形態において、仮想現実システムは、一連の技術を採用することにより、アバターを不気味の谷(valley)から連れ出して、ユーザが他のユーザのアバターとより快適に相互作用できるようにし得る。限定ではなく例として、ユーザに対する不気味さを抑えるために、アバターの口に特殊な線画が採用されてもよい。特定の実施形態において、仮想現実システムは、セカンダリ・モーションまたはアニメーションをアバターに追加して、より実物に近づけてもよい。セカンダリ・モーションは、アクター(たとえば、アバター)によるプライマリ・モーションへのリアクションとして生じる動きとして説明可能なアニメーションの概念である。これは、アバターの運動により駆動されているように見える効果によって運動を向上させるのに役立つため、これによりアバターの動きがより自然に見えてもよい。限定ではなく例として、アバターがある場所から別の場所まで歩く場合、その脚で歩くプライマリ・モーションは、それに対する応答として、上下運動する頭、前後揺動する腕、胴体とともに動く服、上下動する身体等のセカンダリ・モーションにより向上されてもよい。また、特定の実施形態において、仮想現実システムは、アバターが立位で静止している場合であっても、重心動揺(body sway)等の受動運動もアバターに追加してよい。重心動揺は、(たとえば、姿勢を安定させるために)現実世界で身体が行う小さな動きを表す。これらの動きは、非常にわずか(たとえば、各方向に2.54〜5.08センチメートル(1〜2インチ))と考えられるが、それぞれがなければ容易に気付く類のものである。重心動揺を追加することによって、より本物らしいアバターがもたらされてもよい。
特定の実施形態において、仮想現実システムは、アバターの眼を2Dまたは3Dでレンダリングしてもよい。特定の実施形態において、3Dの眼には、より本物らしいという利点がある。ただし、そのレンダリングは、よりリソース集約的と考えられる。このため、特に仮想現実システムを用いてコミュニケーションする非常に多くのユーザを扱う場合は、2Dの眼をレンダリングするのが技術的に好都合と考えられる。また、特定の実施形態においては、2Dの眼の方が3Dの眼よりもフレンドリーに見える場合があり、ユーザにとって、より「魅力的」または親しみやすいと考えられる。
特定の実施形態において、ユーザは、仮想空間において複数の仮想デバイスを有していてもよい。これらの仮想デバイスはそれぞれ、異なる機能を提供してもよい。ユーザは、各仮想デバイスを異なる機能に関連付けてもよく、これは、現実世界に対応し得る直感的なエクスペリエンスを可能にする(たとえば、ユーザは同様に、異なる機能について異なるデバイスと相互作用する)点で好都合と考えられる。限定ではなく例として、ユーザは、時間の表示、着信および発信通信(たとえば、音声/ビデオ通話、メッセージ)に対するゲートウェイとしての機能、(たとえば、ユーザに保持されているツールに基づく、ユーザがその中に存在する仮想空間の種類に基づく)コンテキスト固有の機能の提供、または現実世界につながる情報(たとえば、ニュース、天気等)の表示が可能なウォッチを着用していてもよい。また、本例において、ユーザは、自身が気付いていない可能性がある新たなユーザ・エクスペリエンスまたは特徴に関する通知(たとえば、特定のツールを特定の方法で使用して特定の機能を実行し得る旨の通知、特定の仮想ルームに関連付けられている特徴に関する通知)を提供可能なリストバンドを着用していてもよい。通知が提供され得る新たなユーザ・エクスペリエンスは、ユーザに関連付けられている情報に基づいて識別されてもよい。限定ではなく例として、特定の特徴を使用たことのないユーザまたは(たとえば、ユーザが特定の特徴を閾値回数だけ使用しなかったことに基づいて決まるような)該特徴について所定のエクスペリエンス・レベルを持たないと決定されたユーザは、新たなユーザ・エクスペリエンスとして該特徴に関する通知を受ける可能性がある一方で、該特徴により精通しているユーザは、そのような通知を受けない可能性がある。通知が提供され得る新たなユーザ・エクスペリエンスは、現在のコンテキストに基づいて識別されてもよい。限定ではなく例として、ユーザは、カメラ・ツールを手に取った場合、カメラ・ツールの仮想レンズを修正する(これにより、カメラ・ツールで撮影された写真を修正する)フィルタの追加に関する通知を受ける場合がある。たとえば、ユーザ・インタフェース要素がリストバンドに表示されてもよく、この要素のアクティベーションによって、フィルタの追加方法を表す情報の表示が(たとえば、テキスト、ビデオ、写真、オーディオの形態で)トリガされてもよい。別の例として、この情報は、(たとえば、リストバンド上のテキストのスクロールによって、リストバンドからのビデオの投影によって)それ以上のユーザ入力なく、リストバンドに関連して表示されてもよい。特定の実施形態において、リストバンドは、(本明細書においてさらに詳しく説明する状態である)「一時停止モード」に入るボタンを含んでいてもよい。本明細書に記載の機能は、特定の仮想デバイスに限定されることを意図していない。限定ではなく例として、リストバンドは、通信に対する(たとえば、着信通話の通知を与える)ゲートウェイであってもよい。
特定の実施形態において、仮想デバイスは、ユーザが個人の好みまたは必要に応じて該仮想デバイスを調整可能となるように、カスタマイズ(たとえば、外観、機能の変更)可能であってもよい。特定の実施形態において、ユーザは、さまざまな仮想デバイスまたは仮想デバイスのアドオンを購入あるいは他の形で取得可能であってもよい。限定ではなく例として、ユーザは、異なって見える異なる種類のウォッチもしくはリストバンド(たとえば、デザイナー・ブランドのリストバンドもしくはウォッチ)または特定の機能を実行可能な異なる種類のウォッチもしくはリストバンド(たとえば、証券取引情報を収集して表示するウォッチ、ユーザの心拍数等の生理学的パラメータを表示するリストバンド)を購入可能であってもよい。
特定の実施形態において、仮想ウォッチ(または、別の類似仮想デバイス)を介した発信側ユーザがからの通信を受信側ユーザが承認した場合、この通信は、仮想空間において、仮想ウォッチへの取り付けあるいは仮想ウォッチとの他の形での関連付けがなされたウィンドウまたはアバターとして現れてもよい。限定ではなく例として、この通信は、仮想ウォッチから発せられる投影として現れてもよい。特定の実施形態において、この時点では、(たとえば、受信側ユーザが通信セッション中の他のユーザとともに仮想ルーム内または別の場所に存在する場合)ウィンドウまたはアバターを、仮想空間中のその他任意のユーザが見聞きすることもまたは見るか聞くかすることもできなくてもよい。同様に、特定の実施形態において、発信側ユーザは、他のユーザから何も見聞きできなくてもよい。特定の実施形態において、受信側ユーザは、(たとえば、他方の手によるジェスチャでウィンドウまたはアバターをピックアップし、仮想ウォッチから切り離された仮想空間の領域にウィンドウまたはアバターを配置することによって)ウィンドウまたはアバターを仮想ウォッチから切り離して、仮想空間内に移動可能であってもよい。特定の実施形態においては、この時点で、仮想空間中のその他任意のユーザも、ウィンドウまたはアバターを見ることができてもよく、また、同様に仮想空間中の他のユーザを見聞きし得る発信側ユーザと通信可能であってもよい。また、特定の実施形態において、仮想現実システムは、受信側ユーザが存在する仮想空間において発信側ユーザが何を見ているかを受信側ユーザ(および/または、他のユーザ)に示すウィンドウもレンダリングしてよい。また、特定の実施形態において、仮想ウォッチは、通話の開始に用いられてもよい。限定ではなく例として、ユーザはゲームの最中であってもよく、ゲームをしている間に、ウォッチに関連付けられているコントローラを持ち上げ、ゲームプレイを中断することなく通信要求を送信してもよい。
特定の実施形態において、仮想ウォッチ(または、リストバンドのような別の類似仮想デバイス)は、本明細書に記載のポータル・ツールに類似の機能を含んでいてもよい。限定ではなく例として、ユーザは、仮想ウォッチ上でメニュー・アイテム要素を選択することにより、ニュースフィード、1つもしくは複数の視覚的メディア・アイテム(たとえば、保存された視覚的メディア・アイテム)のページ、ゲーム、またはその他任意適切なコンテンツにアクセス可能であってもよい。特定の実施形態において、仮想ウォッチ(または、リストバンドのような別の類似仮想デバイス)は、パソコン上の右クリック・ボタンと同様のコンテキスト・メニューを提供してもよい。本明細書にさらに記載する通り、コンテキスト・メニューのオプションは、コンテキスト(たとえば、ユーザが保持しているオブジェクト、ユーザが存在する仮想ルーム、日付等)によって決まってもよい。特定の実施形態において、ユーザは、選択されたコンテンツに他のユーザをトランスポート可能であってもよい。限定ではなく例として、特定のユーザは、水中シーンの視覚的メディア・アイテムを選択した場合、2人の他のユーザとともに仮想ルームに存在していてもよい。仮想ルーム中のすべてのユーザが、水中シーンを表示する仮想空間にトランスポートされてもよく、また、その他任意の仮想空間と同様に、仮想空間と相互作用(たとえば、カメラ・ツールで仮想空間の写真を撮影)してもよい。特定の実施形態においては、仮想ウォッチ、仮想リストバンド、ポータル・ツール、または他の類似仮想オブジェクト/ツール(または、以下に記載のドック要素)がユーザを中心/初期設定場所(たとえば、ホーム・スクリーン)にトランスポート可能であってもよい。限定ではなく例として、ユーザは、仮想ウォッチまたはリストバンド上に現れる仮想ボタンを押すことにより、即座にホーム・スクリーンにトランスポートされて、そこからアプリケーション、コンテンツ、ブラウザ等にアクセス可能であってもよい。
図34Aおよび図34Bは、例示的なドック要素インタフェースを示している。特定の実施形態においては、類似機能がドック要素により提供されてもよく、これは、仮想空間とのもしくは仮想空間中のコンテンツとのインタラクションのための、または仮想空間におけるユーザ・エクスペリエンスの別様の制御のための、さまざまなオプションのメニューを提供するユーザ・インタフェース要素であってもよい(たとえば、インタラクティブ・ボタンとして提示される)。特定の実施形態においては、一般的にジェスチャ入力を使用して、または(たとえば、ヘッドセット・デバイスによる視線入力、コントローラによるグラブ入力を用いた)スクラバ要素上のスクラバの操作もしくはその他任意適切なインタフェースによって、ユーザがドック要素上のメニューをナビゲートしてもよい。特定の実施形態において、オプションは、現在のコンテキストに応じて変化してもよい。限定ではなく例として、図34Aを参照すると、ユーザがホーム・スクリーンにいる場合は、ドック要素3410がホーム・スクリーン・コントロール(たとえば、メディア・コンテンツ・アイテムにアクセスするインタラクティブ要素3420、仮想ツールにアクセスするインタラクティブ要素3430、友達を検索してコミュニケーションするインタラクティブ要素3440、設定にアクセスするインタラクティブ要素、更衣室または個人用空間にアクセスするインタラクティブ要素等)を表示してもよい。限定ではなく別の例として、図34Bを参照すると、ユーザがビデオを視聴している場合は、ドック要素3450がビデオ・コントロール(たとえば、ビデオを一時停止するインタラクティブ要素3460、音量を下げるインタラクティブ要素3470、音量を上げるインタラクティブ要素3480、ビデオを消去するインタラクティブ要素3490、ビデオを早送りまたは巻き戻しするインタラクティブ要素、ビデオをスキップするスクラバ・コントロール、ビデオを共有するためのインタラクティブ要素、より大きな視野エリアを含むようにビデオを最大化するインタラクティブ要素、ビデオを終了してホーム・スクリーンに戻るインタラクティブ要素等)を表示してもよい。限定ではなく別の例として、ユーザが写真を見ている場合は、ドック要素が写真コントロール(たとえば、フィルタ等の編集ツール、共有するオプション、より大きな視野エリアを含むようにビデオを最大化するオプション、ビデオを終了してホーム・スクリーンに戻るオプション)を表示してもよい。限定ではなく別の例として、ユーザがオンラインでコンテンツ(たとえば、ウェブ・ページ)をブラウズしている場合は、ドック要素がブラウザ・コントロール(たとえば、前のページ、ブックマーク、履歴)を表示してもよい。限定ではなく別の例として、ドック要素は、表示設定(たとえば、輝度レベル)またはユーザ・エクスペリエンスに影響を及ぼす他の設定を提供してもよい。特定の実施形態において、ドック要素は、タブレットまたはパネルに類似していてもよい。特定の実施形態において、ドック要素は、ユーザの視野の特定のエリア(たとえば、ユーザが見ている方向に関わらず、視野の左下)または仮想空間の特定のエリアに現れてもよい(たとえば、図21Dのインタラクティブ面2150上または仮想空間内の別の適切な場所にドック要素2140として現れるか、ユーザが基準点に対して仮想空間内の特定方向を見ている場合に現れる)。特定の実施形態において、ドック要素は、エリア上にホバリングしているように表現されてもよい。特定の実施形態において、ドック要素は時折、可視でなくなるか、または存在していなくてもよい。たとえば、「アクティブ状態」と反対の「ドーマント状態」(または、「ディアクティベート状態」)であってもよい。限定ではなく例として、ドック要素は、ドック要素上のドック・オプションと相互作用する意図ユーザにある(または、ドック要素が提示されている場合、相互作用する可能性がある)ものと仮想現実システムが判定するまで、可視でないままであってもよいし、存在していなくてもよい。本例において、仮想現実システムは、適切なユーザ入力(たとえば、コントローラまたは手によるジェスチャ、ユーザの視線入力、ヘッドセット上のタップ、コントローラ上のボタンを押すこと)に基づいてこの判定を行ってもよい。この判定がなされると、ドック要素が現れてもよい。特定の実施形態において、ドック要素は、完全に可視でなくなったり存在しなくなったりするのではなく、存在はし続けるものの、そのアクティブ状態にある場合よりも透明または半透明になり得る。あるいは、ドック要素は単純に、そのアクティブ状態で常に存在していてもよい。特定の実施形態において、ドック要素は、たとえばオプションがユーザの視野の周辺に提示された状態あるいは(たとえば、中心で)視野と重ね合わされた状態で、視野を囲むように現れてもよい。これは、ヘッドアップ・ディスプレイに類似していてもよい。限定ではなく例として、ユーザがビデオを視聴している場合、ドック要素は、オプションが視野の下および右側または左側に提示された状態で(たとえば、ドック要素と相互作用する意図がユーザにあり得ると仮想現実システムが判定するまではドーマント状態で)現れてもよい。特定の実施形態において、ドック要素は、コンテンツ・アイテム(たとえば、ビデオ)を表示している仮想空間上の場所を囲んでいてもよい。限定ではなく例として、ユーザは仮想「テレビ」でビデオを視聴していてもよく、ドック要素は、仮想テレビのスクリーンの縁部にオプションを提示してもよい。
特定の実施形態において、ドック要素は、通信の開始に用いられてもよい。限定ではなく例として、ドック要素を使用することにより、(たとえば、ドック要素上の適切な仮想ボタンの選択によって、またはその他任意適切な入力の提供によって)友達リストまたは連絡先リストを含むインタフェースをユーザが引き出すことができてもよい。本例において、ユーザは、(たとえば、ビデオ通信、オーディオ通信、またはメッセージもしくはテキスト・チャット等のテキスト通信を開始するために)リストをスクロールして、1人または複数の友達または連絡先を選択可能であってもよい。本例において、友達リストまたは連絡先リストは、オンライン・ソーシャル・ネットワーク(たとえば、ソーシャル・グラフつながり)上の友達または連絡先であってもよい。
特定の実施形態においては、仮想ウォッチがユーザ・インタラクションの中央ハブとして作用してもよい。特定の実施形態において、ユーザは、(たとえば、ウォッチに関連付けられている手を持ち上げてユーザの視野に入れることにより)任意の仮想空間において仮想ウォッチを引き出すことができてもよい。仮想ウォッチは、(本明細書に記載の因子の任意の組み合わせを用いて決定可能な)決定された現在のコンテキストに応じて、仮想空間におけるインタラクションおよび機能をカスタマイズ可能であってもよい。特定の実施形態において、仮想ウォッチにより提供されるカスタマイズされたインタラクションおよび機能は、ユーザが現在手に取っているかまたは選択している仮想ツールまたは別の仮想オブジェクトによって決まってもよい。このように、仮想ウォッチは、仮想ツールまたは別の仮想オブジェクトの特性に基づいてカスタマイズされてもよい。限定ではなく例として、ユーザがレーザ・ツールを手に取った場合、ウォッチは、レーザ・ツールの現在の出力レベルを表示すること、ユーザによるレーザ・ツールのさまざまな出力レベルの選択を可能にすること、の両方または一方を行うようにカスタマイズされていてもよい。限定ではなく別の例として、ユーザがマーカ・ツールを手に取った場合、ウォッチは、マーカの現在のインク色を表示すること、ユーザによるさまざまなインク色の選択を可能にすること、の両方または一方を行うようにカスタマイズされていてもよい。限定ではなく別の例として、ユーザが仮想ボールを手に取った場合、ウォッチは、仮想ボールに関連付けられている重量または他の特性を表示してもよい。特定の実施形態において、仮想ウォッチは、ユーザが仮想環境(たとえば、仮想空間自体および仮想空間中の仮想オブジェクトまたは仮想空間自体もしくは仮想空間中の仮想オブジェクト)を変更するための手段であってもよい。限定ではなく例として、ユーザは、仮想ボールを手に取り、仮想ウォッチ上の「消去」ボタンを選択可能であってもよく、これにより、仮想ボールが仮想空間から消えてもよい。
特定の実施形態においては、特定のユーザが、仮想空間の任意の時間または場所において、仮想エクスペリエンスを実質的に一時停止または保留可能な「一時停止モード」に入ることができてもよい。ユーザ試験により、ユーザが一時的に仮想エクスペリエンスから迅速に脱し、ある期間にわたって「アンプラグドになった」と感じたい場合があることが分かっている。限定ではなく例として、ユーザは、少なくとも一時的に離れたいと望むような居心地の悪い社会的状況にユーザ自身が置かれていることに気づく場合がある。限定ではなく別の例として、(たとえば、ジェットコースターのビデオを視聴している場合や、高い山の登山をシミュレートするゲームをプレイしている場合に)ユーザが、エクスペリエンスを圧倒的または恐ろしいと感じる場合もある。
図35Aおよび図35Bは、一時停止モードに入るための例示的な入力を示している。特定の実施形態において、特定のユーザは、適切な入力を提供することにより一時停止モードに入ることができてもよい。限定ではなく例として、図35Aおよび図35Bを参照すると、特定のユーザは、「安全ジェスチャ」(たとえば、両腕を交差させることによって、レンダリング3530により表される左手がユーザの右側となり、3540により表される右手がユーザの左側となるジェスチャ)の実行、適切なインタラクティブ要素(たとえば、仮想リストバンド3570またはウォッチ上の一時停止ボタン3560、ドック要素上のボタン、仮想空間中の同じ場所のボタン、現実世界における物理的コントローラ上のボタン)の選択、特定の言葉を発すること等によって一時停止モードに入ることができてもよい。本例においては、ユーザが一時停止モードに入ろうとしていることを示す通知3550がユーザに提示されてもよい。通知3550には、(たとえば、ユーザの腕の交差を元に戻すことによって)一時停止モードに入ることをユーザがキャンセル可能なカウントダウン期間を開始するタイマー要素を含んでいてもよい。特定のユーザは、任意適切な入力の実行によって、任意の時間に一時停止モードを終了することができてもよい。限定ではなく例として、特定のユーザは、ジェスチャ(たとえば、親指を立てるジェスチャ)の実行、適切なインタラクティブ要素(たとえば、仮想リストバンドまたはウォッチ上の一時停止ボタン、ドック要素上のボタン、仮想空間中の同じ場所のボタン、物理的コントローラ上のボタン)の選択、特定の言葉を発すること等を行ってもよい。特定の実施形態において、特定のユーザは、他のユーザの部分集合に対してのみ「一時停止解除」を行うことができてもよい。これらの実施形態において、特定のユーザは、部分集合に含まれない他のユーザに対しては一時停止を維持するものの、部分集合に含まれる他のユーザに対しては一時停止を解除してもよい(たとえば、部分集合に含まれる他のユーザは、通常通り特定のユーザのアバターを見ることができてもよく、通常通り特定のユーザと相互作用または通信できてもよい)。ユーザは、本明細書に記載の任意適切な入力(たとえば、ジェスチャ、ボタンを押すこと、言葉を発すること)を提供することにより、この選択的な一時停止解除を実現可能であってもよい。限定ではなく例として、ユーザは、(たとえば、手を別のユーザに差し出すことによる)握手もしくは「フィスト・バンプ(fist-bump)」ジェスチャ(この時点で、他のユーザは、特定のユーザを見ており、握手もしくはフィスト・バンプを返してもよい)または(たとえば、別のユーザの肩をたたいたり、特定の様式で他のユーザを指さしたりすることによる)タッピングもしくはポインティング・ジェスチャを実行してもよい。
図35Cは、例示的な一時停止モード・インタフェースを示している。特定のユーザが一時停止モードに入ると、他のユーザは、その特定のユーザに関する一切の情報(たとえば、一時停止モードに入る前に特定のユーザが存在していた仮想ルーム中の他のユーザ)を得られなくなり得る。特定の実施形態において、特定のユーザのアバターは、他のユーザの視野から消えてもよい。特定の実施形態において、特定のユーザのアバターは、残っていてもよいが、特定のユーザに関する追加の情報を提供しない状態であってもよい(または、たかだかユーザに関する限られた情報のみを提供してもよい)。限定ではなく例として、他のユーザは、特定のユーザのフリーズしたイメージ、ブラーなイメージ、フェードしたイメージ、歪んだイメージ、またはそのような他のイメージを目にしてもよい。これは、(たとえば、接続の問題で)特定のユーザが一時停止モードにあるかまたは別様に調子が悪いことを他のユーザに示してもよい。特定の実施形態において、特定のユーザは、一時停止モードに入った場合、仮想空間および仮想空間中の他のユーザから追加の情報を取得しなくてもよいし、たかだか限られた情報のみを取得してもよい。限定ではなく例として、仮想空間またはコンテンツ(たとえば、仮想空間において提示されているコンテンツ)全体は、消えてもよいし、フリーズ、ブラー、フェード、ディストーション等を生じてもよい。限定ではなく別の例として、仮想空間は、元のままであってもよいが、他のユーザからの一部またはすべての情報が、特定のユーザには届かなくなり得る。たとえば、他のユーザのアバターは、消えてもよいし、フリーズ、ブラー、フェード、ディストーション等を生じてもよい。特定の実施形態において、ユーザは、個人用空間にトランスポートされてもよい。個人用空間は、特定のユーザが快適と感じる部屋に似ていてもよい。特定の実施形態において、個人用空間は、カスタマイズされていてもよいし、カスタマイズ可能であってもよい。限定ではなく例として、個人用空間は、ユーザが個人の好みに従って装飾(たとえば、カスタムのカウチ、アームチェア、暖炉、窓等の追加)可能な部屋であってもよい。特定の実施形態において、個人用空間は、特定のユーザが自分自身を見ることができる鏡を含んでいてもよい。限定ではなく例として、図35Cを参照すると、特定のユーザには、一時停止モードにいる間に仮想鏡3580が提示されてもよい。本明細書にさらに記載する通り、個人用空間において、ユーザは、自身の見た目を変更可能(たとえば、眼鏡または帽子を着用可能)であってもよい。一時停止モードの使用は、ユーザがエクスペリエンスから脱したいタイミングに限定されていなくてもよい。限定ではなく例として、ユーザが一時停止モードに入って、通知(たとえば、メッセージ、仮想空間において参加することにユーザが関心を示し得る新たなユーザ特徴または新たなユーザ・エクスペリエンスに関する通知等)もしくはコンテンツの個人的な閲覧、異なるアプリケーションの開始、ユーザのアバターもしくは設定の微調整、および/または仮想空間もしくは仮想空間内の場所間の遷移を行ってもよい。
特定の実施形態において、一時停止モードに入ると、ユーザには、1つまたは複数のエクスペリエンス・コントロール・オプションが提示されてもよい。限定ではなく例として、ユーザには、問題(たとえば、技術的問題、他のユーザによる悪用)を報告するオプション、他のユーザをブロックするオプション、(たとえば、仮想ルームから)他のユーザを締め出すオプションが与えられてもよい。特定の実施形態において、これらのエクスペリエンス・コントロール・オプションは、任意の時間に呼び出されてよく、ユーザが先に一時停止モードに入っておく必要はない。
特定の実施形態において、仮想現実システムは、ユーザのアバターの周りに「バブル(bubble)」を生成することにより、たとえば仮想世界において他のユーザのアバターが近づき過ぎてユーザの個人用空間を侵さないようにしてもよい。現実世界と同様に、仮想世界においては、他のユーザのアバターがユーザに近づき過ぎると、ユーザがそれを不快に感じる場合がある。特定の実施形態においては、ユーザがバブルのオンまたはオフを選んでもよい。
図36A〜図36Cは、不透明表示領域が360°視野を満たす一例を示している。特定の実施形態において、仮想現実システムによりレンダリングされた360°視野の一部は、現在の仮想環境(たとえば、コンテンツ・アイテムの視覚的情報により与えられた環境、ユーザのライブ・ビデオ・ストリームの視覚的情報により与えられた環境)の外部のアイテムを表示してもよい。この部分は、不透明領域と考えられる表示エリアであってもよい。あるいは単に、仮想環境の重ね合わせ(たとえば、仮想環境へのアイテムの重ね合わせ)または修正であってもよい。限定ではなく例として、図36Aを参照すると、360°視野3610は、不透明領域3620を含んでいてもよい。特定の実施形態において、表示エリアは、コンテンツ・アイテム(たとえば、スライド、写真)、ウェブ・ブラウザ、コンテンツ・ブラウザのインタフェース(たとえば、特定のコンテンツにナビゲートするためのホーム・スクリーン)、他のユーザ(たとえば、友達、オンライン・ソーシャル・ネットワークのユーザ)を検索してコミュニケーションするためのインタフェース、オンライン・ソーシャル・ネットワーク(たとえば、ソーシャル・ネットワーキング・システム160に関連付けられているオンライン・ソーシャル・ネットワーク)のインタフェース、他のユーザからの着信ビデオ(たとえば、仮想現実にはいないものの、カメラを備えた電話またはラップトップ等の非仮想現実システムを介して連絡してきている可能性があるユーザからの着信ビデオ)を表示してもよい。限定ではなく例として、ユーザが、友達リストまたは連絡先リストを含むインタフェースを引き出すことができてもよい。本例において、ユーザは、(たとえば、ビデオ通信、オーディオ通信、またはメッセージもしくはテキスト・チャット等のテキスト通信を開始するために)リストをスクロールして、1人または複数の友達または連絡先を選択可能であってもよい。本例において、友達リストまたは連絡先リストは、オンライン・ソーシャル・ネットワーク(たとえば、ソーシャル・グラフつながり)上の友達または連絡先であってもよい。特定の実施形態において、ユーザは、表示エリアのオンまたはオフを選んでもよい。特定の実施形態において、表示エリアは、完全な球のビューをレンダリングするための情報が不十分な場合に自動でオンにされてもよい。このような場合、表示エリアは特に、有用な情報またはインタラクション点を、さもなければ役立つものの表示に使用されることがなかったかもしれないエリアでユーザに提供できて都合が良いと考えられる。限定ではなく例として、特定のユーザが、180°カメラでビデオを送信している別のユーザとコミュニケーションしている場合は、特定のユーザの視点からのビューのその他の部分の少なくとも一部が表示エリアに取り込まれていてもよい(たとえば、その部分について他のユーザからの情報がないためである)。本例において、特定のユーザは、他のユーザにより送信されている180°ビデオを見るとともに、表示エリアにおいて、ブラウザ・ウィンドウ等の他のアイテムを見てもよい。特定の実施形態においては、表示エリアは、他のユーザからのビデオ(たとえば、カメラを備えた電話またはラップトップ等の非仮想現実システムを介して連絡してきている可能性があるユーザからの着信ビデオを表示しているウィンドウ)を含んでいてもよい。限定ではなく例として、図36Aおよび図36Bを参照すると、不透明領域3620は、現在の通信セッションの一部であるユーザ(たとえば、「ハンナ(Hannah)」)からのビデオ・ストリーム3630を含んでいてもよい。本例において、図36Cは、(たとえば、ユーザが不透明領域3620に向き続ける場合に)視聴可能となり得る別のユーザからのビデオ・ストリームを示している。ビューの上記部分は、視聴されているビデオ(たとえば、ビデオ・コンテンツ・アイテム、通信中の別のユーザからの着信ビデオ)が完全な球ではない場合(たとえば、180°カメラの場合)に提示されてもよく、または、その他の場合にも(たとえば、球形ビューであっても、その一部の透明重ね合わせとして)提示されてもよい。
図37Aおよび図37Bは、仮想ルームにおいて通知を提示するための例示的な仮想サインを示している。図38は、仮想ルームにおいて通知を提示するための別の仮想サインを示している。特定の実施形態においては、関連する通知を仮想空間中のユーザに提示可能な仮想サイン(たとえば、バナー要素)を仮想空間が含んでいてもよい。限定ではなく例として、仮想サインは、(たとえば、仮想ルームにおいて)ミーティングに参加したばかりのユーザまたは仮想ルーム中のユーザが視聴しているビデオを視聴し始めたユーザを識別してもよい。限定ではなく別の例として、仮想サインは、(たとえば、ビデオ中で)コメントまたはリアクションがあった場合にそれらを表示してもよい。限定ではなく例として、図37Aを参照すると、仮想サインはビデオ3710の両側に沿って現れてもよく、ビデオ3710は、図示の仮想ルーム中のユーザが視聴しているライブ・ビデオであってもよい。本例においては、(たとえば、ユーザにより提供/投稿されて)関連するようになった場合にリアクション(たとえば、「笑う」リアクション3720)等の要素を表示する、2つの縦方向にスクロールする仮想サインが存在していてもよい。限定ではなく別の例として、図37Bを参照すると、仮想サインは、仮想ルーム中のインタラクティブ面またはその近傍に表示されてもよい(たとえば、「ハート」リアクション3740を含む仮想サイン)。特定の実施形態において、仮想サインは、(たとえば、仮想ルーム中のインタラクティブ面上の)ジャンボトロンのようなものに似ていてもよいし、回転する仮想サインであってもよい(たとえば、テキスト等の通知要素が特定の方向に回転する)。仮想サインは、(たとえば、テキスト等の通知要素がそこでスクロールする)株式相場表示機のように機能し得る。限定ではなく例として、図38を参照すると、仮想サイン3810は、テキスト「ステファニーが視聴を開始しました」のスクロール表示を含むことにより、ルーム中のユーザに対して、「ステファニー」という名前のユーザが仮想ルームのライブ・ブロードキャストを視聴し始めたことを示してもよい。本例において、(たとえば、ステファニーというユーザに関連付けられているプロフィール写真を含み得る)要素3820は、仮想サイン3810から落ちて仮想ルームに入るように現れる場合がある。同様に、本例においては、他の要素も、関連するようになった場合に仮想サイン3810から落ちるように現れる場合がある(たとえば、提供された場合の「いいね!」等のユーザ・リアクション、コメント3840等のユーザ・コメント)。この代替または追加としては、関連する要素は、任意適切な場所から現れてもよい。限定ではなく例として、図37Aを参照すると、コメント3730は、関連するようになった場合(たとえば、投稿された場合)に、単に仮想ルーム内に現れてもよい。特定の実施形態においては、仮想サインから落ちてきた要素の「ピックアップ」あるいは要素とのインタラクションを仮想ルーム中のユーザが行ってもよい。限定ではなく例として、図38を参照すると、ユーザ3830は、特定の要素(たとえば、コメント3840)を手に取って示してもよい。
特定の実施形態においては、多数の関連通知が存在していてもよく、この場合、仮想現実システムは、表示する関連通知の部分集合を決定してもよい。この部分集合は、任意適切な因子(たとえば、関連通知により伝達される情報に関する仮想空間中のユーザのアフィニティ、関連通知に関連付けられているコメントの生成者に対する仮想空間中のユーザのアフィニティ、関連通知に関連付けられているユーザに対する仮想空間中のユーザのアフィニティ、関連通知に関連付けられているコメントに対して存在するリアクションの数)に基づいて関連通知をスコア付けし、閾値スコアよりも高いスコアを有する通知を選択することにより決定されてもよい。
図39A〜図39Cは、仮想空間においてコメント要素を操作しているユーザの一例を示している。特定の実施形態において、ユーザは、コメント、投稿、リアクション、またはそのような他の要素(たとえば、ソーシャル・ネットワークと関連する要素)と相互作用可能であってもよい。限定ではなく例として、これらの要素は、ユーザが適切な入力(たとえば、視線入力、ハンド・コントローラ)によって「グラブ」し、仮想空間中のどこかに配置し得るように操作可能な仮想オブジェクトであってもよい。また、ユーザは、これらの要素のいずれかをグラブし、フリック・ジェスチャによって外部に「破棄」してもよい(これにより、仮想環境から要素が消去されるか、または単に除去されてもよい)。また、ユーザは、仮想空間において、仮想オブジェクトを別のユーザに手渡すことができてもよい。この種のインタラクションは、ユーザにとってより直感的と考えられ、より具体的な形態のインタラクション手段を提供することによって現実世界をシミュレートしている可能性がある。図39A〜図39Cは、仮想空間内でコメント要素を操作可能な方法を紹介する例示的なイベント・シーケンスを示している。図39Aを参照して、ユーザは、ユーザの手3920のレンダリングに対応するコントローラを用いて、コメント要素3910を選択してもよい。図39Bを参照して、ユーザは、コメント要素3910をグラブまたは保持してもよい。図39Cを参照して、ユーザは、(たとえば、仮想空間中の他のユーザにコメント要素3910を示すために)仮想空間内でコメント要素3910を表示(または、他の形で操作)してもよい。特定の実施形態において、本明細書に記載の仮想サインは、操作可能な要素を仮想空間にリリースするように構成されていてもよい。限定ではなく例として、仮想サインは、底に穴の開いたジャンボトロン・デバイスに似ていてもよく、その穴から要素が(たとえば、関連するようになった場合に)落ちてもよい。特定の実施形態において、要素は、個人的にまたは仮想空間の他者と協調的にコンテンツが視聴されているブラウザ・アプリケーション上のウェブ・ページまたはその他何らかのコンテンツ場所から(たとえば、ビデオまたは写真から)取得されてもよい。
図40A〜図40Cは、コンテンツ・アイテムにメッセージを書いているユーザの一例を示している。特定の実施形態において、仮想現実システムは、ユーザが仮想空間においてコンテンツ・アイテムを変更し、変更したコンテンツ・アイテムを他のユーザに対して送信、共有、または提示できるようにしてもよい。限定ではなく例として、フィルタの追加、色の変更、輝度の変更等をユーザが行うことができてもよい。限定ではなく別の例として、図40Aを参照すると、ユーザが(たとえば、フラットなコンテンツ、360°コンテンツ等と考えられる)写真またはビデオ上のどこかに、メッセージ4010(たとえば、「ハロー」という言葉)またはスケッチ(たとえば、猫の絵)を落書き/筆記可能であってもよい。本例において、ユーザは、ペンまたはマーカ等の適切な仮想ツールを用いて、コンテンツ・アイテム上に落書き/筆記してもよい。ビデオの場合、落書き/筆記は、時間的に制限されていてもよいし、制限されていなくてもよい(たとえば、ビデオの特定の時点のみに関連付けられていてもよい)。特定の実施形態において、ユーザは、変更したコンテンツ・アイテムまたは写真/ビデオ(フラットなコンテンツ、360°コンテンツ等)を特定の他のユーザに送信可能であってもよいし、オンライン(たとえば、オンライン・ソーシャル・ネットワーク上)で共有可能であってもよいし、または、変更したコンテンツを仮想空間において(たとえば、仮想ルームにおける他のユーザとのミーティングにおいて)提示可能であってもよい。限定ではなく例として、図40A〜図40Cを参照すると、ユーザは、パネル4020の「送信」ボタンを選択し、連絡先メニュー4040から選択された1人または複数の連絡先(たとえば、ユーザ4050)に対して、変更したコンテンツ・アイテム4030を送信してもよい。限定ではなく別の例として、ユーザは、(たとえば、図40Aを参照すると、パネル4020の「共有」ボタンの選択によって)変更したコンテンツ・アイテムをオンライン・ソーシャル・ネットワーク上で共有してもよい。また、特定の実施形態において、この変更は、ユーザがコンテンツ・アイテムを変更する際に仮想空間中の他者が視聴している状態で、ライブで実施されてもよい。特定の実施形態においては、ユーザが協調してコンテンツ・アイテムを変更してもよい。限定ではなく例として、仮想ルーム内の複数のユーザが協調して、1つのコンテンツ・アイテムに落書き/筆記してもよい(たとえば、ビジネス・ミーティング中のユーザは、仮想ルーム中のユーザにとって可視の1つの図表またはスプレッドシートに落書き/筆記してもよい)。
図41は、視線入力に基づいてヒット・ターゲットを選択するための例示的な方法4100を示している。この方法は、ステップ4110で開始してもよく、コンピューティング・システムは、ユーザに関連付けられている視線追跡入力装置から視線入力を受信してもよく、視線入力が、レンダリング仮想空間の領域中の第1の焦点を示す。ステップ4120において、コンピューティング・システムは、トリガ・イベントの発生を判定してもよい。ステップ4130において、コンピューティング・システムは、焦点に関連付けられているヒット・ターゲットを選択させてもよい。ステップ4140において、コンピューティング・システムは、ヒット・ターゲットの選択に対する応答をユーザに関連付けられている表示装置にレンダリングするように構成された情報を送信してもよい。特定の実施形態では、適切な場合、図41の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図41の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図41の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図41の方法の特定のステップを含み、視線入力に基づいてヒット・ターゲットを選択するための例示的な方法を説明および図示するが、本開示は、適切な場合、図41の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図41の方法のステップのいずれも含まない任意適切なステップを含み、視線入力に基づいてヒット・ターゲットを選択するための任意適切な方法を企図する。さらに、本開示は、図41の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図41の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図42は、レンダリングするレチクル型を決定するための例示的な方法4200を示している。この方法は、ステップ4210で開始してもよく、コンピューティング・システムは、表示装置に第1のレチクルをレンダリングするように構成された情報を送信してもよく、第1のレチクルが、レンダリングされた仮想空間に重ね合わされており、第1のレチクルは、レンダリングされた仮想空間の領域上の第1の焦点に向けられている。ステップ4220において、コンピューティング・システムは、レチクルを第1の焦点から第2の焦点まで移動させるように構成された入力を受信してもよく、第2の焦点は、特定の仮想オブジェクトまたはインタラクティブ要素に関連付けられているヒット・ターゲットの閾値距離内である。ステップ4230において、コンピューティング・システムは、複数のレチクル・タイプから、特定の仮想オブジェクトまたはインタラクティブ要素に関連付けられている情報に基づいて、特定のレチクル・タイプを選択してもよい。ステップ4240において、コンピューティング・システムは、第1のレチクルを第2のレチクルに変換してもよく、第2のレチクルは特定のレチクル・タイプである。特定の実施形態では、適切な場合、図42の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図42の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図42の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図42の方法の特定のステップを含み、レンダリングするレチクル・タイプを決定するための例示的な方法を説明および図示するが、本開示は、適切な場合、図42の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図42の方法のステップのいずれも含まない任意適切なステップを含み、レンダリングするレチクル・タイプを決定するための任意適切な方法を企図する。さらに、本開示は、図42の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図42の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図43は、ユーザに提示するツールの部分集合を決定するための例示的な方法4300を示している。この方法は、ステップ4310で開始してもよく、コンピューティング・システムは、レンダリングされた仮想空間中の1つまたは複数の仮想ツールにアクセスしようとする第1のユーザの意図を示す入力を受信してもよい。ステップ4320において、コンピューティング・システムは、一組の仮想ツールそれぞれについてスコアを計算してもよく、スコアは現在のコンテキストに基づき、現在のコンテキストは、レンダリングされた仮想空間に関連付けられている情報に基づく。ステップ4330において、コンピューティング・システムは、一組の仮想ツールから、仮想ツールの部分集合を選択してもよく、仮想ツールの部分集合の各仮想ツールは、閾値スコアよりも高いスコアを有する。ステップ4340において、コンピューティング・システムは、第1のユーザに関連付けられている表示装置に仮想ツールの部分集合をレンダリングするように構成された情報を送信してもよく、仮想ツールの部分集合が、レンダリングされた仮想空間にレンダリングされる。特定の実施形態では、適切な場合、図43の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図43の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図43の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図43の方法の特定のステップを含み、ユーザに提示するツールの部分集合を決定するための例示的な方法を説明および図示するが、本開示は、適切な場合、図43の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図43の方法のステップのいずれも含まない任意適切なステップを含み、ユーザに提示するツールの部分集合を決定するための任意適切な方法を企図する。さらに、本開示は、図43の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図43の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図44は、レンダリングするインタラクティブ面の種類を決定するための例示的な方法4400を示している。この方法は、ステップ4410で開始してもよく、コンピューティング・システムは、第1のユーザに関連付けられている表示装置に仮想空間をレンダリングするように構成された情報を送信してもよく、仮想空間が仮想ルームを含む。ステップ4420において、コンピューティング・システムは、特定の仮想オブジェクトを選択する入力を第1のユーザから受け付けてもよい。ステップ4430において、コンピューティング・システムは、一組のインタラクティブ面タイプについてスコアを計算してもよく、スコアは現在のコンテキストに基づき、現在のコンテキストは、仮想オブジェクトに関連付けられている情報に基づく。ステップ4440において、コンピューティング・システムは、一組のインタラクティブ面タイプから、閾値スコアよりも高いスコアを有することに基づいて、インタラクティブ面タイプのうちの1つを選択してもよい。ステップ4450において、コンピューティング・システムは、選択されたインタラクティブ面タイプであるインタラクティブ面をレンダリングするように構成された情報を送信してもよい。特定の実施形態では、適切な場合、図44の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図44の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図44の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図44の方法の特定のステップを含み、レンダリングするインタラクティブ面の種類を決定するための例示的な方法を説明および図示するが、本開示は、適切な場合、図44の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図44の方法のステップのいずれも含まない任意適切なステップを含み、レンダリングするインタラクティブ面の種類を決定する任意適切な方法を企図する。さらに、本開示は、図44の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図44の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図45は、ユーザの身体上の場所に関連付けられているコントローラから入力を受信するための例示的な方法4500を示している。この方法は、ステップ4510で開始してもよく、コンピューティング・システムは、表示装置に仮想空間をレンダリングするように構成された情報を送信してもよい。ステップ4520において、コンピューティング・システムは、第1のコントローラ・デバイスから第1の入力を受信してもよく、第1のコントローラ・デバイスは、ユーザの身体の第1の場所に関連付けられている。ステップ4530において、コンピューティング・システムは、アイテムのメニューを含むユーザ・インタフェースをレンダリングするように構成された情報を送信してもよく、アイテムのメニューは、1つまたは複数のインタラクティブ要素を含む。ステップ4540において、コンピューティング・システムは、第2のコントローラ・デバイスから第2の入力を受信してもよく、第2のコントローラ・デバイスは、ユーザの身体の第2の場所に関連付けられており、第2の入力は、特定のインタラクティブ要素の選択を示す。ステップ4550において、コンピューティング・システムは、特定のインタラクティブ要素の選択に対する応答をユーザに関連付けられている表示装置にレンダリングするように構成された情報を送信してもよい。特定の実施形態では、適切な場合、図45の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図45の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図45の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図45の方法の特定のステップを含み、ユーザの身体上の場所に関連付けられているコントローラから入力を受信するための例示的な方法を説明および図示するが、本開示は、適切な場合、図45の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図45の方法のステップのいずれも含まない任意適切なステップを含み、ユーザの身体上の場所に関連付けられているコントローラから入力を受信するための任意適切な方法を企図する。さらに、本開示は、図45の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図45の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図46は、仮想ミーティングを開始するための例示的な方法4600を示している。この方法は、ステップ4610で開始してもよく、コンピューティング・システムは、表示装置に仮想空間をレンダリングするように構成された情報を送信してもよい。ステップ4620において、コンピューティング・システムは、第2のユーザとのミーティングを開始する第1のユーザを受信してもよい。ステップ4630において、コンピューティング・システムは、要求に関する通知を第2のユーザに送信する。ステップ4640において、コンピューティング・システムは、第2のユーザから応答を受信してもよく、応答は要求の承認を示す。ステップ4650において、コンピューティング・システムは、第2のユーザの表現を仮想空間にレンダリングする情報を送信してもよい。特定の実施形態では、適切な場合、図46の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図46の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図46の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図46の方法の特定のステップを含み、仮想ミーティングを開始するための例示的な方法を説明および図示するが、本開示は、適切な場合、図46の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図46の方法のステップのいずれも含まない任意適切なステップを含み、仮想ミーティングを開始するための任意適切な方法を企図する。さらに、本開示は、図46の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図46の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図47は、仮想デバイス上で通知を受信するための例示的な方法4700を示している。この方法は、ステップ4710で開始してもよく、コンピューティング・システムは、表示装置に仮想空間をレンダリングするように構成された情報を送信してもよく、仮想空間は、第1のユーザの第1の身体部分の仮想表現を含む。ステップ4720において、コンピューティング・システムは、第1の身体部分の表現に関連付けられている第1の仮想デバイスをレンダリングするように構成された情報を送信してもよく、第1の仮想デバイスは表示領域を含む。ステップ4730において、コンピューティング・システムは、第1のユーザに関連付けられている通知アイテムを受信してもよい。ステップ4740において、コンピューティング・システムは、第1の仮想デバイスの表示領域に通知アイテムの表現をレンダリングするように構成された情報を送信してもよい。特定の実施形態では、適切な場合、図47の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図47の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図47の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図47の方法の特定のステップを含み、仮想デバイス上で通知を受信するための例示的な方法を説明および図示するが、本開示は、適切な場合、図47の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図47の方法のステップのいずれも含まない任意適切なステップを含み、仮想デバイス上で通知を受信するための任意適切な方法を企図する。さらに、本開示は、図47の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図47の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図48は、2つの部分を有する統合360°視野をレンダリングするための例示的な方法4800を示している。この方法は、ステップ4810で開始してもよく、コンピューティング・システムは、360°視野の少なくとも1つの部分に関連付けられている第1の視覚的情報を受信してもよい。ステップ4820において、コンピューティング・システムは、第1のユーザに関連付けられている表示装置上で360°視野全体をレンダリングするのに第1の視覚的情報が十分ではないものと判定してもよい。ステップ4830において、コンピューティング・システムは、第2の視覚的情報を読み出してもよい。ステップ4840において、コンピューティング・システムは、統合360°視野を表示装置にレンダリングするように構成された情報を送信してもよく、統合360°視野の第1の部分は第1の視覚的情報に基づき、統合360°視野の第2の部分は第2の視覚的情報に基づく。特定の実施形態では、適切な場合、図48の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図48の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図48の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図48の方法の特定のステップを含み、2つの部分を有する統合360°視野をレンダリングするための例示的な方法を説明および図示するが、本開示は、適切な場合、図48の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図48の方法のステップのいずれも含まない任意適切なステップを含み、2つの部分を有する統合360°視野をレンダリングするための任意適切な方法を企図する。さらに、本開示は、図48の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図48の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図49は、仮想空間の関連付けられている各場所においてソーシャル・コメンタリ・アイテムを表示するための例示的な方法4900を示している。この方法は、ステップ4910で開始してもよく、コンピューティング・システムは、ユーザに関連付けられている表示装置に仮想空間の第1のビューをレンダリングするように構成された情報を送信してもよく、仮想空間は、第1のソーシャル・コメンタリ・アイテムに関連付けられている第1の場所および第2のソーシャル・コメンタリ・アイテムに関連付けられている第2の場所を有し、第1の場所は第1のビュー内であり、第2の場所は第1のビュー外である。ステップ4920において、コンピューティング・システムは、第1のソーシャル・コメンタリ・アイテムの表現を含む第1のユーザ・インタフェース要素および第2のソーシャル・コメンタリ・アイテムの存在を示す第2のユーザ・インタフェース要素をレンダリングするように構成された情報を送信してもよい。ステップ4930において、コンピューティング・システムは、第1のビューを仮想空間の第2のビューに変更する要求を含む入力をユーザから受け付けてもよい。ステップ4940において、コンピューティング・システムは、仮想空間の第2のビューおよび第2のビュー内の第2のソーシャル・コメンタリ・アイテムの表現をレンダリングするように構成された情報を送信してもよい。特定の実施形態では、適切な場合、図49の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図49の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図49の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図49の方法の特定のステップを含み、仮想空間の関連付けられている各場所においてソーシャル・コメンタリ・アイテムを表示するための例示的な方法を説明および図示するが、本開示は、適切な場合、図49の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図49の方法のステップのいずれも含まない任意適切なステップを含み、仮想空間の関連付けられている各場所においてソーシャル・コメンタリ・アイテムを表示する任意適切な方法を企図する。さらに、本開示は、図49の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図49の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図50は、仮想サイン上で通知を表示するための例示的な方法5000を示している。この方法は、ステップ5010で開始してもよく、コンピューティング・システムは、第1のユーザに関連付けられている表示装置に仮想空間をレンダリングするように構成された情報を送信してもよく、仮想空間は、仮想ルームを含む。ステップ5020において、コンピューティング・システムは、仮想ルームに関連付けられている1つまたは複数の通知を受信してもよい。ステップ5030において、コンピューティング・システムは、1つまたは複数の通知それぞれについて、通知により伝達される情報に関する第1のユーザのアフィニティに基づいてスコアを計算してもよい。ステップ5040において、コンピューティング・システムは、閾値スコアよりも高いスコアを有することに基づいて、特定の通知を選択してもよい。ステップ5050において、コンピューティング・システムは、仮想ルームの仮想サイン上に特定の通知の表現をレンダリングするように構成された情報を送信してもよい。特定の実施形態では、適切な場合、図50の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図50の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図50の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図50の方法の特定のステップを含み、仮想サイン上で通知を表示するための例示的な方法を説明および図示するが、本開示は、適切な場合、図50の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図50の方法のステップのいずれも含まない任意適切なステップを含み、仮想サイン上で通知を表示するための任意適切な方法を企図する。さらに、本開示は、図50の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図50の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図51は、ソーシャル・コメンタリ・アイテムを表現する操作可能な仮想オブジェクトをレンダリングするための例示的な方法5100を示している。この方法は、ステップ5110で開始してもよく、コンピューティング・システムは、第1のユーザに関連付けられている表示装置に仮想空間をレンダリングするように構成された情報を送信してもよい。ステップ5120において、コンピューティング・システムは、仮想空間においてソーシャル・コメンタリ・アイテムをレンダリングするように構成された情報を送信してもよく、ソーシャル・コメンタリ・アイテムは、オンライン・ソーシャル・ネットワークのインタフェースを表示する仮想空間の領域内にレンダリングされる。ステップ5130において、コンピューティング・システムは、第1のユーザの入力装置からグラブ入力を受信してもよく、グラブ入力は、ソーシャル・コメンタリ・アイテムに関連付けられている。ステップ5140において、コンピューティング・システムは、ソーシャル・コメンタリ・アイテムを表現する仮想オブジェクトをレンダリングするように構成された情報を送信してもよく、仮想オブジェクトは、第1のユーザにより操作可能である。特定の実施形態では、適切な場合、図51の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図51の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図51の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図51の方法の特定のステップを含み、ソーシャル・コメンタリ・アイテムを表現する操作可能な仮想オブジェクトをレンダリングするための例示的な方法を説明および図示するが、本開示は、適切な場合、図51の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図51の方法のステップのいずれも含まない任意適切なステップを含み、ソーシャル・コメンタリ・アイテムを表現する操作可能な仮想オブジェクトをレンダリングするための任意適切な方法を企図する。さらに、本開示は、図51の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図51の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図52は、仮想空間の俯瞰を提示するとともに仮想空間内でユーザを再位置決めするための例示的な方法5200を示している。この方法は、ステップ5210で開始してもよく、コンピューティング・システムは、第1のユーザに関連付けられている表示装置に仮想空間の地上視点をレンダリングするように構成された情報を送信してもよく、仮想空間は、仮想空間の第1の場所に対応する第1のスポットにおける第1のユーザの表現を含み、仮想空間は、仮想空間の第2の場所に対応する第2のスポットをさらに含む。ステップ5220において、コンピューティング・システムは、仮想空間の俯瞰を呼び出す入力を第1のユーザから受け付けてもよい。ステップ5230において、コンピューティング・システムは、俯瞰をレンダリングするように構成された情報を送信してもよく、俯瞰は、第1のスポットの表示および第2のスポットの表示を含む。ステップ5240において、コンピューティング・システムは、第2のスポットを選択する入力を第1のユーザから受け付けてもよい。ステップ5250において、コンピューティング・システムは、仮想空間の地上視点における第2のスポットでの第1のユーザの表現をレンダリングするように構成された情報を送信してもよい。特定の実施形態では、適切な場合、図52の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図52の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図52の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図52の方法の特定のステップを含み、仮想空間の俯瞰を提示するとともに仮想空間内でユーザを再位置決めするための例示的な方法を説明および図示するが、本開示は、適切な場合、図52の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図52の方法のステップのいずれも含まない任意適切なステップを含み、仮想空間の俯瞰を提示するとともに仮想空間内でユーザを再位置決めするための任意適切な方法を企図する。さらに、本開示は、図52の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図52の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図53は、仮想エクスペリエンスを一時停止するための例示的な方法5300を示している。この方法は、ステップ5310で開始してもよく、コンピューティング・システムは、第1のユーザに関連付けられている表示装置に仮想空間をレンダリングするように構成された情報を送信してもよく、仮想空間は、仮想エクスペリエンスを第1のユーザに提供する。ステップ5320において、コンピューティング・システムは、一時停止モードに入る一時停止入力を第1のユーザから受け付けてもよい。ステップ5330において、コンピューティング・システムは、第1のユーザを一時停止モードに入らせてもよく、仮想空間内の仮想エクスペリエンスは、第1のユーザに対して一時停止される。特定の実施形態では、適切な場合、図53の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図53の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図53の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図53の方法の特定のステップを含み、仮想エクスペリエンスを一時停止するための例示的な方法を説明および図示するが、本開示は、適切な場合、図53の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図53の方法のステップのいずれも含まない任意適切なステップを含み、仮想エクスペリエンスを一時停止するための任意適切な方法を企図する。さらに、本開示は、図53の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図53の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図54は、ユーザの仮想表現をカスタマイズするための例示的な方法5400を示している。この方法は、ステップ5410で開始してもよく、コンピューティング・システムは、ユーザに関連付けられている表示装置に仮想ルームをレンダリングするように構成された情報を送信してもよく、仮想ルームは、ユーザの視覚的表現およびユーザの視覚的表現の仮想反射を表示する仮想鏡を含む。ステップ5420において、コンピューティング・システムは、ユーザの視覚的表現上の可視の特徴を選択する第1の入力をユーザから受け付けてもよい。ステップ5430において、コンピューティング・システムは、1つまたは複数の代替的オプションをユーザに提示してもよく、代替的オプションはそれぞれ、選択された可視の特徴の変形に対応する。ステップ5440において、コンピューティング・システムは、選択された可視の特徴の特定の変形に対応する特定の代替的オプションを選択する第2の入力をユーザから受け付けてもよい。ステップ5450において、コンピューティング・システムは、選択された可視の特徴の特定の変形が実施されるように、ユーザの視覚的表現を修正させてもよい。特定の実施形態では、適切な場合、図54の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図54の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図54の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図54の方法の特定のステップを含み、ユーザの仮想表現をカスタマイズするための例示的な方法を説明および図示するが、本開示は、適切な場合、図54の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図54の方法のステップのいずれも含まない任意適切なステップを含み、ユーザの仮想表現をカスタマイズするための任意適切な方法を企図する。さらに、本開示は、図54の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図54の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図55は、仮想コンテンツを変更して共有するための例示的な方法5500を示している。この方法は、ステップ5510で開始してもよく、コンピューティング・システムは、ユーザに関連付けられている表示装置に仮想ルームをレンダリングするように構成された情報を送信してもよく、仮想ルームは、第1のユーザの表現を含む。ステップ5520において、コンピューティング・システムは、コンテンツ・アイテムを選択する入力を第1のユーザから受け付けてもよい。ステップ5530において、コンピューティング・システムは、仮想空間にコンテンツ・アイテムを仮想オブジェクトとしてレンダリングするように構成された情報を送信してもよい。ステップ5540において、コンピューティング・システムは、コンテンツ・アイテムを修正する修正入力を第1のユーザから受け付けてもよい。ステップ5550において、コンピューティング・システムは、コンテンツ・アイテムを修正させてもよい。ステップ5560において、コンピューティング・システムは、修正されたコンテンツ・アイテムをオンライン・コンテンツ共有ネットワーク上で共有する共有入力を第1のユーザから受け付けてもよい。ステップ5570において、コンピューティング・システムは、修正されたコンテンツ・アイテムをオンライン・コンテンツ共有ネットワーク上で共有させてもよい。特定の実施形態では、適切な場合、図55の方法の1つまたは複数のステップを繰り返してもよい。本開示は、図55の方法の特定のステップが特定の順序で発生するものとして説明および図示するが、本開示は、図55の方法の任意適切なステップが任意適切な順序で発生することを企図する。さらに、本開示は、図55の方法の特定のステップを含み、仮想コンテンツを変更して共有するための例示的な方法を説明および図示するが、本開示は、適切な場合、図55の方法のステップのうちの全部もしくは一部を含み得る任意適切なステップまたは図55の方法のステップのいずれも含まない任意適切なステップを含み、仮想コンテンツを変更して共有するための任意適切な方法を企図する。さらに、本開示は、図55の方法の特定のステップを実行する特定の構成要素、装置、またはシステムを説明および図示するが、本開示は、図55の方法の任意適切なステップを実行する任意適切な構成要素、装置、またはシステムの任意適切な組み合わせを企図する。
図56は、例示的コンピュータ・システム5600を示す。特定の実施形態では、1つまたは複数のコンピュータ・システム5600が、本明細書において説明または例示された1つまたは複数の方法の1つまたは複数のステップを実施する。特定の実施形態では、1つまたは複数のコンピュータ・システム5600が、本明細書において説明または図示された機能を提供する。特定の実施形態では、1つまたは複数のコンピュータ・システム5600で実行されるソフトウェアが、本明細書において説明もしくは図示された1つもしくは複数の方法の1つもしくは複数のステップを実施するか、または本明細書において説明もしくは図示された機能を提供する。特定の実施形態は、1つまたは複数のコンピュータ・システム5600の1つまたは複数の部分を含む。本明細書において、適切な場合、コンピュータ・システムに対する参照はコンピューティング装置を含む(encompass)ことができ、逆も同様である。さらに、適切な場合、コンピュータ・システムに対する参照は、1つまたは複数のコンピュータ・システムを含むことができる。
本開示は、任意の適切な数のコンピュータ・システム5600を企図する。本開示は、任意の適切な物理的形態をとるコンピュータ・システム5600を企図する。限定ではなく例として、コンピュータ・システム5600は、組込みコンピュータ・システム、システム・オン・チップ(SOC)、シングル・ボード・コンピュータ・システム(SBC)(例えば、コンピュータ・オン・モジュール(COM)やシステム・オン・モジュール(SOM)など)デスクトップ・コンピュータ・システム、ラップトップもしくはノートブック・コンピュータ・システム、対話型キオスク、メインフレーム、コンピュータ・システムのメッシュ、携帯電話、携帯情報端末(PDA)、サーバ、タブレット・コンピュータ・システム、拡張/バーチャルリアリティデバイス、またはこれらのうちの2つ以上の組合せでよい。適切な場合、コンピュータ・システム5600は、1つまたは複数のコンピュータ・システム5600を含むことができ、一体型または分散型でよく、複数の場所にわたるものでよく、複数のマシンにわたるものでよく、複数のデータセンタにわたるものでよく、またはクラウド内に常駐することができ、クラウドは、1つまたは複数のネットワーク内の1つまたは複数のクラウド構成要素を含むことができる。適切な場合、1つまたは複数のコンピュータ・システム5600は、実質的な空間的または時間的な限定なしに、本明細書で説明または図示される1つまたは複数の方法の1つまたは複数のステップを実施することができる。限定ではなく例として、1つまたは複数のコンピュータ・システム5600は、本明細書で説明または図示される1つまたは複数の方法の1つまたは複数のステップをリアル・タイムに、またはバッチ・モードで実施することができる。適切な場合、1つまたは複数のコンピュータ・システム5600は、本明細書で説明または図示される1つまたは複数の方法の1つまたは複数のステップを異なる時刻または異なる場所で実施することができる。
特定の実施形態では、コンピュータ・システム5600は、プロセッサ5602、メモリ5604、ストレージ5606、入力/出力(I/O)インタフェース1008、通信インタフェース5610、およびバス5612を含む。本開示は、特定の構成の、特定の数の特定の構成要素を有する特定のコンピュータ・システムを説明および図示するが、本開示は、任意の適切な構成の、任意の適切な数の任意の適切な構成要素を有する任意の適切なコンピュータ・システムを企図する。
特定の実施形態では、プロセッサ5602は、コンピュータ・プログラムを構成するような命令を実行するハードウェアを含む。限定ではなく例として、命令を実行するために、プロセッサ5602は、内部レジスタ、内部キャッシュ、メモリ5604、またはストレージ5606から命令を取り出し(またはフェッチし)、その命令を復号化および実行し、次いで内部レジスタ、内部キャッシュ、メモリ5604、またはストレージ5606に1つまたは複数の結果を書き込むことができる。特定の実施形態では、プロセッサ5602は、データ、命令、またはアドレスのための1つまたは複数の内部キャッシュを含む。本開示は、適切な場合、任意の適切な数の任意の適切な内部キャッシュを含むプロセッサ5602を企図する。限定ではなく例として、プロセッサ5602は、1つまたは複数の命令キャッシュ、1つまたは複数のデータ・キャッシュ、および1つまたは複数の変換ルックアサイド・バッファ(translation lookaside buffer : TLB)を含むことができる。命令キャッシュ内の命令は、メモリ5604またはストレージ5606内の命令のコピーでよく、命令キャッシュは、プロセッサ1002によるそうした命令の検索を加速することができる。データ・キャッシュ内のデータは、プロセッサ5602で実行中の命令が演算するためのメモリ5604またはストレージ5606内のデータ、プロセッサ5602で実行中の後続の命令によるアクセスのために、またはメモリ5604もしくはストレージ5606に書き込むために、プロセッサ5602で実行された以前の命令の結果、あるいは他の適切なデータのコピーでよい。データ・キャッシュは、プロセッサ5602による読取りまたは書込み演算を加速することができる。TLBは、プロセッサ5602のための仮想アドレス変換を加速することができる。特定の実施形態では、プロセッサ5602は、データ、命令、またはアドレス用の1つまたは複数の内部レジスタを含むことができる。本開示は、適切な場合、任意の適切な数の任意の適切な内部レジスタを含むプロセッサ5602を企図する。適切な場合、プロセッサ5602は、1つまたは複数の演算論理装置(ALU)を含むことができ、マルチコア・プロセッサでよく、または1つもしくは複数のプロセッサ5602を含むことができる。本開示は、特定のプロセッサを説明および図示するが、本開示は任意の適切なプロセッサを企図する。
特定の実施形態では、メモリ5604は、プロセッサ5602が実行するための命令、またはプロセッサ5602が演算するためのデータを格納するためのメイン・メモリを含む。限定ではなく例として、コンピュータ・システム5600は、ストレージ5606または別のソース(例えば、別のコンピュータ・システム5600など)からメモリ5604に命令をロードすることができる。次いで、プロセッサ5602は、メモリ5604から内部レジスタまたは内部キャッシュに命令をロードすることができる。命令を実行するために、プロセッサ5602は、内部レジスタまたは内部キャッシュから命令を取り出し、その命令を復号化する。命令の実行中または実行後に、プロセッサ5602は、1つまたは複数の結果(これは中間結果または最終結果でよい)を内部レジスタまたは内部キャッシュに書き込む。次いでプロセッサ5602は、そうした結果の1つまたは複数をメモリ5604に書き込む。特定の実施形態では、プロセッサ5602は、(ストレージ5606またはその他の場所ではなく)1つまたは複数の内部レジスタもしくは内部キャッシュ内、またはメモリ5604内の命令のみを実行し、(ストレージ5606または他の場所ではなく)1つまたは複数の内部レジスタもしくは内部キャッシュ内、またはメモリ5604内のデータのみに対して演算する。1つまたは複数のメモリ・バス(これはそれぞれアドレス・バスおよびデータ・バスを含むことができる)が、プロセッサ5602をメモリ5604に結合する。バス5612は、以下で説明するように、1つまたは複数のメモリ・バスを含む。特定の実施形態では、1つまたは複数のメモリ管理ユニット(MMU)が、プロセッサ5602とメモリ5604との間に常駐し、プロセッサ5602によって要求されたメモリ5604へのアクセスを可能にする。特定の実施形態では、メモリ5604は、ランダム・アクセス・メモリ(RAM)を含む。適切な場合、このRAMは、揮発性メモリでよい。適切な場合、このRAMは、ダイナミックRAM(DRAM)またはスタティックRAM(SRAM)でよい。さらに、適切な場合、このRAMは、単一ポートまたはマルチポートでよい。本開示は、任意の適切なRAMを企図する。適切な場合、メモリ5604は、1つまたは複数のメモリ5604を含む。本開示は特定のメモリを説明および図示するが、任意の適切なメモリを企図する。
特定の実施形態では、ストレージ5606は、データまたは命令用のマス・ストレージを含む。限定ではなく例として、ストレージ5606は、ハード・ディスク・ドライブ(HDD)、フロッピィ・ディスク・ドライブ、フラッシュ・メモリ、光ディスク、光磁気ディスク、磁気テープ、またはユニバーサル・シリアル・バス(USB)ドライブ、あるいはこれらのうちの2つ以上の組合せを含む。ストレージ5606は、適切な場合、取外し可能なまたは取外し不能(または固定)媒体を含む。ストレージ5606は、適切な場合、コンピュータ・システム5600の内部または外部でよい。特定の実施形態では、ストレージ5606は不揮発性固体メモリである。特定の実施形態では、ストレージ5606は、読取専用メモリ(ROM)を含む。適切な場合、このROMは、マスクプログラムされたROM(mask-programmed ROM)、プログラマブルROM(PROM)、消去可能PROM(EPROM)、電気消去可能PROM(EEPROM)、電気書換え可能ROM(EAROM : electrically alterable ROM)、またはフラッシュ・メモリ、あるいはこれらのうちの2つ以上の組合せでよい。本開示は、任意の適切な物理的形態をとるマス・ストレージ5606を企図する。適切な場合、ストレージ5606は、プロセッサ5602とストレージ5606との間の通信を可能にする1つまたは複数のストレージ制御ユニットを含む。適切な場合、ストレージ5606は、1つまたは複数のストレージ5606を含む。本開示は、特定のストレージを説明および図示するが、本開示は任意の適切なストレージを企図する。
特定の実施形態では、I/Oインタフェース5608は、コンピュータ・システム5600と1つまたは複数のI/O装置との間の通信のための1つまたは複数のインタフェースを提供するハードウェア、ソフトウェア、またはその両方を含む。コンピュータ・システム5600は、適切な場合、これらのI/O装置のうちの1つまたは複数を含む。これらのI/O装置のうちの1つまたは複数は、人とコンピュータ・システム5600との間の通信を可能にする。限定ではなく例として、I/O装置は、キーボード、キーパッド、マイクロフォン、モニタ、マウス、プリンタ、スキャナ、スピーカ、スチル・カメラ、スタイラス、タブレット、タッチ・スクリーン、トラックボール、ビデオ・カメラ、別の適切なI/O装置、またはこれらのうちの2つ以上の組合せを含む。I/O装置は1つまたは複数のセンサを含む。本開示は、任意の適切なI/O装置およびそのための任意の適切なI/Oインタフェース5608を企図する。適切な場合、I/Oインタフェース5608は、プロセッサ5602がこれらのI/O装置のうちの1つまたは複数を駆動することを可能にする1つまたは複数のデバイス・ドライバまたはソフトウェア・ドライバを含む。I/Oインタフェース5608は、適切な場合、1つまたは複数のI/Oインタフェース5608を含む。本開示は、特定のI/Oインタフェースを説明および図示するが、本開示は任意の適切なI/Oインタフェースを企図する。
特定の実施形態では、通信インタフェース5610は、コンピュータ・システム5600と、1つまたは複数の別のコンピュータ・システム5600あるいは1つまたは複数のネットワークとの間の通信(例えば、パケット・ベースの通信など)用の1つまたは複数のインタフェースを提供するハードウェア、ソフトウェア、またはその両方を含む。限定ではなく例として、通信インタフェース5610は、イーサネットまたは他のワイヤ・ベースのネットワークと通信するネットワーク・インターフェース・コントローラ(NIC)またはネットワーク・アダプタ、あるいはWI−FIネットワークなどのワイヤレス・ネットワークと通信するワイヤレスNIC(WNIC)またはワイヤレス・アダプタを含む。本開示は、任意の適切なネットワークおよびそのための任意の適切な通信インタフェース5610を企図する。限定ではなく例として、コンピュータ・システム5600は、アドホック・ネットワーク、パーソナル・エリア・ネットワーク(PAN)、ローカル・エリア・ネットワーク(LAN)、広域ネットワーク(WAN)、大都市圏ネットワーク(MAN)、またはインターネットの1つもしくは複数の部分、あるいはこれらのうちの2つ以上の組合せと通信することができる。これらのネットワークのうちの1つまたは複数の1つまたは複数の部分は、ワイヤードまたはワイヤレスでよい。1例を挙げると、コンピュータ・システム5600は、ワイヤレスPAN(WPAN)(例えば、BLUETOOTH WPANなど)、Wi−Fiネットワーク、WI−MAXネットワーク、携帯電話網(例えば、移動体通信用グローバル・システム(GSM)ネットワークなど)、または他の適切なワイヤレス・ネットワーク、あるいはこれらのうちの2つ以上の組合せと通信することができる。コンピュータ・システム5600は、適切な場合、これらのネットワークのいずれかに関する任意の適切な通信インタフェース5610を含む。通信インタフェース5610は、適切な場合、1つまたは複数の通信インタフェース5610を含む。本開示は、特定の通信インタフェースを説明および図示するが、本開示は任意の適切な通信インタフェースを企図する。
特定の実施形態では、バス5612は、コンピュータ・システム5600の構成要素を互いに結合するハードウェア、ソフトウェア、またはその両方を含む。限定ではなく例として、バス5612は、アクセラレーテッド・グラフィックス・ポート(Accelerated Graphics Port : AGP)または他のグラフィックス・バス、拡張業界標準アーキテクチャ(EISA : Enhanced Industry Standard Architecture)バス、フロント・サイド・バス(FSB)、HYPERTRANSPORT(HT)相互接続、業界標準アーキテクチャ(ISA)バス、INFINIBAND相互接続、低ピン・カウント(LPC : low-pin-count)バス、メモリ・バス、マイクロ・チャネル・アーキテクチャ(MCA)バス、周辺装置相互接続(PCI)バス、PCI−Express(PCIe)バス、シリアル・アドバンスド・テクノロジー・アタッチメント(SATA : serial advanced technology attachment)バス、映像電子機器標準協会(Video Electronics Standards Association)ローカル(VLB)バス、または別の適切なバス、あるいはこれらの2つ以上の組合せを含むことができる。バス5612は、適切な場合、1つまたは複数のバス5612を含むことができる。本開示は、特定のバスを説明および図示するが、任意の適切なバスまたは相互接続を企図する。
本明細書では、コンピュータ可読非一時的記憶媒体は、適切な場合、1つまたは複数の半導体ベースの、または他の集積回路(IC)(例えば、フィールド・プログラマブル・ゲート・アレイ(FPGA)または特定用途向けIC(ASIC)など)、ハード・ディスク・ドライブ(HDD)、ハイブリッド・ハード・ドライブ(HHD)、光ディスク、光ディスク・ドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピィ・ディスケット、フロッピィ・ディスク・ドライブ(FDD)、磁気テープ、固体ドライブ(SSD)、RAMドライブ、セキュア・デジタル・カードもしくはドライブ、任意の他の適切なコンピュータ可読非一時的記憶媒体、またはこれらの2つ以上の任意の適切な組合せを含むことができる。コンピュータ可読非一時的記憶媒体は、適切な場合、揮発性、不揮発性、または揮発性と不揮発性の組合せでよい。
本明細書では、別段に明記されていない限り、または文脈によって示されていない限り、「または」は排他的ではなく包含的である。したがって、本明細書では、別段に明記されていない限り、または文脈によって示されていない限り、「AまたはB」は「A、B、またはその両方」を意味する。さらに、別段に明記されていない限り、または文脈によって示されていない限り、「および」は協同(joint)および個々(several)の両方である。したがって、本明細書では、別段に明記されていない限り、または文脈によって示されていない限り、「AおよびB」は、「AおよびBが一緒に、または個別に」(A and B, jointly or severally)を意味する。
本開示の範囲は、当業者なら理解するはずである、本明細書で説明または図示される例示的実施形態に対するすべての変更、置換、変形、改変、および修正を包含する。本開示の範囲は、本明細書で説明または図示される例示的実施形態に限定されない。さらに、本開示は、本明細書のそれぞれの実施形態が特定の構成要素、要素、機能、動作、またはステップを含むものとして説明および図示するが、これらの実施形態のいずれの、当業者なら理解するはずである、本明細書のどこかで説明または図示される構成要素、要素、機能、動作、またはステップのいずれかの任意の組合せまたは置換を含むことができる。さらに、特定の機能を実施するように適合され、配置され、実施することが可能であり、実施するように構成され、実施することが可能にされ、実施するように動作可能である装置またはシステムあるいは装置またはシステムの構成要素に対する添付の特許請求項の範囲での参照は、その装置、システム、または構成要素がそのように適合され、配置され、可能であり、構成され、可能にされ、動作可能にされる限り、その装置、システム、構成要素またはその特定の機能が活性化され、オンにされ、またはロック解除されるか否かに関わらず、その装置、システム、構成要素を包含する。

Claims (32)

  1. コンピューティング・システムによる方法であって、
    ユーザに関連付けられている視線追跡入力装置から、レンダリング仮想空間の領域中の第1の焦点を示す視線入力を受け取ること、
    トリガ・イベントの発生を判定すること、
    前記第1の焦点に関連付けられているヒット・ターゲットを選択させること、
    前記ヒット・ターゲットの選択に対する応答を前記ユーザに関連付けられている表示装置にレンダリングするように構成された情報を送ること、を備える方法。
  2. 前記視線追跡入力装置が、ヘッドマウント・デバイスであり、前記第1の焦点が、前記ヘッドマウント・デバイスに関連付けられている位置測定と角度測定とに基づいて決定される、請求項1に記載の方法。
  3. 前記トリガ・イベントが、前記視線入力が閾値期間にわたって前記第1の焦点に向けられた旨の判定に基づいて発生する、請求項1に記載の方法。
  4. 前記トリガ・イベントが、前記視線入力が前記第1の焦点に向けられている間に別の入力が受け取られた場合に発生する、請求項1に記載の方法。
  5. 前記別の入力が、コントローラ・デバイスで受け取ったジェスチャ入力を含む、請求項4に記載の方法。
  6. 前記別の入力が、入力装置上の入力領域のタップまたはボタンを押すことを含む、請求項4に記載の方法。
  7. 前記ヒット・ターゲットが、前記レンダリング仮想空間における、仮想オブジェクトまたはインタラクティブ要素の周りの境界により規定されている副領域である、請求項1に記載の方法。
  8. 前記ヒット・ターゲットが、可動スクラバに関連付けられており、前記応答が、前記可動スクラバの選択を含み、
    第2の焦点に向けられた後続の視線入力を受け取ること、
    前記後続の視線入力に応答して、前記第2の焦点に向かう方向に前記スクラバ要素を移動させること、をさらに備える請求項1に記載の方法。
  9. 前記可動スクラバが、ビデオの再生に関連付けられているスクラバ要素に関連付けられている構成要素であり、前記スクラバ要素に関する前記可動スクラバの位置が、前記ビデオ中のある時点に関連付けられている、請求項8に記載の方法。
  10. 前記可動スクラバが、メディア・アイテムのスライドショーの再生に関連付けられているスクラバ要素に関連付けられている構成要素であり、前記スクラバ要素に関する前記可動スクラバの位置が、現在表示されているメディア・アイテムが表示される継続時間に関連付けられている、請求項8に記載の方法。
  11. 前記可動スクラバが、アイテムのメニューに関連付けられているスクラバ要素に関連付けられている構成要素であり、前記スクラバ要素に関する前記可動スクラバの位置が、前記アイテムのメニュー中の場所に関連付けられている、請求項8に記載の方法。
  12. 前記ヒット・ターゲットが、インタラクティブ要素に関連付けられており、前記ヒット・ターゲットの選択が、前記現在のレンダリング仮想空間から別の仮想空間への遷移を生じさせ、前記遷移には、前記現在のレンダリング仮想空間と前記別の仮想空間との間の遷移効果が用いられる、請求項1に記載の方法。
  13. 前記現在のレンダリング仮想空間が、第1のコンテンツ・アイテムを含み、前記別の仮想空間が、第2のコンテンツ・アイテムを含む、請求項12に記載の方法。
  14. 前記遷移効果が、テレスコーピング効果である、請求項12に記載の方法。
  15. 前記ヒット・ターゲットが、ドック要素に関連付けられており、前記ドック要素が、前記仮想空間とのインタラクションまたはユーザ・エクスペリエンスの制御のための異なる選択肢のメニューを提供するユーザ・インタフェース要素であり、前記ヒット・ターゲットの選択によって、前記ドック要素がドーマント状態からアクティブ状態に遷移される、請求項1に記載の方法。
  16. 前記コンピューティング・システムが、リモート・サーバを備える、請求項1に記載の方法。
  17. ソフトウェアを備える1つまたは複数のコンピュータ可読非一時的記憶媒体であって、
    実行された場合に、前記ソフトウェアは、
    ユーザに関連付けられている視線追跡入力装置から、レンダリング仮想空間の領域中の第1の焦点を示す視線入力を受け取ること、
    トリガ・イベントの発生を判定すること、
    前記第1の焦点に関連付けられているヒット・ターゲットを選択させること、
    前記ヒット・ターゲットの選択に対する応答を前記ユーザに関連付けられている表示装置にレンダリングするように構成された情報を送ること、を行うように動作可能である、1つまたは複数のコンピュータ可読非一時的記憶媒体。
  18. 前記ヒット・ターゲットが、可動スクラバに関連付けられており、前記応答が、前記可動スクラバの選択を含み、
    第2の焦点に向けられた後続の視線入力を受け取ること、
    前記後続の視線入力に応答して、前記第2の焦点に向かう方向に前記スクラバ要素を移動させること、をさらに備える請求項17に記載の1つまたは複数のコンピュータ可読非一時的記憶媒体。
  19. 前記可動スクラバが、ビデオの再生に関連付けられているスクラバ要素に関連付けられている構成要素であり、前記スクラバ要素に関する前記可動スクラバの位置が、前記ビデオ中のある時点に関連付けられている、請求項18に記載の1つまたは複数のコンピュータ可読非一時的記憶媒体。
  20. システムであって、
    1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサに結合され、前記1つまたは複数のプロセッサにより実行可能な複数の命令を含む非一時的メモリと、を備え、
    前記1つまたは複数のプロセッサが、前記複数の命令を実行する場合に、
    ユーザに関連付けられている視線追跡入力装置から、レンダリング仮想空間の領域中の第1の焦点を示す視線入力を受け取ること、
    トリガ・イベントの発生を判定すること、
    前記第1の焦点に関連付けられているヒット・ターゲットを選択させること、
    前記ヒット・ターゲットの選択に対する応答を前記ユーザに関連付けられている表示装置にレンダリングするように構成された情報を送ること、を行うように動作可能である、システム。
  21. コンピューティング・システムによる方法であって、
    ユーザに関連付けられている視線追跡入力装置から、レンダリング仮想空間の領域中の第1の焦点を示す視線入力を受け取ること、
    トリガ・イベントの発生を判定すること、
    前記第1の焦点に関連付けられているヒット・ターゲットを選択させること、
    前記ヒット・ターゲットの選択に対する応答を前記ユーザに関連付けられている表示装置にレンダリングするように構成された情報を送ること、を備える方法。
  22. 前記視線追跡入力装置が、ヘッドマウント・デバイスであり、前記第1の焦点が、前記ヘッドマウント・デバイスに関連付けられている位置測定と角度測定とに基づいて決定される、請求項21に記載の方法。
  23. 前記トリガ・イベントが、前記視線入力が閾値期間にわたって前記第1の焦点に向けられた旨の判定に基づいて発生すること、および
    前記トリガ・イベントが、前記視線入力が前記第1の焦点に向けられている間に別の入力が受け取られた場合に発生すること、のうちの少なくとも一方と、
    任意選択として、前記別の入力が、コントローラ・デバイスで受け取られたジェスチャ入力を含むこと、および
    任意選択として、前記別の入力が、入力装置上の入力領域のタップまたはボタンを押すことを含むこと、のうちの少なくとも一方とを特徴とする請求項21または22に記載の方法。
  24. 前記ヒット・ターゲットが、前記レンダリング仮想空間における、仮想オブジェクトまたはインタラクティブ要素の周りの境界により規定されている副領域である、請求項21〜23のいずれか一項に記載の方法。
  25. 前記方法は、
    前記ヒット・ターゲットが、可動スクラバに関連付けられており、前記応答が、前記可動スクラバの選択を含み、
    第2の焦点に向けられた後続の視線入力を受け取ること、
    前記後続の視線入力に応答して、前記第2の焦点に向かう方向に前記スクラバ要素を移動させること、をさらに備え、
    任意選択として、前記可動スクラバが、ビデオの再生に関連付けられているスクラバ要素に関連付けられている構成要素であり、前記スクラバ要素に関する前記可動スクラバの位置が、前記ビデオ中のある時点に関連付けられていること、
    任意選択として、前記可動スクラバが、メディア・アイテムのスライドショーの再生に関連付けられているスクラバ要素に関連付けられている構成要素であり、前記スクラバ要素に関する前記可動スクラバの位置が、現在表示されているメディア・アイテムが表示される継続時間に関連付けられていること、および
    任意選択として、前記可動スクラバが、アイテムのメニューに関連付けられているスクラバ要素に関連付けられている構成要素であり、前記スクラバ要素に関する前記可動スクラバの位置が、前記アイテムのメニュー中の場所に関連付けられていること、のうちの少なくとも一方を特徴とする請求項21〜24のいずれか一項に記載の方法。
  26. 前記ヒット・ターゲットが、インタラクティブ要素に関連付けられており、前記ヒット・ターゲットの選択が、前記現在のレンダリング仮想空間から別の仮想空間への遷移を生じさせ、前記遷移には、前記現在のレンダリング仮想空間と前記別の仮想空間との間の遷移効果が用いられ、
    任意選択として、前記現在のレンダリング仮想空間が、第1のコンテンツ・アイテムを含み、前記別の仮想空間が、第2のコンテンツ・アイテムを含むこと、および
    前記遷移効果が、テレスコーピング効果であること、のうちの少なくとも一方を特徴とする請求項21〜25のいずれか一項に記載の方法。
  27. 前記ヒット・ターゲットが、ドック要素に関連付けられており、前記ドック要素が、前記仮想空間とのインタラクションまたはユーザ・エクスペリエンスの制御のための異なる選択肢のメニューを提供するユーザ・インタフェース要素であり、前記ヒット・ターゲットの選択によって、前記ドック要素がドーマント状態からアクティブ状態に遷移される、請求項21〜26のいずれか一項に記載の方法。
  28. 前記コンピューティング・システムが、リモート・サーバを備える、請求項21〜27のいずれか一項に記載の方法。
  29. ソフトウェアを備える1つまたは複数のコンピュータ可読非一時的記憶媒体であって、
    実行された場合に、前記ソフトウェアは、
    ユーザに関連付けられている視線追跡入力装置から、レンダリング仮想空間の領域中の第1の焦点を示す視線入力を受け取ること、
    トリガ・イベントの発生を判定すること、
    前記第1の焦点に関連付けられているヒット・ターゲットを選択させること、
    前記ヒット・ターゲットの選択に対する応答を前記ユーザに関連付けられている表示装置にレンダリングするように構成された情報を送ること、を行うように動作可能である、1つまたは複数のコンピュータ可読非一時的記憶媒体。
  30. 前記ヒット・ターゲットが、可動スクラバに関連付けられており、前記応答が、前記可動スクラバの選択を含み、
    第2の焦点に向けられた後続の視線入力を受け取ること、
    前記後続の視線入力に応答して、前記第2の焦点に向かう方向に前記スクラバ要素を移動させること、をさらに備える請求項29に記載の1つまたは複数のコンピュータ可読非一時的記憶媒体。
  31. 前記可動スクラバが、ビデオの再生に関連付けられているスクラバ要素に関連付けられている構成要素であり、前記スクラバ要素に関する前記可動スクラバの位置が、前記ビデオ中のある時点に関連付けられている、請求項30に記載の1つまたは複数のコンピュータ可読非一時的記憶媒体。
  32. システムであって、
    1つまたは複数のプロセッサと、
    前記1つまたは複数のプロセッサに結合され、前記1つまたは複数のプロセッサにより実行可能な命令を含む非一時的メモリと、を備え、
    前記1つまたは複数のプロセッサが、前記命令を実行する場合に、
    ユーザに関連付けられている視線追跡入力装置から、レンダリング仮想空間の領域中の第1の焦点を示す視線入力を受け取ること、
    トリガ・イベントの発生を判定すること、
    前記第1の焦点に関連付けられているヒット・ターゲットを選択させること、
    前記ヒット・ターゲットの選択に対する応答を前記ユーザに関連付けられている表示装置にレンダリングするように構成された情報を送ること、を行うように動作可能である、システム。
JP2019517840A 2016-10-04 2017-10-03 仮想空間におけるユーザ・インタラクションのためのコントロールおよびインタフェース Pending JP2019536131A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201662404152P 2016-10-04 2016-10-04
US62/404,152 2016-10-04
US201762485886P 2017-04-14 2017-04-14
US62/485,886 2017-04-14
US15/722,437 US20180095635A1 (en) 2016-10-04 2017-10-02 Controls and Interfaces for User Interactions in Virtual Spaces
US15/722,437 2017-10-02
PCT/US2017/054860 WO2018067508A1 (en) 2016-10-04 2017-10-03 Controls and interfaces for user interactions in virtual spaces

Publications (1)

Publication Number Publication Date
JP2019536131A true JP2019536131A (ja) 2019-12-12

Family

ID=60019811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019517840A Pending JP2019536131A (ja) 2016-10-04 2017-10-03 仮想空間におけるユーザ・インタラクションのためのコントロールおよびインタフェース

Country Status (8)

Country Link
US (1) US20180095635A1 (ja)
EP (1) EP3306444A1 (ja)
JP (1) JP2019536131A (ja)
KR (1) KR20190053278A (ja)
CN (1) CN109937394A (ja)
CA (1) CA3039347A1 (ja)
IL (1) IL265756A (ja)
WO (1) WO2018067508A1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020039568A1 (ja) * 2018-08-23 2021-08-12 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP2022523284A (ja) * 2020-02-12 2022-04-22 グーグル エルエルシー 通知スロットリング
JP2022180412A (ja) * 2020-03-27 2022-12-06 株式会社コナミデジタルエンタテインメント 映像配信システム、映像配信制御方法及びコンピュータプログラム
US11606221B1 (en) 2021-12-13 2023-03-14 International Business Machines Corporation Event experience representation using tensile spheres
JP7321471B1 (ja) 2022-06-21 2023-08-07 グリー株式会社 情報処理システム、情報処理方法、及びプログラム
JP7389270B2 (ja) 2020-03-27 2023-11-29 アップル インコーポレイテッド 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース
US11972043B2 (en) 2014-06-19 2024-04-30 Apple Inc. User detection by a computing device

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9690374B2 (en) * 2015-04-27 2017-06-27 Google Inc. Virtual/augmented reality transition system and method
EP3345184A1 (en) * 2015-09-02 2018-07-11 THOMSON Licensing Method, apparatus and system for facilitating navigation in an extended scene
US11269480B2 (en) * 2016-08-23 2022-03-08 Reavire, Inc. Controlling objects using virtual rays
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation
CA3046329A1 (en) * 2016-12-06 2018-06-14 Donn M. GURULE Systems and methods for a chronological-based search engine
US10664993B1 (en) 2017-03-13 2020-05-26 Occipital, Inc. System for determining a pose of an object
JP2018163461A (ja) * 2017-03-24 2018-10-18 ソニー株式会社 情報処理装置、および情報処理方法、並びにプログラム
KR102395030B1 (ko) * 2017-06-09 2022-05-09 한국전자통신연구원 가상 콘텐츠 원격 제어 방법 및 이를 위한 장치
US10386647B1 (en) * 2017-07-11 2019-08-20 Facebook, Inc. Magnetic interpupillary distance adjustment
JP6470356B2 (ja) * 2017-07-21 2019-02-13 株式会社コロプラ 仮想空間を提供するコンピュータで実行されるプログラム、方法、および当該プログラムを実行する情報処理装置
US11099392B2 (en) * 2017-10-18 2021-08-24 Hewlett-Packard Development Company, L.P. Stabilized and tracked enhanced reality images
JP7042644B2 (ja) * 2018-02-15 2022-03-28 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、画像生成方法およびコンピュータプログラム
USD878420S1 (en) * 2018-03-16 2020-03-17 Magic Leap, Inc. Display panel or portion thereof with a transitional mixed reality graphical user interface
CN108629121B (zh) * 2018-05-08 2022-04-01 山东师范大学 基于避免恐怖谷效应的虚拟现实人群仿真方法和系统
US10924566B2 (en) 2018-05-18 2021-02-16 High Fidelity, Inc. Use of corroboration to generate reputation scores within virtual reality environments
US20190354189A1 (en) * 2018-05-18 2019-11-21 High Fidelity, Inc. Use of gestures to generate reputation scores within virtual reality environments
US10712900B2 (en) * 2018-06-06 2020-07-14 Sony Interactive Entertainment Inc. VR comfort zones used to inform an In-VR GUI editor
US11195336B2 (en) * 2018-06-08 2021-12-07 Vulcan Inc. Framework for augmented reality applications
WO2020032239A1 (ja) * 2018-08-09 2020-02-13 株式会社ジオクリエイツ 情報出力装置、設計支援システム、情報出力方法及び情報出力プログラム
US11790569B2 (en) 2018-09-07 2023-10-17 Apple Inc. Inserting imagery from a real environment into a virtual environment
WO2020072034A1 (en) * 2018-10-01 2020-04-09 Leia Inc. Holographic reality system, multiview display, and method
BR112020014245A2 (pt) * 2018-10-31 2021-05-25 Toshiba Mitsubishi-Electric Industrial Systems Corporation sistema ihm web scada
WO2020095784A1 (ja) * 2018-11-06 2020-05-14 日本電気株式会社 表示制御装置、表示制御方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
KR102237608B1 (ko) * 2019-01-22 2021-04-09 (주)스코넥엔터테인먼트 가상 현실 제어 시스템
US20190268173A1 (en) * 2019-02-11 2019-08-29 Suraj Shakthi Sarja Virtual World Processing System and Method Thereof
US10846898B2 (en) * 2019-03-28 2020-11-24 Nanning Fugui Precision Industrial Co., Ltd. Method and device for setting a multi-user virtual reality chat environment
KR102149732B1 (ko) * 2019-04-17 2020-08-31 라쿠텐 인코포레이티드 표시 제어 장치, 표시 제어 방법, 프로그램, 및 비일시적인 컴퓨터 판독 가능한 정보 기록 매체
US11036987B1 (en) * 2019-06-27 2021-06-15 Facebook Technologies, Llc Presenting artificial reality content using a mirror
US11145126B1 (en) 2019-06-27 2021-10-12 Facebook Technologies, Llc Movement instruction using a mirror in an artificial reality environment
US11055920B1 (en) * 2019-06-27 2021-07-06 Facebook Technologies, Llc Performing operations using a mirror in an artificial reality environment
CN114127795A (zh) * 2019-07-04 2022-03-01 安尼派恩有限公司 用于支援用户之间的体验分享的方法、系统及非暂时性计算机可读记录介质
US20220291744A1 (en) * 2019-09-03 2022-09-15 Sony Group Corporation Display processing device, display processing method, and recording medium
CN110716646A (zh) * 2019-10-15 2020-01-21 北京市商汤科技开发有限公司 一种增强现实数据呈现方法、装置、设备及存储介质
DE112020005081T5 (de) * 2019-10-21 2022-08-04 Sony Group Corporation Informationsverarbeitungseinrichtung, informationsverarbeitungssystem, informationsverarbeitungsverfahren und programm
US11113541B2 (en) * 2019-10-25 2021-09-07 7-Eleven, Inc. Detection of object removal and replacement from a shelf
CN112783993B (zh) * 2019-11-08 2024-03-15 华为技术有限公司 基于数字地图的多个授权空间的内容同步方法
US11175730B2 (en) 2019-12-06 2021-11-16 Facebook Technologies, Llc Posture-based virtual space configurations
GB2589870A (en) * 2019-12-10 2021-06-16 Nokia Technologies Oy Placing a sound within content
JP6783919B1 (ja) * 2019-12-27 2020-11-11 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム
JPWO2021145067A1 (ja) * 2020-01-17 2021-07-22
US11212483B2 (en) 2020-02-14 2021-12-28 Perfect Mobile Corp. Systems and methods for event-based playback control during virtual application of makeup effects
CN111371993A (zh) * 2020-03-13 2020-07-03 腾讯科技(深圳)有限公司 一种图像拍摄方法、装置、计算机设备和存储介质
US11481965B2 (en) 2020-04-10 2022-10-25 Samsung Electronics Co., Ltd. Electronic device for communicating in augmented reality and method thereof
US11010129B1 (en) * 2020-05-08 2021-05-18 International Business Machines Corporation Augmented reality user interface
CN111580661A (zh) * 2020-05-09 2020-08-25 维沃移动通信有限公司 交互方法和增强现实设备
US11257280B1 (en) 2020-05-28 2022-02-22 Facebook Technologies, Llc Element-based switching of ray casting rules
KR102484279B1 (ko) * 2020-06-22 2023-01-04 주식회사 피아몬드 가상세계와 물리세계를 인증 및 동기화하기 위한 시스템
US11256336B2 (en) 2020-06-29 2022-02-22 Facebook Technologies, Llc Integration of artificial reality interaction modes
KR20220003254A (ko) * 2020-07-01 2022-01-10 삼성전자주식회사 증강 현실을 제공하는 전자 장치 및 그 방법
CN111541889B (zh) * 2020-07-10 2020-10-20 南京新研协同定位导航研究院有限公司 一种mr眼镜使用视线触发内容的方法
KR20220012073A (ko) 2020-07-22 2022-02-03 삼성전자주식회사 가상 사용자 인터랙션을 수행하기 위한 방법 및 그 장치
US20220057914A1 (en) * 2020-08-19 2022-02-24 Jason Sauers Augmented reality targeting system
US11838336B2 (en) * 2020-08-27 2023-12-05 Varty Inc. Virtual events-based social network
US11178376B1 (en) * 2020-09-04 2021-11-16 Facebook Technologies, Llc Metering for display modes in artificial reality
CN112162631B (zh) * 2020-09-18 2023-05-16 聚好看科技股份有限公司 一种交互设备、数据处理方法及介质
CN116917850A (zh) * 2020-09-23 2023-10-20 苹果公司 布置虚拟对象
CN114430506B (zh) * 2020-10-15 2024-03-15 腾讯数码(天津)有限公司 虚拟动作的处理方法和装置、存储介质及电子设备
US20220130114A1 (en) * 2020-10-23 2022-04-28 At&T Intellectual Property I, L.P. Apparatuses and methods for facilitating content based extended reality environments
KR102390615B1 (ko) * 2020-12-02 2022-04-26 주식회사 포니게임즈 3차원 실사 캐릭터 모델의 생성 및 공유 시스템 및 방법
CN112634466B (zh) * 2020-12-25 2021-10-22 游艺星际(北京)科技有限公司 虚拟形象模型的表情显示方法、装置、设备及存储介质
US11955144B2 (en) * 2020-12-29 2024-04-09 Snap Inc. Video creation and editing and associated user interface
US11461991B2 (en) * 2020-12-30 2022-10-04 Imagine Technologies, Inc. Method of developing a database of controllable objects in an environment
US11294475B1 (en) 2021-02-08 2022-04-05 Facebook Technologies, Llc Artificial reality multi-modal input switching model
US11908243B2 (en) * 2021-03-16 2024-02-20 Snap Inc. Menu hierarchy navigation on electronic mirroring devices
US11927756B2 (en) 2021-04-01 2024-03-12 Samsung Electronics Co., Ltd. Method for providing augmented reality image and head mounted display device supporting the same
KR20220136776A (ko) * 2021-04-01 2022-10-11 삼성전자주식회사 증강 현실 이미지를 제공하는 방법 및 이를 지원하는 hmd 장치
US11831814B2 (en) * 2021-09-03 2023-11-28 Meta Platforms Technologies, Llc Parallel video call and artificial reality spaces
CN113760098A (zh) * 2021-09-18 2021-12-07 陕西师范大学 基于时间积分的关注度有效量化方法及系统
US11656747B2 (en) * 2021-09-21 2023-05-23 Microsoft Technology Licensing, Llc Established perspective user interface and user experience for video meetings
US11979244B2 (en) * 2021-09-30 2024-05-07 Snap Inc. Configuring 360-degree video within a virtual conferencing system
US11921970B1 (en) 2021-10-11 2024-03-05 Meta Platforms Technologies, Llc Coordinating virtual interactions with a mini-map
WO2023080767A1 (ko) * 2021-11-02 2023-05-11 삼성전자 주식회사 가상 오브젝트를 표시하는 웨어러블 전자 장치 및 이의 제어 방법
US20230221797A1 (en) * 2022-01-13 2023-07-13 Meta Platforms Technologies, Llc Ephemeral Artificial Reality Experiences
WO2023196258A1 (en) * 2022-04-04 2023-10-12 Apple Inc. Methods for quick message response and dictation in a three-dimensional environment
KR20230147312A (ko) * 2022-04-14 2023-10-23 주식회사 피아몬드 가상 공간에서 프라이버시 제공을 위한 방법 및 시스템
US11825184B1 (en) 2022-05-09 2023-11-21 Perfect Mobile Corp. Systems and methods for event-based playback control during virtual application of accessories
CN114900625A (zh) * 2022-05-20 2022-08-12 北京字跳网络技术有限公司 虚拟现实空间的字幕渲染方法、装置、设备及介质
US20240031530A1 (en) * 2022-07-20 2024-01-25 Katmai Tech Inc. Using zones in a three-dimensional virtual environment for limiting audio and video
KR102557826B1 (ko) 2022-07-28 2023-07-20 주식회사 메타비티 인공지능 기반의 메타버스와 블록체인 혼합 교육시스템
WO2024043681A1 (ko) * 2022-08-26 2024-02-29 삼성전자주식회사 전자 장치의 화면을 확장 현실 환경으로 변환하는 머리 착용형 전자 장치 및 그와 연결된 전자 장치
WO2024061163A1 (zh) * 2022-09-19 2024-03-28 北京字跳网络技术有限公司 人机交互方法、显示方法、装置、设备
WO2024064280A1 (en) * 2022-09-23 2024-03-28 Apple Inc. User interfaces for managing live communication sessions
JP2024070696A (ja) * 2022-11-11 2024-05-23 ソニーグループ株式会社 情報処理システム、情報処理方法、およびプログラム
CN116166127B (zh) * 2023-04-26 2023-07-18 深圳市人马互动科技有限公司 互动作品中机器侧内容信息的处理方法及相关装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309448A (ja) * 2005-04-27 2006-11-09 Sony Corp ユーザインターフェース装置及び方法
JP2012018559A (ja) * 2010-07-08 2012-01-26 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2014038523A (ja) * 2012-08-17 2014-02-27 Institute Of Physical & Chemical Research 代替現実システム制御装置、代替現実システム、代替現実システム制御方法、プログラム、および記録媒体
US20140237366A1 (en) * 2013-02-19 2014-08-21 Adam Poulos Context-aware augmented reality object commands
US20150234456A1 (en) * 2014-02-20 2015-08-20 Lg Electronics Inc. Head mounted display and method for controlling the same
JP2016502120A (ja) * 2012-09-03 2016-01-21 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法
WO2016043537A1 (ko) * 2014-09-18 2016-03-24 (주)에프엑스기어 시선에 의해 제어되는 헤드 마운트형 디스플레이 장치, 이의 제어 방법 및 이의 제어를 위한 컴퓨터 프로그램

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7561143B1 (en) * 2004-03-19 2009-07-14 The University of the Arts Using gaze actions to interact with a display
US9343110B2 (en) * 2010-11-23 2016-05-17 Levels Beyond Dynamic synchronization tool
US10627860B2 (en) * 2011-05-10 2020-04-21 Kopin Corporation Headset computer that uses motion and voice commands to control information display and remote devices
US9323325B2 (en) * 2011-08-30 2016-04-26 Microsoft Technology Licensing, Llc Enhancing an object of interest in a see-through, mixed reality display device
US10488919B2 (en) * 2012-01-04 2019-11-26 Tobii Ab System for gaze interaction
JP2014219448A (ja) * 2013-05-01 2014-11-20 コニカミノルタ株式会社 表示システム、表示方法、表示端末および表示プログラム
US9329682B2 (en) * 2013-06-18 2016-05-03 Microsoft Technology Licensing, Llc Multi-step virtual object selection
US10025378B2 (en) * 2013-06-25 2018-07-17 Microsoft Technology Licensing, Llc Selecting user interface elements via position signal
US9143880B2 (en) * 2013-08-23 2015-09-22 Tobii Ab Systems and methods for providing audio to a user based on gaze input
US9244539B2 (en) * 2014-01-07 2016-01-26 Microsoft Technology Licensing, Llc Target positioning with gaze tracking
US9311718B2 (en) * 2014-01-23 2016-04-12 Microsoft Technology Licensing, Llc Automated content scrolling
US9588343B2 (en) * 2014-01-25 2017-03-07 Sony Interactive Entertainment America Llc Menu navigation in a head-mounted display
US9552060B2 (en) * 2014-01-28 2017-01-24 Microsoft Technology Licensing, Llc Radial selection by vestibulo-ocular reflex fixation
CN104915979A (zh) * 2014-03-10 2015-09-16 苏州天魂网络科技有限公司 跨移动平台实现沉浸式虚拟现实的系统
US10416760B2 (en) * 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
WO2016138178A1 (en) * 2015-02-25 2016-09-01 Brian Mullins Visual gestures for a head mounted device
US20160259405A1 (en) * 2015-03-03 2016-09-08 Microsoft Technology Licensing, Llc Eye Gaze for Automatic Paging
US20180046352A1 (en) * 2016-08-09 2018-02-15 Matthew Johnson Virtual cursor movement

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309448A (ja) * 2005-04-27 2006-11-09 Sony Corp ユーザインターフェース装置及び方法
JP2012018559A (ja) * 2010-07-08 2012-01-26 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2014038523A (ja) * 2012-08-17 2014-02-27 Institute Of Physical & Chemical Research 代替現実システム制御装置、代替現実システム、代替現実システム制御方法、プログラム、および記録媒体
JP2016502120A (ja) * 2012-09-03 2016-01-21 ゼンソモトリック インストゥルメンツ ゲゼルシャフト ヒューア イノベイティブ ゼンソリック エムベーハーSENSOMOTORIC INSTRUMENTS Gesellschaft fur innovative Sensorik mbH ヘッドマウントシステム及びヘッドマウントシステムを用いてディジタル画像のストリームを計算しレンダリングする方法
US20140237366A1 (en) * 2013-02-19 2014-08-21 Adam Poulos Context-aware augmented reality object commands
US20150234456A1 (en) * 2014-02-20 2015-08-20 Lg Electronics Inc. Head mounted display and method for controlling the same
WO2016043537A1 (ko) * 2014-09-18 2016-03-24 (주)에프엑스기어 시선에 의해 제어되는 헤드 마운트형 디스플레이 장치, 이의 제어 방법 및 이의 제어를 위한 컴퓨터 프로그램

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11972043B2 (en) 2014-06-19 2024-04-30 Apple Inc. User detection by a computing device
JPWO2020039568A1 (ja) * 2018-08-23 2021-08-12 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP7317024B2 (ja) 2018-08-23 2023-07-28 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
JP2022523284A (ja) * 2020-02-12 2022-04-22 グーグル エルエルシー 通知スロットリング
US11595491B2 (en) 2020-02-12 2023-02-28 Google Llc Notification throttling
US11985206B2 (en) 2020-02-12 2024-05-14 Google Llc Notification throttling
JP2022180412A (ja) * 2020-03-27 2022-12-06 株式会社コナミデジタルエンタテインメント 映像配信システム、映像配信制御方法及びコンピュータプログラム
JP7389270B2 (ja) 2020-03-27 2023-11-29 アップル インコーポレイテッド 視線ベースのナビゲーションのためのデバイス、方法、及びグラフィカルユーザインタフェース
JP7432957B2 (ja) 2020-03-27 2024-02-19 株式会社コナミデジタルエンタテインメント 映像配信システム、映像配信制御方法及びコンピュータプログラム
US11606221B1 (en) 2021-12-13 2023-03-14 International Business Machines Corporation Event experience representation using tensile spheres
JP7321471B1 (ja) 2022-06-21 2023-08-07 グリー株式会社 情報処理システム、情報処理方法、及びプログラム
JP2024000573A (ja) * 2022-06-21 2024-01-09 グリー株式会社 情報処理システム、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
WO2018067508A1 (en) 2018-04-12
EP3306444A1 (en) 2018-04-11
US20180095635A1 (en) 2018-04-05
IL265756A (en) 2019-06-30
KR20190053278A (ko) 2019-05-17
CA3039347A1 (en) 2018-04-12
CN109937394A (zh) 2019-06-25

Similar Documents

Publication Publication Date Title
US10511833B2 (en) Controls and interfaces for user interactions in virtual spaces
JP2019536131A (ja) 仮想空間におけるユーザ・インタラクションのためのコントロールおよびインタフェース
US20180095636A1 (en) Controls and Interfaces for User Interactions in Virtual Spaces
US20180096507A1 (en) Controls and Interfaces for User Interactions in Virtual Spaces
Pangilinan et al. Creating augmented and virtual realities: theory and practice for next-generation spatial computing
US11798201B2 (en) Mirroring device with whole-body outfits
CN112639891A (zh) 在增强现实环境内的内容的建议
US20230092103A1 (en) Content linking for artificial reality environments
US11456887B1 (en) Virtual meeting facilitator
US11983826B2 (en) 3D upper garment tracking
EP4240012A1 (en) Utilizing augmented reality data channel to enable shared augmented reality video calls
CN117957043A (zh) 控制时尚物品上的ar游戏
Firstenberg et al. Designing and developing for Google Glass: Thinking differently for a new platform
WO2023049052A1 (en) Visual navigation elements for artificial reality environments
US20230334790A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
US20230315385A1 (en) Methods for quick message response and dictation in a three-dimensional environment
CN118119969A (zh) 3d上装跟踪
KR20240076807A (ko) 3d 상부 의복 추적
CN116781853A (zh) 在视频通话中提供共享增强现实环境

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190520

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191106

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210127

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210706