JP2024516755A - 親指圧力感知を有するハンドヘルドコントローラ - Google Patents

親指圧力感知を有するハンドヘルドコントローラ Download PDF

Info

Publication number
JP2024516755A
JP2024516755A JP2023539965A JP2023539965A JP2024516755A JP 2024516755 A JP2024516755 A JP 2024516755A JP 2023539965 A JP2023539965 A JP 2023539965A JP 2023539965 A JP2023539965 A JP 2023539965A JP 2024516755 A JP2024516755 A JP 2024516755A
Authority
JP
Japan
Prior art keywords
input
user
handheld controller
surface area
input surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023539965A
Other languages
English (en)
Inventor
デリック リーディンガー,
アミール ノートン,
イー-ヤン チェン,
グレン ジェイソン トンプキンス,
ジェニファー リン スパーロック,
ブラッドリー モリス ジョンソン,
ヴァレリー スーザン ハンソン,
ロバート キャリー レオナード,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Meta Platforms Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meta Platforms Technologies LLC filed Critical Meta Platforms Technologies LLC
Publication of JP2024516755A publication Critical patent/JP2024516755A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

開示されるハンドヘルドコントローラは、(1)本体であって、(a)手によって把持されるように構成された把持領域と、(b)手が把持領域を把持している間に手の親指によって係合されるように構成された入力表面領域と、を備える、本体と、(2)入力表面領域に機械的に結合された圧力センサーであって、第1の入力として解釈される、親指によって入力表面領域上に加えられた圧力のレベルを示す圧力センサーと、を含み得る。種々の他のハンドヘルドコントローラ、方法、およびシステムも開示される。【選択図】図2

Description

本開示は、概して、親指圧力感知を採用するハンドヘルドコントローラ、システム、および方法を対象とする。
人工現実システム、ゲームシステムなどに組み込まれるものなどのハンドヘルドコントローラは、かかるシステムのユーザがそのシステムに(たとえば、入力ボタンを介して)正確で適時な入力を提供することができる便利なデバイスである。加えて、いくつかのハンドヘルドコントローラは、ユーザに何らかのタイプの出力またはフィードバックを提供する構成要素(たとえば、触覚フィードバックデバイス)を含むことができる。しかしながら、かかるシステムは、それらのユーザとのより複雑で微妙な対話を徐々に促進するため、費用効果の高いハンドヘルドコントローラを介して関連付けられた入力を可能にする能力が制限される場合がある。たとえば、人工現実システムにおいて提示されている仮想物体に把持動作またはピンチング動作を適用することなどのいくつかの微妙なユーザ動作は、限られた数およびタイプの入力構成要素を提供するハンドヘルドコントローラを用いて容易にすることが困難であり得る。
本開示の第1の態様によれば、ハンドヘルドコントローラであって、本体であって、手によって把持されるように構成された把持領域と、手が把持領域を把持している間に手の親指によって係合されるように構成された入力表面領域と、を備える、本体と、入力表面領域に結合された圧力センサーであって、圧力センサーは、第1の入力として解釈される、親指によって入力表面領域上に加えられた圧力のレベルを示す、圧力センサーと、を備える、ハンドヘルドコントローラが提供される。
いくつかの実施形態では、ハンドヘルドコントローラは、把持領域に結合され、手が把持領域を把持している間に手の人差し指によって係合されるように構成されたトリガボタンをさらに備え得、トリガボタンは、第2の入力として解釈される、トリガボタンがアクティブ化されたかどうかを検出する。
いくつかの実施形態では、ハンドヘルドコントローラは、トリガボタンに結合され、出力に基づいて人差し指に触覚フィードバックを提供する触覚アクチュエータをさらに備え得る。
いくつかの実施形態では、圧力センサーは、入力表面領域の押下を感知する静圧センサーを備え得る。
いくつかの実施形態では、圧力センサーは、ゼロ移動センサーを備え得る。
いくつかの実施形態では、ハンドヘルドコントローラは、入力表面領域に結合され、出力に基づいて親指に触覚フィードバックを提供する触覚アクチュエータをさらに備え得る。
いくつかの実施形態では、ハンドヘルドコントローラは、入力表面領域に結合され、第2の入力として解釈される入力表面領域とのタッチを検出するように構成された容量センサーをさらに備え得る。
いくつかの実施形態では、ハンドヘルドコントローラは、第2の入力として解釈される入力表面領域上のタッチされた場所を検出する容量センサーをさらに備え得る。
いくつかの実施形態では、ハンドヘルドコントローラは、入力表面領域の外側で本体に結合され、手が把持領域を把持している間に親指によって係合されるように構成された入力ボタンをさらに備え得、入力ボタンは、第2の入力として解釈される入力ボタンが係合されたかどうかを示す。
本開示の第2の態様によれば、人工環境内に仮想物体を提示するディスプレイと、仮想物体を操作するための複数の入力を処理するプロセッサと、ハンドヘルドコントローラと、を備える、システムであって、ハンドヘルドコントローラは、本体であって、手によって把持されるように構成された把持領域と、手が把持領域を把持している間に手の親指によって係合されるように構成された入力表面領域と、を備える、本体と、入力表面領域に結合された圧力センサーであって、圧力センサーは、親指によって入力表面領域上に加えられた圧力のレベルを示し、プロセッサは、圧力のレベルを複数の入力のうちの第1の入力として処理する、圧力センサーと、を備える、システムが提供される。
いくつかの実施形態では、ハンドヘルドコントローラは、把持領域に結合され、手の人差し指によって係合されるように構成されたトリガボタンをさらに備え得、トリガボタンは、トリガボタンがアクティブ化されたかどうかを示し、プロセッサは、トリガボタンがアクティブ化されたかどうかを複数の入力のうちの第2の入力として処理する。
いくつかの実施形態では、プロセッサは、第1の入力と第2の入力との組み合わせを仮想物体の操作として解釈し得る。
いくつかの実施形態では、仮想物体の操作は、仮想物体に加えられたピンチング動作を含み得る。
いくつかの実施形態では、ハンドヘルドコントローラは、入力表面領域に結合された容量センサーをさらに備え得、容量センサーは、入力表面領域のタッチされた場所を検出し、プロセッサは、タッチされた場所の表現を複数の入力のうちの第3の入力として処理する。
いくつかの実施形態では、プロセッサは、第3の入力を、ディスプレイによって提示されるメニューのナビゲーションとして解釈し得る。
いくつかの実施形態では、プロセッサは、第1の入力、第2の入力、および第3の入力の組み合わせを仮想物体の操作として解釈し得る。
いくつかの実施形態では、仮想物体の操作は、仮想物体に加えられた回転動作を含み得る。
本開示の第3の態様によれば、方法であって、ハンドヘルドコントローラの本体の入力表面領域に結合された圧力センサーによって、入力表面領域に加えられた圧力のレベルを検出することであって、本体は、手によって把持されるように構成された把持領域をさらに備え、入力表面領域は、手が把持領域を把持している間、手の親指によって係合されるように構成される、ことと、プロセッサによって、圧力のレベルを第1の入力として解釈することと、を含む、方法が提供される。
いくつかの実施形態では、方法は、把持領域に結合され、手が把持領域を把持している間に手の人差し指によって係合されるように構成される、トリガボタンによって、トリガボタンがアクティブ化されたかどうかを検出することと、プロセッサによって、トリガボタンがアクティブ化されたかどうかを第2の入力として解釈することと、をさらに含み得る。
いくつかの実施形態では、方法は、ディスプレイによって、人工環境内に仮想物体を提示することと、プロセッサによって、第1の入力および第2の入力の組み合わせを仮想物体の操作として解釈することと、をさらに含み得る。
本開示の1つ以上の態様または実施形態への組み込みに好適であるものとして本明細書で説明される任意の特徴は、本開示の任意のおよびすべての態様および実施形態にわたって一般化可能であるものとすることが理解されよう。本開示の他の態様が、本開示の発明を実施するための形態、特許請求の範囲、および図面に照らして当業者によって理解され得る。上記の概略的な説明および以下の発明を実施するための形態は、例示的および説明的なものにすぎず、特許請求の範囲を限定しない。
添付の図面は、いくつかの例示的な実施形態を図示しており、明細書の一部である。以下の説明とともに、これらの図面は、本開示の様々な原理を明示および解説する。
親指圧力感知を組み込んだ例示的なハンドヘルドコントローラのブロック図である。 親指圧力感知を組み込んだ例示的なハンドヘルドコントローラの斜視図である。 親指圧力感知を含むハンドヘルドコントローラによって採用される例示的な方法のフロー図である。 本開示の実施形態に関連して使用され得る例示的な拡張現実眼鏡の図である。 本開示の実施形態に関連して使用され得る例示的な仮想現実ヘッドセットの図である。 親指圧力感知を採用する例示的なハンドヘルドコントローラに実装された構成要素のブロック図である。 親指圧力感知を採用するハンドヘルドコントローラを組み込んだ、人工現実システムの実装形態のための例示的コンピューティングアーキテクチャのブロック図である。 ユーザの眼(複数可)を追跡することが可能な視線追跡サブシステムを組み込んだ、例示的なシステムの図である。 図8に示される視線追跡サブシステムの種々の態様のより詳細な図である。
図面全体にわたって、同等の参照符号および説明は、必ずしも同等とは限らないが、類似の要素を指し示す。本明細書で説明される例示的な実施形態は、様々な変更形態および代替の形態が可能であるが、特定の実施形態が、図面中で例として示されており、本明細書で詳細に説明される。しかしながら、本明細書で説明される例示的な実施形態は、開示される特定の形態に限定されるものではない。そうではなく、本開示は、添付の特許請求の範囲内に入るすべての変更形態、等価物、および代替形態を包含する。
人工現実システム、ゲームシステムなどに組み込まれるものなどのハンドヘルドコントローラは、かかるシステムのユーザがそのシステムに(たとえば、入力ボタンを介して)正確で適時な入力を提供することができる便利なデバイスである。加えて、いくつかのハンドヘルドコントローラは、ユーザに何らかのタイプの出力またはフィードバックを提供する構成要素(たとえば、触覚フィードバックデバイス)を含むことができる。しかしながら、かかるシステムは、それらのユーザとのより複雑で微妙な対話を徐々に促進するため、費用効果の高いハンドヘルドコントローラを介して関連付けられた入力を可能にする能力が制限される場合がある。たとえば、人工現実システムにおいて提示されている仮想物体に把持動作またはピンチング動作を適用することなどのいくつかの微妙なユーザ動作は、限られた数およびタイプの入力構成要素を提供するハンドヘルドコントローラを用いて容易にすることが困難であり得る。
本開示は、概して、親指圧力感知を採用するハンドヘルドコントローラ、システム、および方法を対象とする。いくつかの実施形態では、例示的なハンドヘルドコントローラは、手によって把持されるように構成された把持領域と、手が把持領域を把持している間に手の親指によって係合されるように構成された入力表面領域とを含む本体を有することができる。ハンドヘルドコントローラは、入力表面領域と機械的に結合された圧力センサーをさらに含むことが可能であり、圧力センサーは、第1の入力として解釈される、入力表面領域上に親指によって加えられた圧力のレベルを示す。いくつかの例では、かかるハンドヘルドコントローラの使用は、費用効果を維持しながら、特に他の入力構成要素(たとえば、1つ以上のボタン)とともに、より微妙なまたは種々の入力(たとえば、人工環境におけるピンチング)を容易にすることができる。
本明細書において説明される実施形態のいずれかからの特徴は、本明細書において説明される一般原理に従って互いに組み合わされて使用され得る。これらおよび他の実施形態、特徴、ならびに利点は、添付の図面および特許請求の範囲とともに以下の詳細な説明を読むと、より十分に理解されるであろう。
以下は、図1~図9を参照して、親指圧力感知を採用する例示的なハンドヘルドコントローラ、システム、および方法の詳細な説明を提供する。例示的な手持ちコントローラの種々の実施形態が、図1のブロック図および図2の斜視図に関連して説明される。ハンドヘルドコントローラを介して親指圧力感知を採用する例示的な方法が、図3に関連して説明される。種々のハンドヘルドコントローラの実施形態に関連して使用され得る例示的な拡張現実眼鏡および例示的な仮想現実ヘッドセットの説明は、それぞれ図4および図5の図に関連して説明される。親指圧力感知を採用する例示的な手持ちコントローラに含まれ得るいくつかの構成要素の説明が、図6のブロック図に関連して提供される。本明細書で説明されるような、ハンドヘルドコントローラを組み込んだ人工現実システムのための例示的なコンピューティングアーキテクチャの説明が、図7に関連して提示される。さらに、図8および9に関連して、人工現実システムに関連して採用され得る、例示的なディスプレイシステムおよび例示的視線追跡サブシステムが説明される。
以下で説明する種々のハンドヘルドコントローラの実施形態では、コントローラは、ユーザの親指によって印加された圧力を感知するように構成される。しかしながら、他の実施形態では、加えて、または代替として、圧力感知が、1つ以上の他の指(たとえば、人差し指)のために提供され得る。加えて、以下の説明は、単一のハンドヘルドコントローラに焦点を当てるが、少なくともいくつかのユーザシステム(たとえば、人工現実システム)は、各手に対して1つずつ構成される、2つのかかるコントローラを提供してもよい。
図1は、親指圧力感知を組み込んだ例示的なハンドヘルドコントローラ100のブロック図である。より具体的には、図1は、ハンドヘルドコントローラ100の種々の実施形態に関連する可能な構成要素を示す。示された構成要素の一部は、ハンドヘルドコントローラ100のいくつかの実施形態に含まれなくてもよく、ハンドヘルドコントローラ100に含まれ得る他の構成要素(たとえば、バッテリ、1つ以上のプリント回路基板など)は、以下の説明を簡単にするために、図1には示されていない。図1のブロック図は、ハンドヘルドコントローラ100のある種の概略図を表すが、以下でより詳細に説明する図2は、かかるコントローラの1つの可能な実施形態の斜視図を提示する。
ハンドヘルドコントローラ100は、少なくともいくつかの実施形態では、把持領域104および入力表面領域106を画定する本体102を含み得る。いくつかの例では、把持領域104は、ユーザの手によって把持されるように構成されてもよい。たとえば、把持領域104は、手のひらおよび/または手の1本以上の指(たとえば、親指および/または人差し指以外の指)によって係合されるように構成されてもよい。いくつかの実施形態では、把持領域104は、手による係合を容易にするために、1つ以上の物理的特徴(たとえば、滑らかな曲線、リッジ、くぼみなど)を画定することができる。
さらに、少なくともいくつかの実施形態では、入力表面領域106は、手が把持領域104を把持している間、手の親指と係合されるように構成することができる。いくつかの例では、入力表面領域106は、ユーザの親指が係合するのにちょうど十分な大きさであり得る本体102のエリアであり得る。他の実施形態では、入力表面領域106は、ユーザの親指が係合するための1次元または2次元の位置の範囲を提供するのに十分な大きさの本体102のエリアであり得る。いくつかの例では、本体102は、入力表面領域106から離れた親指の位置決めを快適に容易にするために、把持領域104内に親指レストまたは同様のエリアを提供することができる。
いくつかの実施形態では、圧力センサー132は、圧力センサー132が(たとえば、ユーザの親指によって)入力表面領域106に加えられた圧力のレベルを示すように、入力表面領域106に(たとえば、機械的に、電気的になど)結合され得る。複数の異なる種類の構成要素が、異なる実施形態において圧力センサー132として機能してもよく、その各々が、入力表面領域106に加えられた圧力のレベルの指標として機能し得る何らかの種類の出力(たとえば、アナログ電圧、静電容量、デジタル値など)を提供することができる。いくつかの例では、圧力センサー132は、(たとえば、入力表面領域106に直交する入力表面領域106の位置またはその変化を検出することによって、入力表面領域106の静電容量またはその変化を検出することによってなど)入力表面領域106に加えられた圧力の量またはレベルを測定するセンサーであり得る。他の例では、圧力センサー132は、入力表面領域106に加えられた圧力、または入力表面領域106に加えられた圧力の量の代用としての何らかの特性(たとえば、移動量、静電容量など)を測定することができる。さらに、圧力センサー132は、何らかの圧力が加えられている入力表面領域106上の少なくとも1つの表面位置(たとえば、(x,y)座標)を示すことができる。
いくつかの実施形態では、圧力センサー132は、入力表面領域106の小さいレベルの押下、移動、または位置を感知および/または区別する静圧センサーであり得る。かかる例では、入力表面領域106は、入力表面領域106に加えられた圧力の関連付けられたレベルに応答して、ある距離だけ曲がるかまたは他の方法で移動する表面を提示することによって、静圧センサーの使用を容易にすることができる。
他の実施形態では、圧力センサー132は、入力表面領域106のいかなる押下または他の移動も引き起こすことなく、入力表面領域106に加えられた圧力に対応する入力表面領域106の何らかの特性を測定することなどによって、入力表面領域106に加えられた圧力のレベルを感知するゼロ移動圧力センサーであり得る。たとえば、圧力センサー132は、入力表面領域106に加えられた圧力のレベルを示すために、入力表面領域の1つ以上の位置で静電容量を測定してもよい。
いくつかの実施形態では、容量センサー134はまた、入力表面領域106に結合され、(たとえば、ユーザの親指による)入力表面領域106とのタッチを検出するように構成することができる。さらに、いくつかの例では、容量センサー134は、タッチが発生している入力表面領域106上の表面位置(たとえば、(x,y)座標)を検出することができる。いくつかの実施形態では、圧力センサー132および容量センサー134は、同じセンサーであり得る。他の実施形態では、入力表面領域106に結合された他のタイプのセンサーを採用して、入力表面領域106とのタッチを検出し、場合によっては、かかるタッチが発生している入力表面領域106上の位置を検出することができる。したがって、いくつかの例では、入力表面領域106は、ジョイスティック、タッチパッド、または他の位置もしくは方向入力デバイスとして採用され得る。
また、本体102に(たとえば、機械的に)結合されたハンドヘルドコントローラ100には、手が把持領域104を把持している間に手の人差し指によって係合されるように構成されたトリガボタン140が含まれ得る。トリガボタン140は、トリガボタン140がアクティブ化された(たとえば、ユーザの人差し指によって押下された)かどうかの指標(たとえば、電圧、ブール指標など)を提供することができる。以下でより詳細に説明されるように、(たとえば、圧力センサー132および場合によっては容量センサー134によって示されるような)入力表面領域およびトリガボタン140のユーザによる同時の操作は、ユーザに提示されている仮想物体の「ピンチ」または他の操作として解釈することができる。さらに、本体102には、ユーザによって(たとえば、ユーザの親指によって)アクティブ化されるように位置決めまたは構成された1つ以上の追加の入力ボタン150が結合され得る。
図1に示されるように、圧力センサー132、容量センサー134、トリガボタン140、および/または入力ボタン150のうちの1つ以上は、トランスミッタ110と通信可能に結合することができる。いくつかの実施形態では、トランスミッタ110は、圧力センサー132、容量センサー134、トリガボタン140、および/または入力ボタン150の出力の表現または指標をプロセッサ(たとえば、ハンドヘルドコントローラ100上に位置していないプロセッサ)に伝送することができる。種々の例では、トランスミッタ110は、有線トランスミッタ(たとえば、電気信号トランスミッタ、光信号トランスミッタなど)または無線トランスミッタ(たとえば、無線周波数(RF)トランスミッタ、Bluetooth(登録商標)トランスミッタなど)であり得る。以下に説明されるように、プロセッサは、圧力センサー132、容量センサー134、トリガボタン140、および/または入力ボタン150のうちの2つ以上の出力の表現の何らかの組み合わせを仮想物体(たとえば、ディスプレイデバイスによってユーザに提示される人工環境の仮想物体)の操作として解釈することができる。
また、図1に示すように、ハンドヘルドコントローラ100は、(たとえば、上述したプロセッサからの)出力の表現を受信し得る受信機120(たとえば、有線または無線受信機)を含み得る。加えて、ハンドヘルドコントローラ100は、ハンドヘルドコントローラ100の本体102または他の部分に結合された1つ以上の触覚アクチュエータ160を含むことができ、触覚アクチュエータ160は、本体102(たとえば、把持領域104および/または入力表面領域106)、トリガボタン140、および/またはトリガボタン140を含むがこれらに限定されないハンドヘルドコントローラ100の1つ以上の位置に触覚フィードバックを提供することができる。いくつかの実施形態では、触覚フィードバックは、ユーザの手の1つ以上の部分の人工環境における仮想物体との接触を示すことができる。たとえば、触覚アクチュエータ160によって(たとえば、把持領域104、入力表面領域106、および/またはトリガボタン140を介して)提示される触覚フィードバックは、圧力センサー132によって感知されるような、入力表面領域106上のユーザの親指によって仮想物体に加えられた圧力のレベルを示すことができる。いくつかの例では、触覚アクチュエータ160は、1つ以上の線形共振アクチュエータ(LRA)、偏心回転質量(ERM)などを含んでもよい。
他の例では、ハンドヘルドコントローラ100の外部に存在する代わりに、(たとえば、トランスミッタ110から)入力を受信し、(たとえば、受信機120に)出力を提供するプロセッサが、ハンドヘルドコントローラ100内またはハンドヘルドコントローラ100上に位置してもよく、したがって、少なくとも上述の伝送動作および受信動作のためのトランスミッタ110および受信機120の使用を潜在的に排除する。
図2は、図1のハンドヘルドコントローラ100の一例として機能することができる例示的なハンドヘルドコントローラ200の斜視図である。図示のように、ハンドヘルドコントローラ200は、把持領域204(図1の把持領域104に対応する)および入力表面領域206(図1の入力表面領域106に対応する)を有する本体202を含み得る。加えて、ハンドヘルドコントローラ200はまた、トリガボタン240(図1のトリガボタン140として機能する)と、1つ以上の入力ボタン250(図1の入力ボタン150に対応する)とを含み得、これらの両方は、入力表面領域206の外部に存在し得る。図2に示されるように、入力表面領域206および入力ボタン250は、ユーザの手が把持領域204に係合している間、および手の人差し指がトリガボタン240上に位置決めされている間、ユーザの手の親指によって選択的に係合されてもよい。
図2は、ハンドヘルドコントローラ200の1つの特定の構成または配置を示しているが、ハンドヘルドコントローラ200の他の構成も可能である。より具体的には、入力表面領域206は、本体202の入力ボタン250と実質的に同様の平面上に配置されてもよいが、本体202は、入力表面領域206が、入力ボタン250を支持する本体202の部分とは実質的に異なる平面内に位置し得るように、他の方法で成形されてもよい。たとえば、入力表面領域206は、入力ボタン250から離れるように下方に(たとえば、把持領域204に対して垂直または平行に、および入力ボタン250を保持する本体202の表面に対して下方に0度~90度の間で)角度付けされてもよい。いくつかの実施形態では、本体202に対する入力表面領域206のかかる構成は、入力表面領域206とトリガボタン240との間の快適な対向角を容易にすることができる。
加えて、いくつかの実施形態では、ハンドヘルドコントローラ200の1つ以上の構成要素(たとえば、圧力センサー132、容量センサー134、触覚アクチュエータ160、トランスミッタ110、および/または受信機120として機能する構成要素)は、本体202の内部に存在してもよい。他の例では、図2に示されていない他の構成要素がハンドヘルドコントローラ200に含まれてもよい。
さらに、ハンドヘルドコントローラ200は、ユーザまたはローカル環境に対するハンドヘルドコントローラ200の位置(たとえば、場所および/または配向)を追跡するために採用され得る1つ以上のカメラ212(たとえば、大きな視野を有する広角カメラ)を含み得る。加えて、または代替として、ハンドヘルドコントローラ200は、光学センサー、音響センサー(たとえば、ソナー)、飛行時間センサー、構造化光エミッタ/センサー、全地球測位システム(GPS)モジュール、慣性測定ユニット(IMU)、および他のセンサーを含み得る。これらのセンサーのいずれかまたはすべては、入力データをハンドヘルドコントローラ200に提供するために、単独でまたは組み合わせて使用されてもよい。
カメラ212は、ハンドヘルドコントローラ200上の実質的に任意の場所に位置決めすることができる。いくつかの実施形態では、カメラ212は、互いからオフセットされた角度(たとえば、互いから30度、40度、50度、60度、70度、80度、または90度オフセットされた)で位置決めすることができる。このオフセットは、カメラ212が、ハンドヘルドコントローラ200が使用されている物理環境の異なる部分を取り込むことを可能にし得る。場合によっては、カメラ212は、ユーザの手、指、または他の身体部分からの閉塞を回避するように位置決めされてもよい。
たとえば、カメラ212は、壁、床、天井、部屋内の物体、部屋内の人々、または部屋の他の特徴を含む部屋の部分を取り込むように構成されてもよい。同様に、ハンドヘルドコントローラ200が屋外で使用されている場合、カメラ212は、地面、空、またはデバイスの360度の周囲の画像を取り込むように構成することができる。画像は、空間内のデバイスの現在の場所を決定するために、単独で、または組み合わせて使用されてもよい。たとえば、画像は、室内の物体までの距離を決定するために使用されてもよい。連続して撮影された画像のシーケンス間の移動を使用して、ハンドヘルドコントローラ200がどの方向に移動したか、およびハンドヘルドコントローラ200がそれらの周囲に対してどれだけ速く移動したかを計算することができる。画像は、別の周辺デバイス(たとえば、ユーザの他方の手の中の第2のハンドヘルドコントローラ200)の位置を決定するために使用され得る。画像はまた、ユーザの手、指、腕、胴、脚、顔、頭、または他の身体部分を含む、ハンドヘルドコントローラ200を使用しているユーザの部分を取り込むために使用することができる。ハンドヘルドコントローラ200は、これらの身体部分の画像を使用して、その位置を決定するために任意の他の外部カメラまたはセンサーに頼ることなく、ユーザに対する、および壁、ドア、床、および天井を含む室内の他の物体に対するその位置を決定することができる。
いくつかの実施形態では、ハンドヘルドコントローラ200は、以下でより詳細に説明するように、ヘッドセット(たとえば、人工現実システムのヘッドセット)と通信することができる。ヘッドセットは、ディスプレイおよび1つ以上のコンピューティング構成要素を含み得る。これらのコンピューティング構成要素は、ディスプレイを生成してユーザに提示するように構成することができる。ディスプレイは、ユーザインターフェースと、ビデオコンテンツ、ウェブコンテンツ、ビデオゲームコンテンツなどのコンテンツとを含み得る。ヘッドセット306内のコンピューティング構成要素はまた、マップデータを生成するように構成され得る。たとえば、ヘッドセット306内のコンピューティング構成要素は、ユーザによって装着された、またはヘッドセット上に搭載されたセンサーから入力を受信し、そのセンサーデータを使用してユーザの環境のマップを作成してもよい。このマップデータは、ハンドヘルドコントローラ200と共有することができ、ハンドヘルドコントローラは、その位置を決定するときにこのマップデータを使用することができる。さらに、いくつかの実施形態では、かかるシステム内のハンドヘルドコントローラ200の自己追跡能力を採用して、ヘッドセットによって表示されるような人工環境内の仮想物体に対するユーザの手の相対的な位置および/または配向を決定し、上記で説明したように、仮想物体をピンチングすることまたは把持することを容易にすることができる。
図3は、親指圧力感知を含むハンドヘルドコントローラ(たとえば、ハンドヘルドコントローラ100または200)によって採用される例示的な方法300のフロー図である。ステップ310において、入力表面領域(たとえば、入力表面領域106または206)に加えられた圧力のレベルが(たとえば、圧力センサー132によって)検出され得る。ステップ320において、圧力のレベルは、第1の入力として(たとえば、プロセッサによって)解釈され得る。ステップ330において、トリガボタン(たとえば、トリガボタン140または240)がアクティブ化されたかどうかが検出され得る。さらに、ステップ340において、トリガボタンがアクティブ化されたかどうかが、第2の入力として(たとえば、プロセッサによって)解釈され得る。ステップ350において、第1の入力および第2の入力の組み合わせは、仮想物体の操作として(たとえば、プロセッサによって)解釈され得る。いくつかの例では、プロセッサは、本明細書で説明するように、かかる解釈、ならびにプロセッサに起因する他の動作を実施するために、1つ以上のメモリデバイスに記憶されたソフトウェア命令を実行し得る。
ハンドヘルドコントローラ100または200を参照すると、いくつかの実施形態では、第1の入力および第2の入力は、仮想物体の「ピンチ」または「把持」として解釈することができ、仮想物体に加えられた仮想力の量は、トリガボタン140のアクティブ化に関連して入力表面領域106に加えられた圧力のレベルによって少なくとも部分的に決定される。いくつかの例では、トリガボタン140のアクティブ化は、入力表面領域106上の何らかのレベルの圧力を、仮想物体上に何らかの圧力または力を加えていると解釈することが必要でない場合がある。また、いくつかの実施形態では、仮想物体に加えられた力の量の視覚的表現が(たとえば、視覚ディスプレイを介して)ユーザに提示され得る。たとえば、仮想物体は、入力表面領域106を介して加えられた圧力のレベルが増加するにつれて、ますます変形するように見えてもよい。加えて、または代替として、仮想物体の何らかの他の視覚的態様(たとえば、色、輝度など)は、圧力のレベルが変化するにつれて変更されてもよい。
いくつかの実施形態では、仮想物体に加えられた圧力のレベルはまた、上述のように、把持領域104、入力表面領域106、トリガボタン140、および/またはハンドヘルドコントローラ100の何らかの他の領域上の1つ以上の触覚アクチュエータ160によって提供される力のレベルまたはタイプによって反映され得る。また、いくつかの例では、仮想物体に加えられた圧力のレベルに対応する(たとえば、オーディオスピーカによって生成される)1つ以上の音の態様(たとえば、音量、ピッチなど)がユーザに提示され得る。
加えて、または代替として、回転またはスピンなどの他のタイプの操作が、場合によっては、トリガボタン140に関連して、入力表面領域106を介して仮想物体に加えられ得る。たとえば、上述したように、容量センサー134または別のセンサーは、ある圧力が供給される入力表面領域106上の位置を追跡してもよい。したがって、いくつかの実施形態では、場合によってはトリガボタン140のアクティブ化(たとえば、押圧)とともに、(たとえば、入力表面領域106にわたって親指をドラッグすることによって)入力表面領域106上の圧力のレベルの位置を移動させることと組み合わされた、入力表面領域106上にあるレベルの圧力を加えること、または少なくともそれと接触することは、仮想物体の回転またはスピンと解釈され得る。加えて、いくつかの例では、入力表面領域106にわたる接触の方向または経路は、仮想物体の加えられた回転の軸を決定することができる。
いくつかの実施形態では、入力表面領域106は、圧力センサー132および/または容量センサー134とともに、仮想物体の操作以外の他の動作を実施するために採用され得る。たとえば、入力表面領域106は、入力表面領域106の異なるエリアに接触することによって、および/またはプロセッサによって入力項目の異なる部分またはエリアとして解釈され得る種々のレベルの圧力を入力表面領域106に加えることによって、表示されたメニュー、入力スライダ、入力物体のセット、または別の入力項目をナビゲートするために採用されてもよい。いくつかの実施形態では、入力表面領域106に加えられた特定のレベルの圧力は、プロセッサによって、マルチレベルメニューまたは他の入力項目の異なる論理レベルとして解釈されてもよい。
さらに他の例では、入力表面領域106は、圧力センサー132および/または容量センサー134とともに、ジョイスティック、タッチパッド、または他の方向もしくは位置入力デバイスの代わりとして機能することができる。たとえば、圧力センサー132および/または容量センサー134によって感知されるような、入力表面領域106上でユーザによって接触された(たとえば、入力表面領域106の何らかの基準位置に対する)検出された2次元位置は、方向コマンドとして解釈されてもよい。さらに、基準位置からの2次元位置の距離は、方向コマンドに関連付けられた大きさコマンド(たとえば、速度、力など)として解釈されてもよい。いくつかの実施形態では、入力表面領域106上の検出された2次元位置に加えられた圧力のレベルは、方向コマンドに関連付けられた大きさコマンドとして解釈されてもよい。入力表面領域106との接触を介して入力を提供する他の例も可能である。
さらに、いくつかの実施形態では、圧力センサー132および/または容量センサー134による入力表面領域106上の圧力および/または位置のレベルの解釈は、ハンドヘルドコントローラ100が使用されているシステムの状態またはコンテキストに依存し得る。たとえば、仮想物体が現在、ハンドヘルドコントローラ100のユーザに対して人工環境において(たとえば、人工現実システムにおいて)表示されている場合、入力表面領域106を介して提供されるユーザ入力は、仮想物体の操作として解釈することができる。代わりに、システムが選択可能な項目のメニューをユーザに現在表示している場合、入力表面領域106を介して提供されるユーザ入力は、そのメニューの操作として解釈されてもよい。
前述のように、本開示の実施形態は、種々のタイプの人工現実システムを含む、またはそれに関連して実装することができる。人工現実は、ユーザに提示する前に何らかの形で調節されている1つの形態の現実であり、たとえば、仮想現実、拡張現実、複合現実、ハイブリッド現実、あるいは上記の何らかの組み合わせおよび/または派生物を含んでもよい。人工現実コンテンツは、すべてコンピュータ生成されたコンテンツ、またはキャプチャされた(たとえば、実世界)コンテンツと組み合わされた、コンピュータ生成されたコンテンツを含んでもよい。人工現実コンテンツは、ビデオ、オーディオ、触覚フィードバック、またはそれらの何らかの組み合わせを含み得、これらのうちのいずれかが、単一チャネルで、または(閲覧者に対して3次元(3D)効果をもたらすステレオビデオなど)複数チャネルで提示され得る。それに加えて、いくつかの実施形態では、人工現実はまた、アプリケーション、製品、アクセサリ、サービス、あるいはたとえば、人工現実でコンテンツを作り出すのに使用される、および/または別の形で人工現実で使用される(たとえば、アクティビティを実施する)、上記の何らかの組み合わせと関連付けられてもよい。
人工現実システムが、様々な異なるフォームファクタおよび構成において実装され得る。いくつかの人工現実システムは、ニアアイディスプレイ(NED)なしで機能するように設計され得る。他の人工現実システムは、(たとえば、図4の拡張現実システム400などの)現実世界への可視性も提供するか、または(たとえば、図5の仮想現実システム500などの)人工現実にユーザを視覚的に没入させるNEDを含み得る。いくつかの人工現実デバイスは、自己完結型システムであり得るが、他の人工現実デバイスは、ユーザに人工現実体感を提供するために、外部デバイスと通信および/または協調し得る。そのような外部デバイスの例は、ハンドヘルドコントローラ、モバイルデバイス、デスクトップコンピュータ、ユーザによって着用されるデバイス、1人または複数の他のユーザによって着用されるデバイス、および/または任意の他の好適な外部システムを含む。
図4を参照すると、拡張現実システム400は、ユーザの眼の前に左側ディスプレイデバイス415(A)および右側ディスプレイデバイス415(B)を保持するように構成されたフレーム410を有するアイウェアデバイス402を含み得る。ディスプレイデバイス415(A)および415(B)は、画像または一連の画像をユーザに提示するように、一緒にまたは独立して動作することができる。拡張現実システム400は、2つのディスプレイを含むが、本開示の実施形態は、単一のNEDまたは2つを上回るNEDを伴う拡張現実システムで実装することができる。
いくつかの実施形態では、拡張現実システム400は、センサー440などの1つ以上のセンサーを含み得る。センサー440は、拡張現実システム400の動きに応答して測定信号を生成することができ、フレーム410の実質的に任意の部分に位置することができる。センサー440は、位置センサー、慣性測定ユニット(IMU)、深度カメラアセンブリ、構造化光エミッタおよび/または検出器、あるいはそれらの任意の組み合わせなどの種々の異なる感知機構のうちの1つ以上を表すことができる。いくつかの実施形態では、拡張現実システム400は、センサー440を含んでも含まなくてもよく、または2つ以上のセンサーを含んでもよい。センサー440がIMUを含む実施形態では、IMUは、センサー440からの測定信号に基づいて較正データを生成することができる。センサー440の例は、限定はしないが、加速度計、ジャイロスコープ、磁力計、動きを検出する他の適切なタイプのセンサー、IMUの誤差補正のために使用されるセンサー、またはそれらの何らかの組み合わせを含み得る。
いくつかの例では、拡張現実システム400はまた、音響トランスデューサ420と総称される複数の音響トランスデューサ420(A)~420(J)を有するマイクロフォンアレイを含み得る。音響トランスデューサ420は、音波によって誘発される空気圧変動を検出するトランスデューサを表すことができる。各音響トランスデューサ420は、音を検出し、検出された音を電子フォーマット(たとえば、アナログまたはデジタルフォーマット)に変換するように構成され得る。図4のマイクロフォンアレイは、たとえば、ユーザの対応する耳の内側に配置されるように設計され得る、10個の音響トランスデューサ、すなわち、420(A)および420(B)、フレーム410上の種々の場所に位置決めされ得る、音響トランスデューサ420(C)、420(D)、420(E)、420(F)、420(G)、および420(H)、ならびに/または対応するネックバンド405上に位置決めされ得る、音響トランスデューサ420(I)および420(J)を含んでもよい。
いくつかの実施形態では、音響トランスデューサ420(A)~(F)のうちの1つ以上は、出力トランスデューサ(たとえば、スピーカ)として使用され得る。たとえば、音響トランスデューサ420(A)および/または420(B)は、イヤホンまたは任意の他の好適なタイプのヘッドホンもしくはスピーカであってもよい。
マイクロフォンアレイの音響トランスデューサ420の構成は変化し得る。拡張現実システム400は、10個の音響トランスデューサ420を有するものとして図4に示されているが、音響トランスデューサ420の数は、10個よりも多くても少なくてもよい。いくつかの実施形態では、より多数の音響トランスデューサ420を使用することは、収集されるオーディオ情報の量ならびに/またはオーディオ情報の感度および精度を増加させ得る。対照的に、より少ない数の音響トランスデューサ420を使用することは、収集されたオーディオ情報を処理するために関連付けられたコントローラ450によって要求される計算能力を減少させ得る。加えて、マイクロフォンアレイの各音響トランスデューサ420の位置は、変動し得る。たとえば、音響トランスデューサ420の位置は、ユーザ上の定義された位置、フレーム410上の定義された座標、各音響トランスデューサ420に関連付けられた配向、またはそれらの何らかの組み合わせを含んでもよい。
音響トランスデューサ420(A)および420(B)は、耳介の後方、耳珠の後方、および/または耳殻もしくは窩内など、ユーザの耳の異なる部分上に位置決めされ得る。あるいは、外耳道内の音響トランスデューサ420に加えて、耳の上または耳を囲む追加の音響トランスデューサ420があってもよい。ユーザの外耳道に隣接して位置決めされる音響トランスデューサ420を有することは、マイクロフォンアレイが、どのように音が外耳道に到来するかに関する情報を収集することを可能にし得る。音響トランスデューサ420のうちの少なくとも2つをユーザの頭部の両側に(たとえば、バイノーラルマイクロフォンとして)位置決めすることによって、拡張現実デバイス400は、バイノーラル聴覚をシミュレートし、ユーザの頭部の周りの3Dステレオ音場を取り込むことができる。いくつかの実施形態では、音響トランスデューサ420(A)および420(B)は、有線接続430を介して拡張現実システム400に接続されてもよく、他の実施形態では、音響トランスデューサ420(A)および420(B)は、無線接続(たとえば、Bluetooth(登録商標)接続)を介して拡張現実システム400に接続されてもよい。さらに他の実施形態では、音響トランスデューサ420(A)および420(B)は、拡張現実システム400とともに全く使用されなくてもよい。
フレーム410上の音響トランスデューサ420は、テンプルの長さに沿って、ブリッジを横断して、ディスプレイデバイス415(A)および415(B)の上方もしくは下方、またはそれらの何らかの組み合わせを含む、種々の異なる方法で位置決めされてもよい。音響トランスデューサ420はまた、マイクロフォンアレイが、拡張現実システム400を装着しているユーザを囲繞する広範囲の方向における音を検出することが可能であるように配向されてもよい。いくつかの実施形態では、最適化プロセスは、マイクロフォンアレイ内の各音響トランスデューサ420の相対的位置付けを決定するように、拡張現実システム400の製造中に行われてもよい。
いくつかの例では、拡張現実システム400は、ネックバンド405などの外部デバイス(たとえば、ペアリングされたデバイス)を含むか、またはそれに接続されてもよい。ネックバンド405は、概して、任意のタイプまたは形態のペアリングされたデバイスを表す。したがって、ネックバンド405の以下の説明は、充電ケース、スマートウォッチ、スマートフォン、リストバンド、他のウェアラブルデバイス、ハンドヘルドコントローラ、タブレットコンピュータ、ラップトップコンピュータ、他の外部計算デバイスなどの種々の他のペアリングされたデバイスにも適用され得る。
示されるように、ネックバンド405は、1つ以上のコネクタを介してアイウェアデバイス402に結合され得る。コネクタは、ワイヤードまたはワイヤレスであり得、電気的および/または非電気的(たとえば、構造的)構成要素を含み得る。場合によっては、アイウェアデバイス402およびネックバンド405は、それらの間の有線または無線接続なしに独立して動作し得る。図4は、アイウェアデバイス402およびネックバンド405上の例示的な位置におけるアイウェアデバイス402およびネックバンド405の構成要素を示しているが、これらの構成要素は、アイウェアデバイス402および/またはネックバンド405上の他の場所に位置してもよく、および/または別様に分散されてもよい。いくつかの実施形態では、アイウェアデバイス402およびネックバンド405の構成要素は、アイウェアデバイス402、ネックバンド405、またはそれらの何らかの組み合わせとペアリングされた1つ以上の追加の周辺デバイス上に位置してもよい。
ネックバンド405などの外部デバイスを拡張現実アイウェアデバイスとペアリングすることは、拡張された能力のための十分なバッテリおよび計算能力を依然として提供しながら、アイウェアデバイスが眼鏡のフォームファクタを達成することを可能にし得る。拡張現実システム400のバッテリ電力、計算リソース、および/または追加の特徴の一部または全部は、ペアリングされたデバイスによって提供されるか、またはペアリングされたデバイスとアイウェアデバイスとの間で共有され得、したがって、所望の機能を依然として保持しながら、アイウェアデバイス全体の重量、熱プロファイル、およびフォームファクタを低減させる。たとえば、ネックバンド405は、別様でアイウェアデバイス上に含まれるであろう構成要素がネックバンド405内に含まれることを可能にし得るが、これは、ユーザが、自身の頭部上で許容するよりも、自身の肩上でより重い重量負荷を許容し得るからである。ネックバンド405はまた、周囲環境に熱を拡散および分散させるためのより大きな表面積を有することができる。したがって、ネックバンド405は、別様でスタンドアロンのアイウェアデバイス上で可能であったであろうよりも大きなバッテリおよび計算能力を可能にし得る。ネックバンド405で運ばれる重量は、アイウェアデバイス402で運ばれる重量よりもユーザにとって侵襲性が低い場合があるため、ユーザは、重いスタンドアロンのアイウェアデバイスを装着することをユーザが許容するよりも軽いアイウェアデバイスを装着し、より長い時間にわたってペアリングされたデバイスを運搬または装着することを許容することができ、それによって、ユーザが人工現実環境をその日々の活動により完全に組み込むことを可能にする。
ネックバンド405は、アイウェアデバイス402および/または他のデバイスと通信可能に結合され得る。これらの他のデバイスは、特定の機能(たとえば、追跡、位置特定、深度マッピング、処理、記憶など)を拡張現実システム400に提供することができる。図4の実施形態では、ネックバンド405は、マイクロフォンアレイの一部である(または潜在的にそれら自体のマイクロフォンサブアレイを形成する)2つの音響トランスデューサ(たとえば、420(I)および420(J))を含み得る。ネックバンド405はまた、コントローラ425および電源435を含み得る。
ネックバンド405の音響トランスデューサ420(I)および420(J)は、音を検出し、検出された音を電子フォーマット(アナログまたはデジタル)に変換するように構成することができる。図4の実施形態では、音響トランスデューサ420(I)および420(J)は、ネックバンド405上に位置決めされてもよく、それによって、ネックバンド音響トランスデューサ420(I)および420(J)と、アイウェアデバイス402上に位置決めされた他の音響トランスデューサ420との間の距離を増加させる。場合によっては、マイクロフォンアレイの音響トランスデューサ420間の距離を増加させることは、マイクロフォンアレイを介して実施されるビームフォーミングの精度を改善することができる。たとえば、音が音響トランスデューサ420(C)および420(D)によって検出され、音響トランスデューサ420(C)と420(D)との間の距離が、たとえば、音響トランスデューサ420(D)と420(E)との間の距離よりも大きい場合、検出された音の決定された音源位置は、音が音響トランスデューサ420(D)および420(E)によって検出された場合よりも正確であり得る。
ネックバンド405のコントローラ425は、ネックバンド405および/または拡張現実システム400上のセンサーによって生成された情報を処理することができる。たとえば、コントローラ425は、マイクロフォンアレイによって検出された音を記述するマイクロフォンアレイからの情報を処理することができる。検出された音ごとに、コントローラ425は、到来方向(DOA)推定を実施して、検出された音がマイクロフォンアレイに到来した方向を推定することができる。マイクロフォンアレイが音を検出すると、コントローラ425は、オーディオデータセットに情報を投入することができる。拡張現実システム400が慣性測定ユニットを含む実施形態では、コントローラ425は、アイウェアデバイス402上に位置するIMUからすべての慣性および空間計算を計算することができる。コネクタは、拡張現実システム400とネックバンド405との間、および拡張現実システム400とコントローラ425との間で情報を伝達することができる。情報は、光データ、電気データ、ワイヤレスデータの形態、または任意の他の送信可能なデータ形態にあり得る。拡張現実システム400によって生成された情報の処理をネックバンド405に移すことは、アイウェアデバイス402の重量および熱を低減し、ユーザにとってより快適にすることができる。
ネックバンド405内の電源435は、アイウェアデバイス402および/またはネックバンド405に電力を供給することができる。電源435は、リチウムイオンバッテリ、リチウムポリマーバッテリ、一次リチウムバッテリ、アルカリバッテリ、または任意の他の形態の電力貯蔵を含み得るが、これらに限定されない。場合によっては、電源435は、有線電源であってもよい。アイウェアデバイス402上ではなくネックバンド405上に電源435を含むことは、電源435によって生成される重量および熱をより良好に分散させるのに役立ち得る。
言及されたように、いくつかの人工現実システムは、人工現実を実際の現実と混合させるのではなく、現実世界のユーザの知覚のうちの1つまたは複数を仮想体験と実質的に置き換えることができる。このタイプのシステムの一例は、ユーザの視野をほとんどまたは完全にカバーする、図5の仮想現実システム500などの頭部装着型ディスプレイシステムである。仮想現実システム500は、前部剛体502と、ユーザの頭部の周囲に嵌合するように成形されるバンド504とを含み得る。仮想現実システム500はまた、出力オーディオトランスデューサ506(A)および506(B)を含み得る。さらに、図5には示されていないが、前部剛体502は、1つ以上の電子ディスプレイ、1つ以上の慣性測定ユニット(IMU)、1つ以上の追跡エミッタもしくは検出器、および/または人工現実体験を作成するための任意の他の適切なデバイスもしくはシステムを含む、1つ以上の電子要素を含み得る。
人工現実システムは、様々なタイプの視覚フィードバック機構を含む場合がある。たとえば、拡張現実システム400および/または仮想現実システム500内のディスプレイデバイスは、1つ以上の液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、有機LED(OLED)ディスプレイ、デジタルライトプロジェクト(DLP)マイクロディスプレイ、液晶オンシリコン(LCoS)マイクロディスプレイ、および/または任意の他の適切なタイプのディスプレイスクリーンを含み得る。これらの人工現実システムは、両眼のための単一のディスプレイスクリーンを含んでもよく、または各眼のためのディスプレイスクリーンを提供してもよく、それは、可変焦点調整のための、またはユーザの屈折異常を補正するための付加的柔軟性を可能にしてもよい。これらの人工現実システムのうちの一部はまた、それを通してユーザがディスプレイスクリーンを視認し得る、1つ以上のレンズ(たとえば、従来の凹または凸レンズ、フレネルレンズ、調整可能液体レンズなど)を有する光学サブシステムを含み得る。これらの光学サブシステムは、コリメートする(たとえば、物体がその物理的距離よりも遠い距離に見えるようにする)、拡大する(たとえば、物体がその実際のサイズよりも大きく見えるようにする)、および/または光を(たとえば、見る者の目に)中継することを含む、様々な目的に役立ってもよい。これらの光学サブシステムは、非瞳孔形成アーキテクチャ(光を直接コリメートするが、いわゆる糸巻き型歪曲をもたらす単レンズ構成など)、および/または瞳孔形成アーキテクチャ(糸巻き型歪曲を無効化するいわゆる樽型歪曲を生み出す多レンズ構成など)で使用されてもよい。
ディスプレイスクリーンを使用することに加えて、またはその代わりに、本明細書に説明されるいくつかの人工現実システムは、1つ以上の投影システムを含み得る。たとえば、拡張現実システム400および/または仮想現実システム500内のディスプレイデバイスは、周囲光が通過することを可能にする透明コンバイナレンズなどのディスプレイデバイスの中に光を投影する(たとえば、導波管を使用して)、マイクロLEDプロジェクタを含んでもよい。ディスプレイデバイスは、投影された光をユーザの瞳孔に向けて屈折させることができ、ユーザが人工現実コンテンツと現実世界の両方を同時に視ることを可能にすることができる。ディスプレイデバイスは、導波管構成要素(たとえば、ホログラフィック、平面、回折、偏光、および/または反射導波管要素)、光操作表面および要素(回折、反射、および屈折要素ならびに格子など)、結合要素などを含む、種々の異なる光学構成要素のいずれかを使用して、これを達成してもよい。人工現実システムはまた、仮想網膜ディスプレイで使用される網膜プロジェクタなどの任意の他の好適なタイプまたは形態の画像投影システムを用いて構成されてもよい。
本明細書に説明される人工現実システムはまた、種々のタイプのコンピュータビジョン構成要素およびサブシステムを含み得る。たとえば、拡張現実システム400および/または仮想現実システム500は、2次元(2D)または3Dカメラ、構造化光トランスミッタおよび検出器、飛行時間型深度センサー、単一ビームまたは掃引レーザ距離計、3D LiDARセンサー、および/または任意の他の好適なタイプもしくは形態の光学センサーなどの1つ以上の光学センサーを含み得る。人工現実システムは、これらのセンサーのうちの1つまたは複数からのデータを処理して、ユーザの位置を識別し、現実世界をマッピングし、現実世界環境に関するコンテキストをユーザに提供し、かつ/または様々な他の機能を実行することができる。
本明細書に説明される人工現実システムはまた、1つ以上の入力および/または出力オーディオトランスデューサを含み得る。出力音声変換器は、ボイスコイルスピーカ、リボンスピーカ、静電型スピーカ、圧電スピーカ、骨伝導変換器、軟骨伝導変換器、耳珠振動変換器、および/または他の任意の好適なタイプもしくは形態の音声変換器を含んでもよい。同様に、入力音声トランスデューサは、コンデンサマイクロフォン、ダイナミックマイクロフォン、リボンマイクロフォン、および/または他の任意の種類もしくは形態の入力トランスデューサを含み得る。いくつかの実施形態では、単一のトランスデューサが、オーディオ入力とオーディオ出力の両方のために使用され得る。
いくつかの実施形態では、本明細書で説明する人工現実システムはまた、ヘッドウェア、グローブ、ボディスーツ、ハンドヘルドコントローラ、環境デバイス(たとえば、椅子、フロアマットなど)、および/または任意の他のタイプのデバイスもしくはシステムに組み込まれ得る力覚(すなわち、触覚)フィードバックシステムを含み得る。触覚フィードバックシステムは、振動、力、牽引、テクスチャ、および/または温度を含む、様々なタイプの皮膚性フィードバックを提供し得る。触覚フィードバックシステムはまた、動きおよびコンプライアンスなど、様々なタイプの運動感覚フィードバックを提供し得る。触覚フィードバックは、モーター、圧電アクチュエータ、流体システム、および/または様々な他のタイプのフィードバックメカニズムを使用して実装され得る。触覚フィードバックシステムは、他の人工現実デバイスとは関係なく、他の人工現実デバイス内で、かつ/または他の人工現実デバイスと連携して実装される場合がある。
触覚の知覚、可聴コンテンツ、および/または可視コンテンツを提供することにより、人工現実システムは、全体的な仮想体験を生み出し、様々な状況および環境におけるユーザの現実世界体験を高めることができる。たとえば、人工現実システムは、特定の環境内のユーザの知覚、記憶、または認識を支援または拡張することができる。いくつかのシステムは、実世界中の他の人々とのユーザの相互作用を向上させ得るか、または仮想世界中の他の人々とのより没入できる相互作用を可能にし得る。また、人工現実システムは、教育目的(たとえば、学校、病院、政府機関、軍事機関、企業などにおける教育または訓練のため)、娯楽目的(たとえば、ビデオゲームのプレイ、音楽の聴取、ビデオコンテンツの視聴など)、および/またはアクセシビリティ目的(たとえば、補聴器、視覚補助などとして)に使用されてもよい。本明細書に開示された実施形態は、これらの状況および環境ならびに/または他の状況および環境のうちの1つまたは複数におけるユーザの人工現実体験を可能にするか、または高めることができる。
いくつかの実施形態では、本明細書に説明されるシステムはまた、ユーザの凝視方向などのユーザの眼(複数可)の種々の特性を識別および追跡するように設計される、視線追跡サブシステムを含み得る。「視線追跡」という語句は、いくつかの例では、眼の位置、配向、および/または動きが測定、検出、感知、決定、および/または監視されるプロセスを指すことがある。開示されるシステムは、種々の光学ベースの視線追跡技術、超音波ベースの視線追跡技術などの使用を通したものを含む、種々の異なる方法で、眼の位置、配向、および/または動きを測定してもよい。視線追跡サブシステムは、複数の異なる方法で構成されてもよく、種々の異なる視線追跡ハードウェア構成要素または他のコンピュータビジョン構成要素を含んでもよい。たとえば、視線追跡サブシステムは、2次元(2D)または3Dカメラ、飛行時間型深度センサー、単一ビームまたは掃引レーザ距離計、3D LiDARセンサー、および/または任意の他の好適なタイプもしくは形態の光学センサーなどの種々の異なる光学センサーを含んでもよい。この例では、処理サブシステムは、これらのセンサーのうちの1つ以上からのデータを処理して、ユーザの眼(複数可)の位置、配向、および/または動きを測定、検出、決定、および/または他の方法で監視することができる。
ハンドヘルドコントローラ100または200は、上述したように、その外部およびその内部の両方に他の電子部品を含むこともできる。たとえば、図6に示すように、例示的なハンドヘルドコントローラ600(たとえば、ハンドヘルドコントローラ100または200の実施形態として機能する)は、バッテリ606、ヒートシンク608、アンテナ610、触覚デバイス612(たとえば、触覚アクチュエータ160として機能する)、カメラ614(たとえば、カメラ212として機能する)、および潜在的に他のプリント回路基板(PCB)620に接続されたローカルプロセッサ604(たとえば、トランスミッタ110および/または受信機120として機能するか、または入力を解釈して出力を生成するためのプロセッサとして機能する)を有する主基板602を含み得る。PCB602および620は、トリガボタン140、入力ボタン150、圧力センサー132、および容量センサー134からの入力を処理するように構成され得る。PCB602および620または他のコンピューティング構成要素は、デバイスの現在の位置および/またはハンドヘルドコントローラ600を介してユーザによって提供される入力の解釈を決定するために、コンピューティングの一部または全部を実施するように構成され得る。他の実施形態では、ハンドヘルドコントローラ600は、他のデバイス(たとえば、仮想現実システム500)と通信して、計算を実施するのを支援することができる。
これらの電子機器はさらに、人工現実システムの頭部搭載型ディスプレイと通信する通信モジュールを含み得る。アンテナ610は、この通信モジュールの一部であり得る。通信モジュールは、人工現実デバイス上の対応する通信モジュールからの通信を送受信することができる。内部電子機器は、ハンドヘルドコントローラ600を取り囲む環境の画像を取得するように構成された少なくとも1つのカメラ614を含む撮像モジュールをさらに含み得る。さらに、ハンドヘルドコントローラ600の内部電子機器は、カメラ614によって取得された画像を使用して自由空間内のハンドヘルドコントローラ600の位置を追跡するように構成された追跡モジュールを含み得る。次いで、PCB602および620は、画像を分析して、ハンドヘルドコントローラ600と外部の人工現実システムの任意の主な処理構成要素との間に見通し線を有することなく、ハンドヘルドコントローラ600の位置を追跡することができる。
場合によっては、一対のハンドヘルドコントローラ600を同時に使用することができる。その結果、カメラ614を使用して、各ハンドヘルドコントローラ600の現在の周囲の画像を取り込むことができる。各ハンドヘルドコントローラ600は、ローカルプロセッサ604を使用して、そのカメラ614で取り込んだ画像を処理することができる。加えて、または代替として、各ハンドヘルドコントローラ600は、他のハンドヘルドコントローラ600と画像データを共有することができる。したがって、2つのハンドヘルドコントローラ600は、互いに画像を共有することができる。したがって、各ハンドヘルドコントローラ600は、通信モジュールを介して受信された他の画像とともに、それ自体の画像を有することができる。これらの画像をつなぎ合わせて、深度を決定し、相対的な位置を決定し、空間内の座標を決定し、または別様でハンドヘルドコントローラ600の正確なまたは相対的な位置を計算することができる。したがって、各ハンドヘルドコントローラ600は、それ自体でその位置を決定することができ、またはそれらのデバイスからの撮像データを使用して、他のハンドヘルドコントローラ600に対するその位置を決定することができる。
場合によっては、ハンドヘルドコントローラ600は、2つ以上のカメラ614を使用してその位置の追跡を開始することができる。ハンドヘルドコントローラ600が空間内のその位置を確立すると、より少ないカメラ614を使用して追跡を継続することができる。したがって、ハンドヘルドコントローラ600が3つのカメラ614を使用してその位置の追跡を開始した場合、ハンドヘルドコントローラ600は、2つのカメラ614を使用してまたは1つのカメラ614を使用してその位置を追跡することに移行することができる。同様に、ハンドヘルドコントローラ600が2つのカメラ614を使用してその位置の追跡を開始した場合、較正されると、または初期マップが作成されると、ハンドヘルドコントローラ600は、単一のカメラ614を使用してその位置の追跡を継続することができる。ハンドヘルドコントローラ600が空間内のその位置を失うか、または(たとえば、カメラからの信号の損失に起因して)その正確な位置を認識しなくなった場合、2つ以上の追加のカメラ614を起動して、ハンドヘルドコントローラ600の空間内の位置を再決定するのを支援することができる。
いくつかの実施形態では、各ハンドヘルドコントローラ600は、周囲環境のマップを作成するために、そのカメラ614によって撮影された画像データにアクセスする(および、場合によっては、他のハンドヘルドコントローラ600上のカメラ614からの画像データをさらに使用する)ように構成され得る。マップは、後続の画像が撮影および処理されるにつれて、経時的に作成されてもよい。マップは、環境内の物体を識別することができ、環境内のそれらの物体の位置を記録することができる。時間が経過し、ハンドヘルドコントローラ600が位置を変えるにつれて、追加の画像を撮影し、分析することができる。これらの追加の画像は、識別された物体に対してユーザがどこにいるか、ユーザと物体との間の距離はどれくらいか、ハンドヘルドコントローラ600とユーザとの間の距離はどれくらいか、およびハンドヘルドコントローラ600間の距離はどれくらいかを示すことができる。物体間の計算された距離は、新しい画像が取り込まれ、分析されるにつれて、経時的に精緻化されてもよい。したがって、ハンドヘルドコントローラ600の周囲の環境のマップは、継続的に更新および改善され得る。さらに、環境内の物体(たとえば、人々)が異なる位置に移動した場合、更新されたマップはこれらの変化を反映することができる。
ハンドヘルドコントローラ600の位置は、ハンドヘルドコントローラ600自体によって取り込まれた画像のみを使用して決定することができ、外部のカメラまたはセンサーに依存しない場合があるため、ハンドヘルドコントローラ600は、真に自己追跡することができる。ハンドヘルドコントローラ600は、自由空間内のそれ自体の位置をそれ自体で決定するために、任意の外部センサーまたはカメラまたは他のデバイスを必要としない場合がある。単一のカメラ614を使用する実装形態が生成され得、単一のカメラ614からのカメラデータを使用して機能し得る。他の実装形態では、2つのカメラ614が使用され得る。1つまたは2つのカメラ614のみを使用することにより、ハンドヘルドコントローラ600のコストおよび複雑さを低減することができるとともに、電力を供給する構成要素が少なくなるため、その軽量化およびバッテリ寿命の向上を図ることができる。さらに、より少ないカメラ614では、カメラのうちの1つが遮蔽され、誤った情報を提供する(または情報を提供しない)可能性が低くなる。
ハンドヘルドコントローラ600は、ユーザによって保持されることが可能であり、ハンドヘルドコントローラ600は、それ自体の位置を独立して決定することが可能であるため、ハンドヘルドコントローラ600は、ハンドヘルドコントローラ600を保持しているユーザの位置、場所、および姿勢を決定することも可能であり得る。ハンドヘルドコントローラ600上のカメラ614は、ユーザの身体の部分を取り込むことができる広角レンズを有することができる。これらの画像から、ハンドヘルドコントローラ600は、ユーザの身体がどのように位置決めされているか、ユーザの身体がどの方向に動いているか、および身体部分がハンドヘルドコントローラ600からどれだけ離れているかを判定することができる。この距離および自由空間におけるそれ自体の位置を知ることにより、ハンドヘルドコントローラ600は、ハンドヘルドコントローラ600を保持しているユーザの位置を計算することができる。さらに、いくつかの実施形態では、カメラ614(たとえば、広角カメラ)は、ユーザの顔および眼の画像を取り込むことができる。これらの画像は、ハンドヘルドコントローラ600がユーザの眼の移動を追跡し、ユーザがどこを動かそうとしているかを判定するか、またはユーザが何を見ているかを判定することを可能にし得る。ユーザが環境内のどこにいるかを知り、ユーザがどこに移動する可能性があるかを知り、それ自体の位置の知識とともに、ハンドヘルドコントローラ600は、警告ビープ音またはブザー音を生成して、ユーザが環境内の物体に衝突しないようにすることができる。
さらに、ハンドヘルドコントローラ600のカメラ614は、画像データを連続的に取り込んでいる場合があるため、そのデータのいくつかの部分は、プライバシーの理由で編集されるか、またはぼかされる場合がある。たとえば、ハンドヘルドコントローラ600が使用されている部屋内のユーザは、記録されることを望まない場合があり、または、所有物の所有者は、自身の所有物の特定の部分が記録されることを望まない場合がある。かかる場合、ハンドヘルドコントローラ600は、画像内の顔を識別し、それらの顔をぼかすように構成され得る。加えて、または代替として、画像データは、計算のために使用され、次いで、直ちに破棄されてもよい。他のプライバシー含意は、ポリシーを介して管理することができる。
したがって、本明細書では、ハンドヘルドコントローラ(たとえば、ハンドヘルドコントローラ100、200、および600)として具現化される自己追跡型周辺デバイスについて説明する。自己追跡型周辺デバイスは、他のデバイス上または環境の他の部分内にいかなる外部カメラも伴わずに、自由空間内でそれ自体を追跡することができる。さらに、自己追跡型周辺デバイスは、任意の他のセンサーまたはカメラへの見通し線を必要とすることなく、その現在位置を決定することができる。自己追跡型周辺デバイスは、より少ないカメラの実装形態に起因して、従来のデバイスよりも軽量かつ低コストであり得る。さらに、低減された数のカメラは、閉塞の発生を低減し得、また、周辺デバイスにおけるバッテリ寿命を増加させ得る。
上述のように、本明細書で説明する自己追跡型周辺デバイスは、他の人工現実システムとともに使用され得る。これらの人工現実システムの実施形態は、以下の図7~図9に関連して説明される。本明細書に記載される自己追跡型および/または感圧型周辺デバイス(たとえば、ハンドヘルドコントローラ100、200、および600)は、これらのデバイスのいずれかとともに、単独でまたは組み合わせて使用することができる。
図7は、複数の異なるモジュールを有するコンピューティングアーキテクチャ700を示している。これらのモジュールの一部または全部は、ハンドヘルドコントローラ100、200、または600(上述のように、自己追跡および/または圧力感知周辺デバイスとして動作してもよい)、または周辺デバイスが係留される人工現実デバイスに組み込まれてもよい。コンピューティングアーキテクチャ700は、たとえば、本明細書で説明される種々のディスプレイ構成要素および/または属性のいずれかを表し得るおよび/または含み得るディスプレイサブシステム701を含み得る。この例では、ディスプレイサブシステム701は、その種々のサブ構成要素のいずれかを含む処理サブシステム710と対話することができる。たとえば、ディスプレイサブシステム701は、プロセッサ711、メモリ712、通信モジュール713(WiFi、Bluetooth(登録商標)、全地球測位システム(GPS)モジュール、セルラーまたは他の無線などの種々の異なる有線または無線接続を含む、または表し得る)、および/またはデータストア714(種々の異なる揮発性または不揮発性データ記憶デバイスを含む、または表し得る)と対話することができる。いくつかの例では、プロセッサ711は、上述したように、ハンドヘルドコントローラ100、200、および600から受信された入力データを解釈し、ハンドヘルドコントローラ100、200、および600によって使用されるアウトプットデータを生成するプロセッサとして機能することができる。
場合によっては、処理サブシステム710は、人工現実デバイス内に埋め込まれ、その上に位置し、またはそれに結合されてもよい。他の場合には、処理サブシステム710は、(以下でより詳細に説明するように、たとえば、別個のコンピューティングデバイスの一部として)人工現実デバイスとは別個および/またはその外部にあってもよい。いくつかの例では、処理サブシステム710は、コンピュータビジョン処理に関連付けられたタスクを実施するように設計された機械学習アクセラレータなど、1つ以上の専用ハードウェアベースのアクセラレータを含み得る。
一例では、コンピューティングアーキテクチャ700はまた、認証サブシステム702を含み得る。認証サブシステム702は、人工現実デバイス内に埋め込まれ、かつ/またはそれに結合されてもよい。認証サブシステム702は、カメラ、マイクロフォン、虹彩スキャナ、顔スキャナ、および/または他のハードウェア構成要素(人工現実デバイスに組み込まれる光学センサーおよび音響トランスデューサなど)などの種々の異なるハードウェア構成要素を含んでもよく、その各々は、ユーザを認証するために使用されてもよい。場合によっては、ユーザが認証されるまで、人工現実デバイスの機能の一部または全部をロックすることができる。たとえば、以下でより詳細に説明するように、ユーザは、認証サブシステム702を使用して自身を認証し、次に、人工現実デバイスを、デバイスの機能の一部または全部がロックされている「ロック」状態から、デバイスの機能の一部または全部がユーザに利用可能である「ロック解除」状態に移行させることができる。他の場合には、認証サブシステム702は、たとえば、人工現実デバイスにデータを提供するネットワークに対してユーザを認証することができる。
いくつかの例では、認証サブシステム702は、ユーザの検出された音声パターンに基づいて、ユーザの虹彩スキャンに基づいて、顔スキャンに基づいて、指紋スキャンに基づいて、または何らかの他の形態の生体認証に基づいて、ユーザを認証することができる。認証サブシステム702は、種々の方法で、開示される人工現実デバイス上に搭載されるか、またはその中に埋め込まれてもよい。いくつかの例では、認証サブシステム702は、人工現実デバイスが接続される外部デバイス(後述する)の一部であり得る。
いくつかの実施形態では、コンピューティングアーキテクチャ700はまた、ユーザの凝視方向などのユーザの眼(複数可)の種々の特性を識別および追跡するように設計される、視線追跡サブシステム703を含み得る。視線追跡サブシステム703は、種々の異なる視線追跡ハードウェア構成要素または他のコンピュータビジョン構成要素を含み得る。たとえば、視線追跡サブシステム703は、2次元(2D)または3Dカメラ、飛行時間型深度センサー、単一ビームまたは掃引レーザ距離計、3D LiDAR(光検出および測距)センサー、および/または任意の他の好適なタイプもしくは形態の光学センサーなどの光学センサーを含んでもよい。いくつかの例では、処理サブシステム(図7の処理サブシステム710など)は、これらのセンサーのうちの1つ以上からのデータを処理して、ユーザの眼(複数可)の位置、配向、および/または動きを測定、検出、判定、および/または別様に監視してもよい。
一例では、視線追跡サブシステム703は、ユーザの瞳孔間距離(IPD)を識別および測定するように構成することができる。いくつかの実施形態では、視線追跡サブシステム703は、ユーザが人工現実デバイスを装着している間、ユーザのIPDを測定および/または計算することができる。これらの実施形態では、視線追跡サブシステム703は、ユーザの眼の位置を検出してもよく、この情報を使用して、ユーザのIPDを計算してもよい。
視線追跡サブシステム703は、種々の方法でユーザの眼の位置および/または眼球運動を追跡することができる。一例では、1つ以上の光源および/または光学センサーは、ユーザの眼の画像を取り込むことができる。次いで、視線追跡サブシステム703は、取り込まれた情報を使用して、ユーザの瞳孔間距離、眼間距離、および/または各眼のねじれおよび回転(すなわち、ロール、ピッチ、およびヨー)の大きさおよび/または凝視方向を含む、(たとえば、歪曲調整目的のための)人工現実デバイスに対する各眼の3D位置を判定することができる。一例では、赤外線光は、視線追跡サブシステム703によって放出され、各眼から反射され得る。反射光は、光学センサーによって受信または検出され、分析され、各眼によって反射される赤外線光の変化から眼回転データを抽出してもよい。
視線追跡サブシステム703は、人工現実デバイスユーザの眼を追跡するために、種々の異なる方法のうちのいずれかを使用することができる。たとえば、光源(たとえば、赤外線発光ダイオード)は、ユーザの各眼上にドットパターンを放出してもよい。視線追跡サブシステム703は、次いで、ユーザの各眼からのドットパターンの反射を検出し(たとえば、人工現実デバイスに結合される光学センサーを介して)、分析し、ユーザの各瞳孔の場所を識別することができる。したがって、視線追跡サブシステム703は、各眼の最大6自由度(すなわち、3D位置、ロール、ピッチ、およびヨー)を追跡してもよく、追跡された量の少なくともサブセットは、凝視点(すなわち、ユーザが見ている仮想場面内の3D場所または位置)および/またはIPDを推定するように、ユーザの2つの眼から組み合わせることができる。
場合によっては、ユーザの瞳孔とディスプレイとの間の距離は、ユーザの眼が異なる方向を見るように移動するにつれて変化し得る。視認方向が変化するにつれて変化する瞳孔とディスプレイとの間の距離は、「瞳孔スイム」と称され得、瞳孔とディスプレイとの間の距離が変化するにつれて、異なる場所における光集束の結果として、ユーザによって知覚される歪曲に寄与し得る。したがって、ディスプレイに対する異なる眼の位置および瞳孔間距離における歪曲を測定し、異なる位置および距離に対する歪曲補正を生成することは、ユーザの眼の3D位置を追跡し、所与の時点におけるユーザの眼の各々の3D位置に対応する歪曲補正を適用することによって、「瞳孔スイム」によって引き起こされる歪曲の軽減を可能にし得る。したがって、ユーザの眼の各々の3D位置を把握することは、各3D眼の位置に対して歪曲補正を適用することによって、眼の瞳孔とディスプレイとの間の距離の変化によって引き起こされる歪曲の緩和を可能にし得る。さらに、上述したように、ユーザの眼の各々の位置を知ることはまた、視線追跡サブシステム703がユーザのIPDに対して自動調整を行うことを可能にし得る。
いくつかの実施形態では、上記で説明されるディスプレイサブシステム701は、視線追跡サブシステム703に関連して機能し得る、種々の追加のサブシステムを含み得る。たとえば、ディスプレイサブシステム701は、可変焦点作動サブシステムと、シーンレンダリングモジュールと、輻輳処理モジュールとを含んでもよい。可変焦点サブシステムは、左右のディスプレイ要素に、ディスプレイデバイスの焦点距離を変動させることができる。一実施形態では、可変焦点サブシステムは、ディスプレイ、光学素子、または両方を移動させることによって、ディスプレイとそれを通して視認される光学素子との間の距離を物理的に変化させることができる。加えて、2つのレンズを相互に対して移動または平行移動させることもまた、ディスプレイの焦点距離を変化させるために使用され得る。したがって、可変焦点サブシステムは、ディスプレイおよび/または光学を移動させ、それらの間の距離を変化させる、アクチュエータまたはモーターを含み得る。この可変焦点サブシステムは、ディスプレイサブシステム701と別個であるか、またはそれに統合され得る。可変焦点サブシステムはまた、作動サブシステムおよび/または視線追跡サブシステム703に統合されるか、またはそれとは別個であってもよい。
一例では、ディスプレイサブシステム701は、視線追跡サブシステム703によって決定された凝視点および/または凝視線の推定交点に基づいてユーザの凝視の輻輳深度を決定するように構成された輻輳処理モジュールを含み得る。輻輳は、人間の眼によって自然かつ自動的に行われ得る、単一の両眼視を維持するための反対方向への両眼の同時移動または回転を指し得る。したがって、ユーザの眼が輻輳される場所は、ユーザが見ている場所であり、また、典型的には、ユーザの眼が集束される場所でもある。たとえば、輻輳処理モジュールは、凝視線を三角測量し、凝視線の交点と関連付けられたユーザからの距離または深度を推定してもよい。次いで、凝視線の交点に関連付けられた深度は、遠近調整距離の近似として使用されてもよく、これは、ユーザの眼が指向されるユーザからの距離を識別してもよい。したがって、輻輳距離は、ユーザの眼が集束されるべき場所および眼が集束されるユーザの眼からの深度の判定を可能にし、それによって、仮想場面への調整をレンダリングするための情報の提供(物体または焦点面など)を可能にし得る。
輻輳処理モジュールは、視線追跡サブシステム703と協調し、ユーザの輻輳深度を考慮するように、ディスプレイサブシステム701に調整を行うことができる。ユーザが遠くの何かに焦点を合わせているとき、ユーザの瞳孔は、ユーザが近くの何かに焦点を合わせているときよりもわずかに離れている場合がある。視線追跡サブシステム703は、ユーザの輻輳または焦点深度に関する情報を取得してもよく、ディスプレイサブシステム701を調整し、ユーザの眼が接近している何かに焦点を合わせる、または輻輳するときは、ともに接近し、ユーザの眼がある距離にある何かに焦点を合わせる、または輻輳するときは、さらに離れてもよい。
視線追跡サブシステム703によって生成される視線追跡情報は、たとえば、異なるコンピュータ生成画像が提示される方法の種々の態様を修正するために使用することができる。いくつかの実施形態では、たとえば、ディスプレイサブシステム701は、視線追跡サブシステム703によって生成された情報に基づいて、コンピュータ生成画像が提示される方法の少なくとも1つの態様を修正するように構成することができる。たとえば、コンピュータ生成画像は、ユーザが見上げている場合、コンピュータ生成画像がスクリーン上で上方に移動され得るように、ユーザの眼球運動に基づいて修正されてもよい。同様に、ユーザが横または下を見ている場合、コンピュータ生成画像は、スクリーン上で横または下に移動され得る。ユーザの眼が閉じている場合、コンピュータ生成画像は、一時停止されるか、またはディスプレイから除去され、ユーザの眼が再び開いた後に再開されてもよい。
いくつかの実施形態では、コンピューティングアーキテクチャ700は、ユーザの顔および/または他の身体部分の移動および/または種々の特性を識別および追跡するように構成された顔追跡サブシステム705および/または身体追跡サブシステム707を含むこともできる。いくつかの例では、顔追跡サブシステム705および/または身体追跡サブシステム707は、潜在的に他のセンサーまたはハードウェア構成要素とともに、1つ以上の身体および/または顔追跡光源および/または光センサーを含み得る。これらの構成要素は、ユーザの口、頬、唇、顎などの移動、ならびに潜在的に、ユーザの腕、脚、手、足、胴などを含む、ユーザの身体の移動を取り込むように、ユーザの顔および/または身体に向かって位置決めされるか、または向けられてもよい。
上述したように、顔追跡サブシステム705は、ユーザの顔の表情を識別および追跡するように構成され得る。これらの顔の表情は、上記で詳述したように、ユーザの顔の個々の部分の移動を追跡することによって識別され得る。ユーザの顔の表情は、時間とともに変化し得、したがって、顔追跡サブシステム705は、ユーザの変化する顔の表情を追跡するために、連続的または継続的に動作するように構成され得る。これらの顔の表情の分類は、処理サブシステム710のデータストア714に記憶され得る。
同様に、身体追跡サブシステム707は、ユーザの身体の実質的に任意の部分の位置を識別および追跡するように構成されてもよい。たとえば、身体追跡サブシステム707は、ユーザの腕、手、脚、または足の初期位置を記録することができ、それらの身体部分が経時的にどのように動くかを記録することができる。場合によっては、これらの身体運動は、人工現実デバイスの処理サブシステムへの入力として使用されてもよい。たとえば、ユーザがディスプレイを開くまたは閉じることを望む場合、ユーザは、特定の方法で手または腕を振ってもよく、または特定のジェスチャ(スナップまたは指を閉じる動きなど)を実施してもよい。または、ユーザがディスプレイ上に提示された仮想要素と対話することを望む場合、顔/身体追跡構成要素または身体追跡サブシステム707の他の構成要素は、ユーザの身体の移動を追跡し、それらの移動を入力として使用して、人工現実デバイスによって生成された人工現実と対話し、かつ/または処理サブシステム710上で実行されるソフトウェアアプリケーションと対話することができる。
視線追跡サブシステム703と同様に、顔追跡サブシステム705および/または身体追跡サブシステム707は、種々の方法で、本明細書に開示される人工現実デバイス内に組み込まれ、かつ/またはそれに結合されてもよい。一例では、顔追跡サブシステム705および/または身体追跡サブシステム707の全部または一部は、人工現実デバイスの外側部分内に埋め込まれ、かつ/またはそれに取り付けられ得る。たとえば、1つ以上の顔/身体追跡構成要素(たとえば、1つ以上の光源および/または光学センサーを表し得る)が、人工現実デバイスの外側部分内に埋め込まれ、かつ/またはその近傍に位置決めされてもよい。そうすることによって、顔/身体追跡構成要素(複数可)は、ユーザの顔の表情ならびに/または顔および身体の移動の鮮明なビューを有するように、ユーザの顔および/または身体から十分に離れて位置決めすることができる。
いくつかの例では、コンピューティングアーキテクチャ700はまた、人工現実デバイスのローカル環境を撮像するように構成された撮像サブシステム706を含み得る。撮像サブシステム706は、光源および光学センサーなどの種々の異なる撮像構成要素および要素のうちのいずれかを含み、または組み込みことができる。たとえば、撮像サブシステム706は、ユーザの周囲の画像を取り込むように構成される、1つ以上の世界配向カメラを含んでもよい。これらの世界配向カメラは、種々の異なる位置およびパターンで人工現実デバイス上に搭載され、またはそれに結合されてもよい。一例では、これらの世界配向カメラによって取り込まれた画像は、処理サブシステム710によって処理され得る。場合によっては、画像は、ユーザのローカル環境の360°ビューを提供するようにともにステッチされてもよい。一実施形態では、この周囲ビューの一部または全部が、人工現実デバイスのディスプレイ上に提示され得る。したがって、ユーザは、単に、ディスプレイ上に提示される周囲ビューを視認することによって、自身の側方または後方のいずれかを見ることが可能であり得る。いくつかの例では、人工現実デバイスは、実質的に任意の数の世界配向カメラを有することができる。
いくつかの実施形態では、人工現実デバイスは、「同時位置特定およびマッピング」(SLAM)と称される技術を使用して、ユーザの環境および/またはデバイスの環境をマッピングするために、上記で説明した世界配向カメラを使用し得る。SLAMマッピングおよび位置特定技術は、マッピングされた環境内のユーザの位置を同時に追跡しながら、環境のマップを作成または更新することができる種々のハードウェアおよびソフトウェアツールを含み得る。SLAMは、マップを作成し、マップ内のユーザの位置を決定するために、多くの異なるタイプのセンサーを使用し得る。
人工現実デバイスによって使用されるSLAM技術は、たとえば、ユーザの位置を決定するために光センサーからのデータを使用し得る。WiFi、Bluetooth、GPS、セルラー、または他の通信デバイスを含む無線もまた、無線送受信機または送受信機のグループ(たとえば、WiFiルータまたはGPS衛星のグループ)に対するユーザの場所を決定するために使用され得る。マイクロフォンアレイまたは2Dもしくは3Dソナーセンサーなどの音響センサーもまた、環境内のユーザの場所を決定するために使用され得る。人工現実デバイスは、ユーザの現在の環境のマップを作成し、継続的に更新することなどのSLAM動作を行うために、これらのタイプのセンサーのうちのいずれかまたはすべてを組み込むことができる。本明細書で説明される実施形態の少なくとも一部では、これらのセンサーによって生成されたSLAMデータは、「環境データ」と称されることがあり、ユーザの現在の環境を示すことができる。このデータは、ローカルまたは遠隔データストア(たとえば、クラウドデータストア)に記憶されてもよく、要求に応じて人工現実デバイスに提供されてもよい。
いくつかの例では、コンピューティングアーキテクチャ700は、人工現実デバイスのローカル環境の変化を検出し、それを反映するセンサーデータを生成するように構成されたセンサーサブシステム709を含み得る。センサーサブシステム709は、種々の異なるセンサーおよび感知要素を含んでもよく、その例は、限定ではなく、位置センサー、慣性測定ユニット(IMU)、深度カメラアセンブリ、オーディオセンサー、ビデオセンサー、位置センサー(たとえば、GPS)、光センサー、および/または本明細書で説明される任意の別のサブシステムからの任意のセンサーもしくはハードウェア構成要素を含む。センサーがIMUを含む実施形態では、IMUは、センサー(複数可)からの測定信号に基づいて較正データを生成することができる。IMUの例としては、加速度計、ジャイロスコープ、磁力計、動きを検出する他の適切な種類のセンサー、IMUの誤差補正に使用されるセンサー、またはそれらの何らかの組み合わせが挙げられるが、これらに限定されない。
上述のセンサーデータは、(たとえば、GPS位置センサーからの)位置の変化、(たとえば、音声センサーからの)可聴環境の変化、(たとえば、カメラまたは他の光センサーからの)可視環境の変化、(たとえば、IMUからの)慣性の変化、またはユーザの環境が変化したことを示し得る他の変化を含み得る。周囲光の量の変化は、たとえば、光センサーによって検出され得る。周囲光の検出された増加に応答して、ディスプレイサブシステム701は(処理サブシステム710と連携して)、ディスプレイの輝度を増加させることができる。(たとえば、入力オーディオトランスデューサによって検出されるような)周囲音の増加は、(たとえば、出力オーディオトランスデューサにおける)音振幅の増加をもたらし得る。他の環境変化も検出され、人工現実デバイスのコンピューティング環境内でフィードバックとして実装され得る。場合によっては、センサーサブシステム709は、人工現実デバイスの動きに応答して測定信号を生成することができる。
ユーザが所与の環境で人工現実デバイスを使用しているとき、ユーザは、オーディオソースとして機能する他のユーザまたは他の電子デバイスと対話していることがある。場合によっては、オーディオソースがユーザに対してどこに位置するかを判定し、次いで、それらがオーディオソースの位置から来ているかのように、オーディオソースからのオーディオをユーザに提示することが望ましいことがある。オーディオソースがユーザに対してどこに位置するかを決定するプロセスは、「位置特定(localization)」と呼ばれることがあり、オーディオソース信号のプレイバックを、オーディオソース信号が特定の方向から来ているかのようにレンダリングするプロセスは、「空間化(spatialization)」と呼ばれることがある。
オーディオソースの位置を特定することは、様々な異なるやり方で実施され得る。場合によっては、(処理サブシステム710などの)人工現実デバイスのサブシステムは、音源の位置を決定するために到来方向(DOA)分析を開始することができる。DOA分析は、音が発生した方向を決定するために、人工現実デバイスにおいて、各音の強度、スペクトル、および/または到来時間を分析することを含み得る。DOA分析は、人工現実デバイスが位置する周囲の音響環境を分析するための任意の適切なアルゴリズムを含み得る。
たとえば、DOA分析は、マイクロフォンから入力信号を受信し、入力信号にデジタル信号処理アルゴリズムを適用して、到来方向を推定するように設計され得る。これらのアルゴリズムは、たとえば、入力信号がサンプリングされ、サンプリングされた信号の得られた重み付けおよび遅延されたバージョンが、到来方向を決定するために一緒に平均化される、遅延和アルゴリズムを含み得る。適応フィルタを作成するために、最小2乗平均(LMS:least mean squared)アルゴリズムも実装され得る。この適応フィルタは、次いで、たとえば信号強度の差、または到来時間の差を識別するために使用され得る。これらの差は、次いで、到来方向を推定するために使用され得る。別の実施形態では、DOAは、入力信号を周波数ドメインに変換し、処理すべき時間周波数(TF)ドメイン内の特定のビンを選択することによって決定され得る。各選択されたTFビンは、そのビンが、直接経路オーディオ信号をもつオーディオスペクトルの一部分を含むかどうかを決定するために、処理され得る。直接経路信号の一部分を有するビンは、次いで、マイクロフォンアレイが直接経路オーディオ信号を受信した角度を識別するために、分析され得る。決定された角度は、次いで、受信された入力信号についての到来方向を識別するために使用され得る。上記に記載されていない他のアルゴリズムも、DOAを決定するために、単独でまたは上記のアルゴリズムと組み合わせて使用され得る。
いくつかの実施形態では、異なるユーザが、音のソースを、わずかに異なるロケーションから来るものとして知覚し得る。これは、各ユーザが固有の頭部伝達関数(HRTF)を有することの結果であり得、HRTFは、外耳道長および鼓膜の位置を含むユーザの解剖学的構造によって決定され得る。これらの実施形態では、人工現実デバイスは、ユーザの固有のHRTFに基づいてユーザに提示される音信号をカスタマイズするためにユーザが従うことができる位置合わせおよび配向ガイドを提供することができる。いくつかの実施形態では、人工現実デバイスは、音の到来方向を推定するために、種々の異なるアレイ伝達関数(たとえば、上記で識別されたDOAアルゴリズムのいずれか)を使用し得る。到来方向が決定されると、人工現実デバイスは、ユーザの固有のHRTFに従ってユーザに音を再生することができる。したがって、アレイ伝達関数(ATF)を使用して生成されたDOA推定値は、音が再生されるべき方向を決定するために使用され得る。プレイバック音は、さらに、HRTFに従ってその特定のユーザがどのように音を聞くかに基づいて、改良され得る。
DOA推定を実施することに加えて、またはその代替として、人工現実デバイスは、センサーサブシステム709などの他のタイプのセンサーから受信された情報に基づいて位置特定を実施することができる。これらのセンサーは、カメラ、IRセンサー、熱センサー、動きセンサー、GPS受信機、またはいくつかの場合には、ユーザの眼球運動を検出するセンサーを含み得る。たとえば、上述したように、人工現実デバイスは、ユーザがどこを見ているかを判定する視線追跡サブシステム703を含み得る。しばしば、ユーザの眼は、ほんの一時的にでも音のソースを見ることになる。ユーザの眼によって提供されるそのような手がかりは、さらに、音ソースのロケーションを決定するのを補助し得る。カメラ、熱センサー、およびIRセンサーなど、他のセンサーも、ユーザのロケーション、電子デバイスのロケーション、または別の音ソースのロケーションを指示し得る。上記の方法のいずれかまたはすべてが、音ソースのロケーションを決定するために個々にまたは組み合わせて使用され得、さらに、時間とともに音ソースのロケーションを更新するために使用され得る。
いくつかの実施形態は、ユーザのためのよりカスタマイズされた出力オーディオ信号を生成するために、決定されたDOAを実装し得る。たとえば、「音響伝達関数」が、音がどのように所与のロケーションから受信されたかを特徴づけるかまたは定義し得る。より詳細には、音響伝達関数は、音のソースロケーションにおける音のパラメータと、音信号がそれによって検出されるパラメータ(たとえば、マイクロフォンアレイによって検出される、またはユーザの耳によって検出される)との間の関係を定義し得る。人工現実デバイスは、デバイスの範囲内の音を検出する1つ以上の音響センサーを含み得る。(処理サブシステム710などの)人工現実デバイスの処理サブシステムは、(たとえば、上記で識別された方法のいずれかを使用して)検出された音についてのDOAを推定し得、検出された音のパラメータに基づいて、デバイスの位置に固有の音響伝達関数を生成し得る。したがって、このカスタマイズされた音響伝達関数は、音が特定のロケーションから来るものとして知覚される、空間化された出力オーディオ信号を生成するために使用され得る。
1つ以上の音源の位置が知られると、人工現実デバイスは、その音源の方向から来るかのように聞こえるように、音信号を再レンダリング(すなわち、空間化)することができる。人工現実デバイスは、音信号の強度、スペクトル、または到来時間を変更するフィルタまたは他のデジタル信号処理を適用することができる。デジタル信号処理は、音信号が、決定されたロケーションから発生するものとして知覚されるようなやり方で、適用され得る。人工現実デバイスは、特定の周波数を増幅または抑制するか、または信号が各耳に到来する時間を変化させることができる。場合によっては、人工現実デバイスは、デバイスの位置および音信号の検出された到来方向に固有である音響伝達関数を作成することができる。いくつかの実施形態では、人工現実デバイスは、ステレオデバイスまたはマルチスピーカデバイス(たとえば、サラウンド音デバイス)においてソース信号を再レンダリングすることができる。そのような場合、各スピーカに、別個で異なるオーディオ信号が送られ得る。これらのオーディオ信号の各々が、ユーザのHRTFに従って、ならびにユーザのロケーションおよび音ソースのロケーションの測定に従って、それらのオーディオ信号が音ソースの決定されたロケーションから来ているかのように聞こえるように、改変され得る。したがって、このようにして、人工現実デバイス(またはデバイスに関連付けられたスピーカ)は、オーディオ信号を、あたかも特定の位置から発信しているかのように聞こえるように再レンダリングすることができる。
いくつかの例では、コンピューティングアーキテクチャ700は、人工現実デバイスに電力を供給するように構成されたバッテリサブシステム708を含むこともできる。バッテリサブシステム708は、種々の異なる構成要素および要素を含んでもよく、その例は、限定ではないが、リチウムイオンバッテリ、リチウムポリマーバッテリ、一次リチウムバッテリ、アルカリバッテリ、または任意の他の形態の電源もしくは電力貯蔵デバイスを含む。バッテリサブシステム708は、種々の方法で、本明細書に開示される人工現実デバイスに組み込まれてもよく、および/または別様に関連付けられてもよい。いくつかの例では、バッテリサブシステム708のすべてまたは一部は、人工現実デバイスの背面部分またはエリア内に埋め込まれるか、または配置されてもよい。
いくつかの例では、人工現実デバイスは、ネックバンド、充電ケース、スマートウォッチ、スマートフォン、リストバンド、他のウェアラブルデバイス、ハンドヘルドコントローラ、タブレットコンピュータ、ラップトップコンピュータ、および/または他の外部計算デバイスなどの外部デバイス(たとえば、ペアリングされたデバイス)を含むか、またはそれに接続され得る。この外部デバイスは、概して、任意のタイプまたは形態のペアリングされたデバイスを表す。
外部デバイスは、1つ以上のコネクタを介して人工現実デバイスに結合され得る。コネクタは、ワイヤードまたはワイヤレスであり得、電気的および/または非電気的(たとえば、構造的)構成要素を含み得る。場合によっては、人工現実デバイスおよび外部デバイスは、それらの間にいかなる有線または無線接続も伴わずに、独立して動作してもよい。
外部デバイスを人工現実デバイスとペアリングすることは、拡張された能力のために十分なバッテリおよび計算能力を依然として提供しながら、人工現実デバイスが特定のフォームファクタを達成することを可能にし得る。人工現実デバイスのバッテリ電力、計算リソース、および/または追加の特徴の一部または全部は、ペアリングされたデバイスによって提供されるか、またはペアリングされたデバイスと人工現実デバイスとの間で共有され得、したがって、所望の機能を依然として保持しながら、人工現実デバイス全体の重量、熱プロファイル、およびフォームファクタを低減させる。たとえば、外部デバイスは、別様でデバイス上に含まれるであろう構成要素が外部デバイス内に含まれることを可能にし得るが、これは、ユーザが、自身の頭部上で許容するよりも、重い重量負荷をポケット、肩、または手の中で許容し得るからである。外部デバイスはまた、周囲環境に熱を拡散および分散させるためのより大きな表面積を有することができる。
したがって、外部デバイスは、別様で、スタンドアロンのヘッドウェアデバイス上で可能であったであろうよりも大きなバッテリおよび計算能力を可能にし得る。外部デバイスで運ばれる重量は、人工現実デバイスで運ばれる重量よりもユーザにとって侵襲性が低い場合があるため、ユーザは、重いスタンドアロンの人工現実デバイスを身に着けることをユーザが許容するよりも、より軽い人工現実デバイスを身に着けることと、ペアリングされたデバイスをより長い時間にわたって身に着けることとを許容することができ、それによって、ユーザが、人工現実環境をユーザの日々の活動により完全に組み込むことを可能にする。
外部デバイスは、人工現実デバイスおよび/または他のデバイスと通信可能に結合され得る。これらの他のデバイスは、特定の機能(たとえば、追跡、位置特定、深度マッピング、処理、記憶など)を人工現実デバイスに提供し得る。たとえば、外部デバイスは、上記で説明した音響トランスデューサ607および608など、複数の音響トランスデューサを含み得る。
外部デバイス上の処理サブシステムは、外部デバイスおよび/または人工現実デバイス上のセンサーによって生成された情報を処理することができる。たとえば、処理サブシステムは、マイクロフォンアレイによって検出された音を記述する、マイクロフォンアレイからの情報を処理してもよい。検出された音ごとに、処理サブシステムは、検出された音がマイクロフォンアレイに到来した方向を推定するためにDOA推定を実施することができる。マイクロフォンアレイが音を検出すると、処理サブシステムは、オーディオデータセットに情報を投入することができる。人工現実デバイスが慣性測定ユニットを含む実施形態では、処理サブシステムは、人工現実デバイス上に位置するIMUからすべての慣性および空間計算を計算することができる。コネクタは、人工現実デバイスと外部デバイスとの間、および人工現実デバイスと処理サブシステムとの間で情報を伝達することができる。情報は、光学データ、電気データ、無線データの形態、または任意の他の伝送可能な形態であり得る。上述したように、人工現実デバイスによって生成された情報の処理を外部デバイスに移すことは、人工現実デバイスにおける重量および熱を低減し、ユーザにとってより快適にすることができる。
いくつかの例では、コンピューティングアーキテクチャ700は、通知サブシステム704を含むこともできる。通知サブシステム704は、ユーザに通信されるユーザ通知を生成するように構成することができる。ユーザ通知は、音声ベースの通知、触覚ベースの通知、視覚ベースの通知、または他のタイプの通知を含み得る。たとえば、通知サブシステム704は、テキストメッセージまたは電子メールが(たとえば、人工現実デバイスおよび/または外部デバイスによって)受信されると、(たとえば、音響トランスデューサを介して)音声通知を生成してもよい。他の場合には、種々の触覚トランスデューサは、ディスプレイスクリーンをその格納位置から視聴位置まで下方に移動させるようにユーザに指示するために、ブザーを鳴らすかまたは振動することができる。
別の例では、IRカメラは、同じ部屋内の別の人工現実デバイスを検出することができ、および/またはオーディオセンサーは、他の人工現実デバイスによって放出された非可聴周波数を検出することができる。この例では、人工現実デバイスは、人工現実デバイスおよび検出されたデバイスが対話することができるように、ユーザに人工現実モードに切り替えるように指示するメッセージをディスプレイ上に表示することができる。多くの他のタイプの通知も可能である。場合によっては、人工現実デバイスは、通知に自動的に応答することができるが、他の場合には、ユーザは、通知に応答するために何らかのタイプの対話を実施することができる。
いくつかの例では、通知サブシステム704は、人工現実デバイス上の種々の位置に配置された1つ以上の触覚構成要素を含み得る。これらの触覚トランスデューサは、ブザーまたは振動などの触覚出力を生成するように構成することができる。触覚トランスデューサは、種々の方法で人工現実デバイス内に位置決めすることができる。ユーザは、人工現実デバイス上の実質的に任意の場所から触覚感覚を検出することが可能であってもよく、したがって、触覚トランスデューサは、デバイス全体を通して配置されてもよい。
場合によっては、触覚トランスデューサは、人工現実デバイス上または人工現実デバイス内にパターンで配置され得る。たとえば、触覚トランスデューサは、人工現実デバイス全体にわたって列または円または線で配置されてもよい。これらの触覚トランスデューサは、ユーザが感じることができる異なるパターンを生成するために、異なる時間に作動され得る。いくつかの例では、触覚トランスデューサは、特定の通知に対応するように特定の方法で作動され得る。たとえば、人工現実デバイスの右側の短いブザー音は、ユーザがテキストメッセージを受信したことを示してもよい。人工現実デバイスの左側の2つの短い振動のパターンは、ユーザが通話を受信していることを示すことができ、またはその通話が誰からのものであるかを示すこともできる。一列に配置された連続する触覚トランスデューサ805からの一連の振動は、興味深い人工現実特徴がユーザの現在位置で利用可能であり、ユーザがディスプレイを下げることを考慮すべきであることを示すことができる。加えて、右から左に移動する振動のパターンは、ユーザが交点で左折すべきであることを示すことができる。多くの他のかかる通知が可能であり、上記で特定されたリストは、限定することを意図していない。
触覚トランスデューサまたは他の触覚フィードバック要素は、振動、力、牽引力、質感、および/または温度を含む種々のタイプの皮膚フィードバックを提供することができる。触覚トランスデューサはまた、動きおよびコンプライアンスなどの種々のタイプの運動感覚フィードバックを提供することができる。触覚フィードバックは、モーター、圧電アクチュエータ、流体システム、および/または様々な他のタイプのフィードバックメカニズムを使用して実装され得る。触覚フィードバックシステムは、他の人工現実デバイスとは関係なく、他の人工現実システム内で、かつ/または他の人工現実システムと連携して実装される場合がある。
触覚感覚、可聴コンテンツ、および/または視覚コンテンツを提供することによって、人工現実デバイスは、種々のコンテキストおよび環境において、完全な人工体験を作成するか、またはユーザの現実世界体験を向上させることができる。たとえば、人工現実デバイスは、特定の環境内のユーザの知覚、記憶、または認知を支援または拡張してもよい。人工現実デバイスはまた、現実世界内の他の人々とのユーザの対話を向上させることができ、または仮想世界内の他の人々とのより没入型の対話を可能にし得る。人工現実デバイスはまた、教育目的(たとえば、学校、病院、政府機関、軍事機関、企業などにおける教育または訓練のため)、娯楽目的(たとえば、ビデオゲームのプレイ、音楽の聴取、ビデオコンテンツの視聴など)、および/またはアクセシビリティ目的(たとえば、補聴器、視覚補助などとして)に使用されてもよい。本明細書に開示された実施形態は、これらの状況および環境ならびに/または他の状況および環境のうちの1つまたは複数におけるユーザの人工現実体験を可能にするか、または高めることができる。
場合によっては、ユーザは、力覚または動きベースの移動を介して、処理サブシステム710および/または種々のサブシステム701~709のいずれかと対話することができる。たとえば、ユーザは、(人工現実デバイス上または外部デバイス内のいずれかの)ボタンまたはノブまたはダイヤルを押して、通知に応答してもよい。他の場合には、ユーザは、自身の手、腕、顔、眼、または他の身体部分でジェスチャを実施することができる。このジェスチャは、処理サブシステム710および関連するソフトウェアによって、通知に対する応答として解釈され得る。
場合によっては、ユーザは、脳だけを使用して人工現実デバイスと対話することができる。たとえば、人工現実デバイスは、少なくとも1つの脳コンピュータインターフェースを含んでもよい。一例では、この脳コンピュータインターフェースは、人工現実デバイスのクラウン部分内に位置決めされ得る。脳コンピュータインターフェース(BCI)は、ユーザ入力に変換可能な脳信号を検出するように構成され得る。BCIは、機能的近赤外分光法を使用すること、脳波記録(EEG)を使用すること、乾式活性電極アレイを使用すること、または他のタイプの脳コンピュータインターフェースを使用することを含む、種々の非侵襲的脳活動検出技術のいずれかを使用して、脳波および脳波パターンに基づいて、ユーザの意図を検出および判定してもよい。場合によっては、BCIは、手、指、または肢の移動を示すように構成され得る。他の場合には、BCIは、音声パターンを検出し、検出された音声パターンを書かれたテキストに変換するように構成され得る。このテキストは、返信メッセージ、たとえば、テキストまたは電子メールに適用されてもよい。場合によっては、ユーザがテキストを思考し、思考からテキストへの変換器が単語を形成するにつれて、テキストがディスプレイ上に提示されてもよい。
上記で詳述されるように、ディスプレイサブシステム701の種々の構成要素は、種々の方法で本明細書に説明される人工現実デバイスに結合され得る。いくつかの実施形態では、ディスプレイは、ユーザの顔の前でスイングまたはスライドダウンするように調整され得る。この例では、位置決め機構は、ディスプレイがユーザの視野の実質的に外側にあることが意図される場所に位置決めされる(たとえば、閉じられる)格納位置と、ディスプレイがユーザの視野の実質的に内側にあることが意図される場所に位置決めされる(たとえば、開かれる)視聴位置との間でディスプレイを調整可能に位置決めすることができる。
一例では、人工現実デバイスは、仮想網膜ディスプレイを利用するか、または含み得る。仮想網膜ディスプレイは、ユーザの眼上に直接ディスプレイを描画またはトレースするように構成され得る、仮想網膜ディスプレイプロジェクタを含み得る。本明細書では網膜走査ディスプレイ(RSD)または網膜プロジェクタ(RP)とも称される仮想網膜ディスプレイ(VRD)は、ユーザの眼の網膜上に直接ラスタ表示を描画することができる。次いで、ユーザは、彼らの前の空間に浮いている従来のディスプレイであるように見えるものを見ることができる。本明細書で説明される他のディスプレイデバイスおよび構成要素と同様に、VRDプロジェクタは、人工現実デバイスに結合されてもよい。いくつかの実施形態では、仮想網膜ディスプレイプロジェクタは、ユーザの網膜上に画像を描画するように構成された垂直共振器面発光レーザまたは他のタイプのレーザを組み込むことができる。かかるレーザは、典型的には、ユーザの眼を損傷することを回避するために、比較的低い電力振幅を使用して給電される。垂直共振器面発光レーザが組み込まれる場合、人工現実デバイスはまた、レーザをユーザの網膜上に集束させるホログラフィック格子を含み得る。
上記に詳述されるように、本明細書に説明されるディスプレイサブシステム701および視線追跡サブシステム703は、複数の異なる方法で構成されてもよく、種々の要素および構成要素を含んでもよい。図8は、ユーザの眼(複数可)を追跡することが可能な視線追跡サブシステムを組み込んだ、例示的なシステム800の図である。図8に示されるように、システム800は、光源802、光学サブシステム804、視線追跡サブシステム806、および/または制御サブシステム808を含み得る。いくつかの例では、光源802は、(たとえば、閲覧者の眼801に提示される)画像のための光を生成し得る。光源802は、種々の適切なデバイスのいずれかを表すことができる。たとえば、光源802は、2次元プロジェクタ(たとえば、LCoS(liquid crystal on silicon)ディスプレイ)、走査源(たとえば、走査レーザ)、または他のデバイス(たとえば、LCD(液晶ディスプレイ)、LED(発光ダイオード)ディスプレイ、OLED(有機発光ダイオード)ディスプレイ、アクティブマトリクスOLEDディスプレイ(AMOLED)、透明OLEDディスプレイ(TOLED)、導波管、または画像を閲覧者に提示するための光を生成可能な何らかの他のディスプレイ)を含んでもよい。いくつかの例では、画像は、光線の実際の発散から形成される画像とは対照的に、空間内の点からの光線の見掛けの発散から形成される光学画像を指し得る、仮想画像を表してもよい。
いくつかの実施形態では、光学サブシステム804は、光源802によって生成された光を受け取り、受け取った光に基づいて、画像を含む収束光820を生成することができる。いくつかの例では、光学サブシステム804は、任意の数のレンズ(たとえば、フレネルレンズ、凸レンズ、凹レンズ)、アパーチャ、フィルタ、ミラー、プリズム、および/または他の光学構成要素を、場合によってはアクチュエータおよび/または他のデバイスと組み合わせて含み得る。具体的には、アクチュエータおよび/または他のデバイスは、光学構成要素のうちの1つ以上を平行移動および/または回転させ、収束光820の1つ以上の態様を変更することができる。さらに、種々の機械的結合が、光学構成要素の相対的間隔および/または配向を任意の好適な組み合わせで維持する役割を果たすことができる。
一実施形態では、視線追跡サブシステム806は、閲覧者の眼801の凝視角を示す追跡情報を生成することができる。一例では、制御サブシステム808は、この追跡情報に少なくとも部分的に基づいて光学サブシステム804の態様(たとえば、収束光820の入射角)を制御することができる。加えて、いくつかの例では、制御サブシステム808は、眼801の凝視角(たとえば、視軸と眼801の解剖学的軸との間の角度)を予測するために、履歴追跡情報(たとえば、前の秒またはその分数などの所与の持続時間にわたる追跡情報の履歴)を記憶し、利用することができる。いくつかの実施形態では、視線追跡サブシステム806は、眼801のある部分(たとえば、角膜、虹彩、瞳孔など)から発せられる放射を検出し、眼801の現在の凝視角を判定することができる。他の例では、視線追跡サブシステム806は、瞳孔の現在の場所を追跡するために、波面センサーを採用することができる。
眼801を追跡するために、任意の数の技術を使用することができる。いくつかの技術は、赤外光で眼801を照明することと、赤外光に敏感であるように調整された少なくとも1つの光学センサーで反射を測定することとを含み得る。赤外線光が眼801からどのように反射されるかに関する情報は、角膜、瞳孔、虹彩、および/または網膜血管などの1つ以上の眼特徴(複数可)の位置(複数可)、配向(複数可)、および/または動き(複数可)を判定するように分析することができる。
いくつかの例では、視線追跡サブシステム806のセンサーによって取り込まれた放射線は、デジタル化されてもよい(すなわち、電子信号に変換される)。さらに、センサーは、この電子信号のデジタル表現を1つ以上のプロセッサ(たとえば、視線追跡サブシステム806を含むデバイスに関連付けられたプロセッサ)に伝送することができる。視線追跡サブシステム806は、種々の異なる構成の種々のセンサーのいずれかを含み得る。たとえば、視線追跡サブシステム806は、赤外放射に反応する赤外線検出器を含んでもよい。赤外線検出器は、熱検出器、光子検出器、および/または任意の他の好適なタイプの検出器であり得る。熱検出器は、入射赤外放射の熱効果に反応する検出器を含み得る。
いくつかの例では、1つ以上のプロセッサは、視線追跡サブシステム806のセンサー(複数可)によって生成されたデジタル表現を処理して、眼801の移動を追跡することができる。別の例では、これらのプロセッサは、非一過性メモリ上に記憶されたコンピュータ実行可能命令によって表されるアルゴリズムを実行することによって、眼801の移動を追跡することができる。いくつかの例では、オンチップ論理(たとえば、特定用途向け集積回路またはASIC)が、かかるアルゴリズムの少なくとも一部を実施するために使用され得る。上述したように、視線追跡サブシステム806は、眼801の移動を追跡するためにセンサー(複数可)の出力を使用するようにプログラムすることができる。いくつかの実施形態では、視線追跡サブシステム806は、反射の変化から眼回転情報を抽出するように、センサーによって生成されるデジタル表現を分析してもよい。一実施形態では、視線追跡サブシステム806は、経時的に追跡するための特徴として、角膜反射またはグリント(プルキニエ画像としても知られる)および/または眼の瞳孔822の中心を使用してもよい。
いくつかの実施形態では、視線追跡サブシステム806は、眼の瞳孔822の中心および赤外線または近赤外線の非コリメート光を使用して、角膜反射を作成することができる。これらの実施形態では、視線追跡サブシステム806は、眼の瞳孔822の中心と角膜反射との間のベクトルを使用して、眼801の凝視方向を計算することができる。いくつかの実施形態では、開示されるシステムは、ユーザの眼を追跡する前に、(たとえば、監視または非監視技術を使用して)個人のための較正手順を実施することができる。たとえば、較正手順は、視線追跡システムが各点に関連付けられた各凝視位置に対応する値を記録している間に、ディスプレイ上に表示された1つ以上の点を見るようにユーザに指示することを含んでもよい。
いくつかの実施形態では、視線追跡サブシステム806は、2つのタイプの赤外線および/または近赤外線(活性光としても知られる)視線追跡技術、すなわち、使用される光学要素に対する照明源の場所に基づいて区別され得る、明瞳孔および暗瞳孔視線追跡を使用することができる。照明が光学経路と同軸である場合、眼801は、光が網膜から反射するにつれて、再帰反射器として作用し、それによって、写真撮影における赤目効果に類似する明るい瞳孔効果を生成することができる。照明源が光路からオフセットされる場合、網膜からの再帰反射がセンサーから離れるように向けられるため、眼の瞳孔822は暗く見えることがある。いくつかの実施形態では、明瞳孔追跡は、より大きい虹彩/瞳孔コントラストを作成し、虹彩色素沈着を伴うよりロバストな視線追跡を可能にし得、低減された干渉(たとえば、睫毛および他の曖昧な特徴によって引き起こされる干渉)を特徴とし得る。明瞳孔追跡はまた、完全な暗闇から非常に明るい環境までの範囲の照明条件における追跡を可能にし得る。
いくつかの実施形態では、制御サブシステム808は、光源802および/または光学サブシステム804を制御し、眼801によって生じ得る、または影響され得る、画像の光学収差(たとえば、色収差および/または単色収差)を低減させることができる。いくつかの例では、上述したように、制御サブシステム808は、かかる制御を実施するために、視線追跡サブシステム806からの追跡情報を使用することができる。たとえば、光源802を制御する際に、制御サブシステム808は、眼801によって引き起こされる画像の収差が低減されるように、画像を修正する(たとえば、予め歪曲させる)ために、光源802によって生成される光を(たとえば、画像レンダリングによって)変更してもよい。
開示されるシステムは、(たとえば、瞳孔が拡張および/または収縮するため)瞳孔の位置および相対的サイズの両方を追跡することができる。いくつかの例では、瞳孔を検出および/または追跡するために使用される視線追跡デバイスおよび構成要素(たとえば、センサーおよび/またはソース)は、異なるタイプの眼に対して異なり得る(または異なるように較正され得る)。たとえば、センサーの周波数範囲は、異なる色および/または異なる瞳孔タイプ、サイズなどの眼に対して異なり得る(または別個に較正され得る)。したがって、本明細書に説明される種々の視線追跡構成要素(たとえば、赤外線源および/またはセンサー)は、各個別ユーザおよび/または眼に対して較正される必要があり得る。
開示されるシステムは、ユーザによって装着されるコンタクトレンズによって提供されるものなどの眼の矯正を伴って、および伴わずに、両眼を追跡することができる。いくつかの実施形態では、眼用矯正要素(たとえば、調整可能レンズ)は、本明細書に説明される人工現実システムに直接組み込まれてもよい。いくつかの例では、ユーザの眼の色は、対応する視線追跡アルゴリズムの修正を必要とし得る。たとえば、視線追跡アルゴリズムは、茶色の眼と、たとえば青色の眼との間の異なる色コントラストに少なくとも部分的に基づいて修正される必要があり得る。
図9は、図8に示される視線追跡サブシステムの種々の態様のより詳細な図である。この図に示されるように、視線追跡サブシステム900は、少なくとも1つのソース904と、少なくとも1つのセンサー9806とを含み得る。ソース904は、概して、放射線を放出することができる任意のタイプまたは形態の要素を表す。一例では、ソース904は、可視、赤外、および/または近赤外放射を生成することができる。いくつかの例では、ソース904は、電磁スペクトルの非コリメート赤外線および/または近赤外線部分をユーザの眼902に向けて放射することができる。ソース904は、種々のサンプリングレートおよび速度を利用することができる。たとえば、開示されるシステムは、ユーザの眼902の固視眼球運動を取り込むために、および/またはユーザの眼902のサッカード動力学を正確に測定するために、より高いサンプリングレートを伴うソースを使用してもよい。上述のように、光学ベースの視線追跡技術、超音波ベースの視線追跡技術などを含む、任意のタイプまたは形態の視線追跡技術が、ユーザの眼902を追跡するために使用されてもよい。
センサー906は、概して、ユーザの眼902から反射される放射などの放射を検出することが可能な任意のタイプまたは形態の要素を表す。センサー906の例としては、限定するものではないが、電荷結合素子(CCD)、フォトダイオードアレイ、相補型金属酸化膜半導体(CMOS)ベースのセンサーデバイスなどが挙げられる。一例では、センサー906は、限定はしないが、動的分解能範囲、線形性、ならびに/または特に視線追跡のために選択および/もしくは設計された他の特性を含む、所定のパラメータを有するセンサーを表し得る。
上記で詳述されるように、視線追跡サブシステム900は、1つ以上のグリントを生成することができる。上記で詳述されるように、グリント903は、ユーザの眼の構造からの放射(たとえば、ソース904などの赤外線源からの赤外放射)の反射を表し得る。種々の実施形態では、グリント903および/またはユーザの瞳孔は、(人工現実デバイスの内部または外部のいずれかの)プロセッサによって実行される視線追跡アルゴリズムを使用して追跡され得る。たとえば、人工現実デバイスは、視線追跡をローカルに実施するためのプロセッサおよび/もしくはメモリデバイス、ならびに/または外部デバイス(たとえば、モバイルフォン、クラウドサーバ、もしくは他のコンピューティングデバイス)上で視線追跡を実施するために必要なデータを送受信するためのトランシーバを含んでもよい。
図9は、視線追跡サブシステム900などの視線追跡サブシステムによって取り込まれた例示的な画像905を示している。この例では、画像905は、ユーザの瞳孔908およびその近くのグリント910の両方を含み得る。いくつかの例では、瞳孔908および/またはグリント910は、コンピュータビジョンベースのアルゴリズムなどの人工知能ベースのアルゴリズムを使用して識別され得る。一実施形態では、画像905は、ユーザの眼902を追跡するために連続的に分析され得る、一連のフレーム内の単一のフレームを表すことができる。さらに、瞳孔908および/またはグリント910は、ユーザの凝視を判定するために、ある期間にわたって追跡されてもよい。
上述の視線追跡サブシステムは、本明細書に記載の種々の人工現実システムのうちの1つ以上に種々の方法で組み込むことができる。たとえば、システム800および/または視線追跡サブシステム900の種々の構成要素のうちの1つ以上は、図4の拡張現実システム400および/または図5の仮想現実システム500に組み込まれ、これらのシステムが、種々の視線追跡タスク(本明細書に説明される視線追跡動作のうちの1つ以上を含む)を行うことを可能にしてもよい。
図1~図9に関連した上記の説明に鑑みて、コントローラ上の物理的圧力のレベルまたは変動を感知することが可能なハンドヘルドコントローラは、コントローラのユーザからのより複雑なおよび/または微妙な入力を容易にし得る。人工現実システムなどのいくつかの例では、ユーザによってコントローラに加えられた圧力の感知を含む入力は、ユーザに提示されている人工環境の仮想物体の操作(たとえば、絞る、ピンチング、回転など)として解釈され得る。他の実施形態では、圧力のレベルまたは変動は、メニューをナビゲートする、入力スライダ位置を変更する、または他のタイプの入力デバイス機構を介して提供することがより困難であり得る他のタイプの入力を提供するために採用されてもよい。
例示的実施形態
例1:開示されるハンドヘルドコントローラは、(1)本体であって、(a)手によって把持されるように構成された把持領域と、(b)手が把持領域を把持している間に手の親指によって係合されるように構成された入力表面領域と、を含む、本体と、(2)入力表面領域に機械的に結合された圧力センサーであって、第1の入力として解釈される、親指によって入力表面領域上に加えられた圧力のレベルを示す圧力センサーと、を含み得る。
例2:ハンドヘルドコントローラは、把持領域に結合され、手が把持領域を把持している間に手の人差し指によって係合されるように構成されたトリガボタンをさらに含み得、トリガボタンは、第2の入力として解釈される、トリガボタンがアクティブ化されたかどうかを検出する、例1に記載のハンドヘルドコントローラ。
例3:ハンドヘルドコントローラは、トリガボタンに結合され、出力に基づいて人差し指に触覚フィードバックを提供する触覚アクチュエータをさらに含み得る、例2に記載のハンドヘルドコントローラ。
例4:圧力センサーは、入力表面領域の押下を感知する静圧センサーを含み得る、例1~3のいずれかに記載のハンドヘルドコントローラ。
例5:圧力センサーは、ゼロ移動センサーを含み得る、例1~3のいずれかに記載のハンドヘルドコントローラ。
例6:ハンドヘルドコントローラは、入力表面領域に結合され、出力に基づいて親指に触覚フィードバックを提供する触覚アクチュエータをさらに含み得る、例1~3のいずれかに記載のハンドヘルドコントローラ。
例7:ハンドヘルドコントローラは、入力表面領域に結合され、第2の入力として解釈される入力表面領域とのタッチを検出するように構成された容量センサーをさらに含み得る、例1~3のいずれかに記載のハンドヘルドコントローラ。
例8:ハンドヘルドコントローラは、第2の入力として解釈される入力表面領域上のタッチされた場所を検出する容量センサーをさらに含み得る、例1~3のいずれかに記載のハンドヘルドコントローラ。
例9:ハンドヘルドコントローラは、入力表面領域の外側で本体に結合され、手が把持領域を把持している間に親指によって係合されるように構成された入力ボタンをさらに含み得、入力ボタンは、第2の入力として解釈される入力ボタンが係合されたかどうかを示す、例1~3のいずれかに記載のハンドヘルドコントローラ。
例10:システムは、(1)人工環境において仮想物体を提示するディスプレイと、(2)仮想物体を操作するための複数の入力を処理するプロセッサと、(3)本体と、を含み得、本体は、(a)手によって把持されるように構成された把持領域と、(b)手が把持領域を把持している間に手の親指によって係合されるように構成された入力表面領域と、(c)入力表面領域に機械的に結合された圧力センサーと、を含み、圧力センサーは、親指によって入力表面領域上に加えられた圧力のレベルを示し、プロセッサは、圧力のレベルを複数の入力のうちの第1の入力として処理する。
例11:ハンドヘルドコントローラは、把持領域に結合され、手の人差し指によって係合されるように構成されたトリガボタンをさらに含み得、(1)トリガボタンは、トリガボタンがアクティブ化されたかどうかを示し、(2)プロセッサは、トリガボタンがアクティブ化されているかどうかを複数の入力のうちの第2の入力として処理する、例10に記載のシステム。
例12:プロセッサは、第1の入力と第2の入力との組み合わせを仮想物体の操作として解釈し得る、例10または例11に記載のシステム。
例13:仮想物体の操作は、仮想物体に加えられたピンチング動作を含み得る、例12に記載のシステム。
例14:ハンドヘルドコントローラは、入力表面領域に結合された容量センサーをさらに含み得、(a)容量センサーは、入力表面領域のタッチされた場所を検出し、(b)プロセッサは、タッチされた場所の表現を複数の入力のうちの第3の入力として処理する、例10または例11に記載のシステム。
例15:プロセッサは、第3の入力を、ディスプレイによって提示されたメニューのナビゲーションとして解釈し得る、例14に記載のシステム。
例16:プロセッサは、第1の入力、第2の入力、および第3の入力の組み合わせを仮想物体の操作として解釈し得る、例14に記載のシステム。
例17:仮想物体の操作は、仮想物体に加えられた回転動作を含み得る、例16に記載のシステム。
例18:方法は、(1)ハンドヘルドコントローラの本体の入力表面領域に機械的に結合された圧力センサーによって、入力表面領域に加えられた圧力のレベルを検出することであって、(a)本体は、手によって把持されるように構成された把持領域をさらに含み、(b)入力表面領域は、手が把持領域を把持している間に手の親指によって係合されるように構成される、ことと、(2)プロセッサによって、圧力のレベルを第1の入力として解釈することと、を含み得る。
例19:方法は、(1)把持領域に結合され、手が把持領域を把持している間に手の人差し指によって係合されるように構成されたトリガボタンによって、トリガボタンがアクティブ化されたか否かを検出することと、(2)プロセッサによって、トリガボタンがアクティブ化されたか否かを第2の入力として解釈することと、をさらに含み得る、例18に記載の方法。
例20:(1)ディスプレイによって、人工環境において仮想物体を提示することと、(2)プロセッサによって、第1の入力と第2の入力との組み合わせを仮想物体の操作として解釈することと、をさらに含み得る、例19に記載の方法。
上記に詳述したように、本明細書に記載および/または例証するコンピューティングデバイスおよびシステムは、本明細書に記載するモジュール内に収容されるものなど、コンピュータ可読命令を実行することができる、任意のタイプもしくは形態のコンピューティングデバイスまたはシステムを広く表す。それらの最も基本的な構成では、これらのコンピューティングデバイスはそれぞれ、少なくとも1つのメモリデバイスと少なくとも1つの物理的プロセッサとを含んでもよい。
いくつかの例では、「メモリデバイス」という用語は、一般に、データおよび/またはコンピュータ可読命令を格納することができる、任意のタイプもしくは形態の揮発性または不揮発性記憶デバイスまたは媒体を指す。メモリデバイスの例としては、非限定的に、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、フラッシュメモリ、ハードディスクドライブ(HDD)、固体ドライブ(SSD)、光学ディスクドライブ、キャッシュ、これらの1つもしくは複数の変形例または組み合わせ、あるいは他の任意の好適な記憶メモリが挙げられる。
いくつかの例では、「物理的プロセッサ」という用語は、一般に、コンピュータ可読命令を解釈および/または実行することができる、任意のタイプもしくは形態のハードウェア実装処理装置を指す。一例では、物理的プロセッサは、上述のメモリデバイスに格納された1つもしくは複数のモジュールにアクセスおよび/またはそれを修正してもよい。物理的プロセッサの例としては、非限定的に、マイクロプロセッサ、マイクロコントローラ、中央処理装置(CPU)、ソフトコアプロセッサを実装するフィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、それらの1つもしくは複数の部分、それらの1つもしくは複数の変形例または組み合わせ、あるいは他の任意の好適な物理的プロセッサが挙げられる。
いくつかの実施形態では、「コンピュータ可読媒体」という用語は、一般に、コンピュータ可読命令を格納または搬送することができる、任意の形態のデバイス、キャリア、または媒体を指す。コンピュータ可読媒体の例としては、非限定的に、搬送波などの伝送タイプの媒体、磁気記憶媒体(たとえば、ハードディスクドライブ、テープドライブ、およびフロッピーディスク)などの非一時的タイプの媒体、光学記憶媒体(たとえば、コンパクトディスク(CD)、デジタルビデオディスク(DVD)、およびブルーレイディスク)、電子記憶媒体(たとえば、固体ドライブおよびフラッシュメディア)、ならびに他の分配システムが挙げられる。
本明細書で説明および/または図示されたステップのプロセスパラメータおよびシーケンスは、単に例として与えられており、必要に応じて変動させられ得る。たとえば、本明細書で図示および/または説明されたステップは、特定の順序で示されるかまたは考察され得るが、これらのステップは、図示または考察された順序で実行される必要が必ずしもあるとは限らない。本明細書で説明および/または図示された様々な例示的な方法はまた、本明細書で説明または図示されたステップのうちの1つまたは複数を省略するか、または開示されたものに加えて追加のステップを含み得る。
上記の説明は、他の当業者が、本明細書で開示された様々な態様の例示的な実施形態を最も良く利用することを可能にするために提供された。この例示的な説明は、網羅的なものではないか、または開示されたいずれかの厳密な形態に限定されるものではない。多くの修正および変形が、特許請求の範囲に記載の範囲から逸脱することなく可能である。本明細書で開示された実施形態は、あらゆる点で限定的ではなく例示的であると見なされるべきである。本開示の範囲を決定する際に、添付の特許請求の範囲およびそれらの等価物への参照が行われるべきである。
別段に記載されていない限り、明細書および特許請求の範囲で使用される、「に接続された(connected to)」および「に結合された(coupled to)」という用語(およびそれらの派生語)は、直接的接続と間接的(すなわち、他の要素または構成要素を介した)接続の両方を容認すると解釈されるべきである。加えて、明細書および特許請求の範囲で使用される、「1つの(a)」または「1つの(an)」という用語は、「のうちの少なくとも1つ(at least one of)」を意味すると解釈されるべきである。最後に、使用が容易なように、明細書および特許請求の範囲で使用される、「含む(including)」および「有する(having)」という用語(およびそれらの派生語)は、「備える(comprising)」という単語と交換可能であり、「備える」という単語と同じ意味を有する。

Claims (15)

  1. ハンドヘルドコントローラであって、
    本体であって、
    手によって把持されるように構成された把持領域と、
    前記手が前記把持領域を把持している間に前記手の親指によって係合されるように構成された入力表面領域と、を備える、本体と、
    前記入力表面領域に結合された圧力センサーであって、前記圧力センサーは、第1の入力として解釈される、前記親指によって前記入力表面領域上に加えられた圧力のレベルを示す、圧力センサーと、
    を備える、ハンドヘルドコントローラ。
  2. 前記把持領域に結合され、前記手が前記把持領域を把持している間に前記手の人差し指によって係合されるように構成されたトリガボタンをさらに備え、
    前記トリガボタンは、第2の入力として解釈される、前記トリガボタンがアクティブ化されたかどうかを検出する、
    請求項1に記載のハンドヘルドコントローラ。
  3. 前記トリガボタンに結合され、出力に基づいて前記人差し指に触覚フィードバックを提供する触覚アクチュエータをさらに備える、
    請求項2に記載のハンドヘルドコントローラ。
  4. 前記圧力センサーは、前記入力表面領域の押下を感知する静圧センサーを含む、請求項1から3のいずれか一項に記載のハンドヘルドコントローラ。
  5. 前記圧力センサーは、ゼロ移動センサーを含む、請求項1から4のいずれか一項に記載のハンドヘルドコントローラ。
  6. 前記入力表面領域に結合され、出力に基づいて前記親指に触覚フィードバックを提供する触覚アクチュエータをさらに備える、
    請求項1から5のいずれか一項に記載のハンドヘルドコントローラ。
  7. 前記入力表面領域に結合され、第2の入力として解釈される前記入力表面領域とのタッチを検出するように構成された容量センサーをさらに備える、請求項1から6のいずれか一項に記載のハンドヘルドコントローラ。
  8. 第2の入力として解釈される前記入力表面領域上のタッチされた場所を検出する容量センサーをさらに備える、請求項1から7のいずれか一項に記載のハンドヘルドコントローラ。
  9. 前記入力表面領域の外側で前記本体に結合され、前記手が前記把持領域を把持している間に前記親指によって係合されるように構成された入力ボタンをさらに備え、前記入力ボタンは、第2の入力として解釈される前記入力ボタンが係合されたかどうかを示す、請求項1から8のいずれか一項に記載のハンドヘルドコントローラ。
  10. 人工環境内に仮想物体を提示するディスプレイと、
    前記仮想物体を操作するための複数の入力を処理するプロセッサと、
    ハンドヘルドコントローラと、を備える、システムであって、前記ハンドヘルドコントローラは、
    本体であって、
    手によって把持されるように構成された把持領域と、
    前記手が前記把持領域を把持している間に前記手の親指によって係合されるように構成された入力表面領域と、を備える、本体と、
    前記入力表面領域に結合された圧力センサーであって、前記圧力センサーは、前記親指によって前記入力表面領域上に加えられた圧力のレベルを示し、前記プロセッサは、前記圧力のレベルを前記複数の入力のうちの第1の入力として処理する、圧力センサーと、を備える、
    システム。
  11. 前記ハンドヘルドコントローラは、
    前記把持領域に結合され、前記手の人差し指によって係合されるように構成されたトリガボタン
    をさらに備え、
    前記トリガボタンは、前記トリガボタンがアクティブ化されたかどうかを示し、
    前記プロセッサは、前記トリガボタンがアクティブ化されたかどうかを前記複数の入力のうちの第2の入力として処理する、
    請求項10に記載のシステム。
  12. 前記プロセッサは、前記第1の入力と前記第2の入力との組み合わせを前記仮想物体の操作として解釈し、好ましくは、前記仮想物体の前記操作は、前記仮想物体に加えられたピンチング動作を含む、請求項11に記載のシステム。
  13. 前記ハンドヘルドコントローラは、前記入力表面領域に結合された容量センサーをさらに備え、
    前記容量センサーは、前記入力表面領域のタッチされた場所を検出し、
    前記プロセッサは、前記タッチされた場所の表現を前記複数の入力のうちの第3の入力として処理し、好ましくは、
    i.前記プロセッサは、前記第3の入力を前記ディスプレイによって提示されるメニューのナビゲーションとして解釈し、または
    ii.前記プロセッサは、前記第1の入力、前記第2の入力、および前記第3の入力の組み合わせを前記仮想物体の操作として解釈し、好ましくは、前記仮想物体の前記操作は、前記仮想物体に加えられた回転動作を含む、
    請求項11または12に記載のシステム。
  14. 方法であって、
    ハンドヘルドコントローラの本体の入力表面領域に結合された圧力センサーによって、前記入力表面領域に加えられた圧力のレベルを検出することであって、
    前記本体は、手によって把持されるように構成された把持領域をさらに備え、
    前記入力表面領域は、前記手が前記把持領域を把持している間、前記手の親指によって係合されるように構成される、圧力のレベルを検出することと、
    プロセッサによって、前記圧力のレベルを第1の入力として解釈することと
    を含む、方法。
  15. 前記把持領域に結合され、前記手が前記把持領域を把持している間に前記手の人差し指によって係合されるように構成されたトリガボタンによって、前記トリガボタンがアクティブ化されたかどうかを検出することと、
    前記プロセッサによって、前記トリガボタンがアクティブ化されたかどうかを第2の入力として解釈することと
    をさらに含み、好ましくは、
    ディスプレイによって、人工環境内に仮想物体を提示することと、
    前記プロセッサによって、前記第1の入力と前記第2の入力の組み合わせを前記仮想物体の操作として解釈することと
    をさらに含む、請求項14に記載の方法。
JP2023539965A 2020-05-04 2021-05-01 親指圧力感知を有するハンドヘルドコントローラ Pending JP2024516755A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202016866322A 2020-05-04 2020-05-04
PCT/US2021/030373 WO2022235250A1 (en) 2020-05-04 2021-05-01 Handheld controller with thumb pressure sensing

Publications (1)

Publication Number Publication Date
JP2024516755A true JP2024516755A (ja) 2024-04-17

Family

ID=76076481

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023539965A Pending JP2024516755A (ja) 2020-05-04 2021-05-01 親指圧力感知を有するハンドヘルドコントローラ

Country Status (4)

Country Link
EP (1) EP4330796A1 (ja)
JP (1) JP2024516755A (ja)
CN (1) CN117377927A (ja)
WO (1) WO2022235250A1 (ja)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3686686B2 (ja) * 1993-05-11 2005-08-24 松下電器産業株式会社 力覚呈示デバイス、データ入力装置、及びデータ入力デバイス装置
US10691233B2 (en) * 2016-10-11 2020-06-23 Valve Corporation Sensor fusion algorithms for a handheld controller that includes a force sensing resistor (FSR)

Also Published As

Publication number Publication date
WO2022235250A1 (en) 2022-11-10
EP4330796A1 (en) 2024-03-06
CN117377927A (zh) 2024-01-09

Similar Documents

Publication Publication Date Title
US11042221B2 (en) Methods, devices, and systems for displaying a user interface on a user and detecting touch gestures
US11467670B2 (en) Methods, devices, and systems for displaying a user interface on a user and detecting touch gestures
US11039651B1 (en) Artificial reality hat
US11175731B1 (en) Apparatus, system, and method for directional acoustic sensing via wearables donned by users of artificial reality systems
US11150737B2 (en) Apparatus, system, and method for wrist tracking and gesture detection via time of flight sensors
US11366527B1 (en) Systems and methods for sensing gestures via vibration-sensitive wearables donned by users of artificial reality systems
US20230037329A1 (en) Optical systems and methods for predicting fixation distance
US20240095948A1 (en) Self-tracked controller
WO2023147038A1 (en) Systems and methods for predictively downloading volumetric data
US20230053497A1 (en) Systems and methods for performing eye-tracking
US20220236795A1 (en) Systems and methods for signaling the onset of a user's intent to interact
US11579704B2 (en) Systems and methods for adaptive input thresholding
US11334157B1 (en) Wearable device and user input system with active sensing for computing devices and artificial reality environments
JP2024516755A (ja) 親指圧力感知を有するハンドヘルドコントローラ
US11789544B2 (en) Systems and methods for communicating recognition-model uncertainty to users
US11722137B1 (en) Variable-distance proximity detector
US12028419B1 (en) Systems and methods for predictively downloading volumetric data
US11726552B1 (en) Systems and methods for rendering a trigger finger
WO2023023299A1 (en) Systems and methods for communicating model uncertainty to users
CN118119915A (zh) 用于向用户传达模型不确定性的系统和方法
WO2023023206A1 (en) Systems and methods for performing eye-tracking
WO2023014918A1 (en) Optical systems and methods for predicting fixation distance
CN117882032A (zh) 用于执行眼动追踪的系统和方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240202