JP2022516221A - Ar/vr環境におけるユーザ注意のオーディオインジケータ - Google Patents

Ar/vr環境におけるユーザ注意のオーディオインジケータ Download PDF

Info

Publication number
JP2022516221A
JP2022516221A JP2021529281A JP2021529281A JP2022516221A JP 2022516221 A JP2022516221 A JP 2022516221A JP 2021529281 A JP2021529281 A JP 2021529281A JP 2021529281 A JP2021529281 A JP 2021529281A JP 2022516221 A JP2022516221 A JP 2022516221A
Authority
JP
Japan
Prior art keywords
user
value
sight
line
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021529281A
Other languages
English (en)
Inventor
セバスチャン シュトゥク,
アグスティン ロペス, ハビエル サン
アンダース ボー ペダーセン,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meta Platforms Technologies LLC
Original Assignee
Facebook Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Facebook Technologies LLC filed Critical Facebook Technologies LLC
Publication of JP2022516221A publication Critical patent/JP2022516221A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

拡張現実/仮想現実(AR/VR)システムにおける、ユーザに別のユーザからの注意について通知する方法が提供される。本方法は、AR/VRシステムの第1のユーザに対して第1の電子ディスプレイ上で第1の画像を表示することと、AR/VRシステムの第2のユーザまたは第1の画像中の第2のユーザのアバターに対する第1のユーザの視線を検出すると、第1のユーザを第2のユーザに対してより可聴にするように、第1のユーザから第2のユーザへのオーディオ通信チャネルのパラメータを変更することによって、第2のユーザに第1のユーザの視線について通知することとを含む。【選択図】図1

Description

本開示は、視覚ディスプレイおよびディスプレイシステムに関し、詳細には、ウェアラブルディスプレイおよびそれらのための方法に関する。
ウェアラブルディスプレイは、ユーザに仮想画像を提示するために、あるいは動的情報、データ、または仮想オブジェクトで現実世界画像を拡張するために使用され得る。仮想現実(VR)風景または拡張現実(AR)風景は、体験を向上させ、ユーザによって観測された現実オブジェクトに仮想オブジェクトを整合させるために、3次元であり得る。シミュレートされたまたは拡張された環境への没入のより良好な体験を提供するために、空間におけるユーザの眼の位置および視線方向、および/または向きがリアルタイムで追跡され得、ユーザの頭部の向きおよび視線方向に応じて、表示される風景が動的に調整され得る。
ウェアラブルディスプレイは、ユーザ間のソーシャル対話をシミュレートまたは拡張するために使用され得る。たとえば、仮想会議アプリケーションでは、仮想会議室中のアバターによって表されるユーザが、互いに話すこと、ユーザのグループに情報を提示することなどによって、互いと対話し得る。ソーシャル集会イベントのAR/VRシミュレーションの1つの欠点は、ユーザが、AR/VR環境により、孤立しているまたは方向感覚を失っている(disoriented)と感じ、ユーザ間のソーシャルコンタクトがあまり簡単でなくなり得ることである。
本明細書で開示される方法およびシステムは、ユーザがAR/VR環境中の(1つまたは複数の)他のユーザの注意を引きつけることを可能にするために採用され得る。AR/VRシステムは、異なるユーザによって着用されるべき複数のウェアラブルディスプレイと、コントローラとを含み得る。ウェアラブルディスプレイは、各々、ユーザに対してVR画像を表示するための、ならびに/または観測された外部世界をAR像および記号で拡張するための視覚ディスプレイモジュールと、ユーザの視線方向、輻輳、眼の拡張などのパラメータをリアルタイムで決定するための視標追跡(eye-tracking)システムと、他のユーザとのオーディオ通信のためのオーディオシステムとを含み得る。コントローラは、リモートまたは分散コンピューティングシステムと、コントローラをウェアラブルディスプレイに接続する通信ネットワークとを含み得、したがって、ウェアラブルディスプレイはコントローラと通信可能に連結される。本明細書で使用されるAR/VRという用語は、ARシステムと、VRシステムと、複合現実(MR)システムを含む、それらの任意の組合せとを含む。AR/VRシステムの例が以下でさらに与えられる。
特定のユーザのウェアラブルディスプレイが、システムの(1つまたは複数の)他のユーザを表す画像を示し得る。本方法は、AR/VRシステムのユーザが、システムの別のユーザがそのユーザを見ているときに気づくことを可能にする。スクリーン上に表されるユーザは、遠くに位置し、特定のウェアラブルディスプレイを着用しているユーザにとって可視でないことがあり、アバターによって表され得る。いくつかのAR実施形態では、ユーザは、ユーザのARヘッドセットを通して他のユーザを直接観察し得る。
本開示によれば、拡張現実/仮想現実(AR/VR)システムのウェアラブルディスプレイにおける方法が提供される。本方法は、ウェアラブルディスプレイを使用して、AR/VRシステムの第2のユーザに対してオーディオを鳴らすことであって、オーディオが、AR/VRシステムの第1のユーザから発生し、第1のユーザから第2のユーザへのオーディオ通信チャネルのパラメータを有し、パラメータが、第1のユーザを第2のユーザに対してより可聴にするように、第1の値から第2の値に変更される、オーディオを鳴らすことを含む。パラメータは、プロセッサが、第1のユーザの視標追跡データを処理するための命令を実行することなどによって、第2のユーザ、または第1のユーザに対して表示される画像中の第2のユーザのアバターに向けられた、第1のユーザの視線が検出されたとき、変更される。
パラメータは、プロセッサが、第1のユーザの眼が少なくともあらかじめ定められた時間間隔の間第2のユーザまたは第2のユーザのアバターを見たと決定するための命令を実行したとき、第1の値から第2の値に変更され得る。
パラメータは、第2のユーザに対する第1のユーザの視線方向が検出されたとき、第1の値から第2の値に変更され得る。この場合、パラメータは、第2のユーザに対する第1のユーザの視線輻輳または第1のユーザの瞳孔拡張のうちの少なくとも1つが検出されたとき、第1の値から第2の値に変更され得る。
パラメータは、第1のユーザの視線の前に第1の値を有していることがある。
パラメータは、第1のユーザの視線方向または視線輻輳のうちの少なくとも1つが規則的な時間間隔でプロセッサによって決定されたとき、第1の値から第2の値に変更され得る。
パラメータは、視線が少なくともあらかじめ定められた時間間隔の間はずされ(withdraw)たとき、第1の値に戻され得る。
本開示によれば、命令を記憶した非一時的メモリであって、命令は、1つまたは複数のプロセッサによって実行されたとき、1つまたは複数のプロセッサに、ウェアラブルディスプレイを使用して、AR/VRシステムの第2のユーザに対してオーディオを鳴らすことであって、オーディオが、AR/VRシステムの第1のユーザから発生し、第1のユーザから第2のユーザへのオーディオ通信チャネルのパラメータを有し、パラメータが、第1のユーザを第2のユーザに対してより可聴にするように、第1の値から第2の値に変更される、オーディオを鳴らすことを行わせる、非一時的メモリが提供される。パラメータは、プロセッサが、第1のユーザの視標追跡データを処理するための命令を実行することなどによって、第2のユーザ、または第1のユーザに対して表示される画像中の第2のユーザのアバターに向けられた、第1のユーザの視線が検出されたとき、変更される。
パラメータは、プロセッサが、第1のユーザの眼が少なくともあらかじめ定められた時間間隔の間第2のユーザまたは第2のユーザのアバターを見たと決定するための命令を実行したとき、第1の値から第2の値に変更され得る。
パラメータは、第2のユーザに対する第1のユーザの視線方向が検出されたとき、第1の値から第2の値に変更され得る。この場合、パラメータは、第2のユーザに対する第1のユーザの視線輻輳または第1のユーザの瞳孔拡張のうちの少なくとも1つが検出されたとき、第1の値から第2の値に変更され得る。
パラメータは、第1のユーザの視線の前に第1の値を有していることがある。
パラメータは、第1のユーザの視線方向または視線輻輳のうちの少なくとも1つが規則的な時間間隔でプロセッサによって決定されたとき、第1の値から第2の値に変更され得る。
パラメータは、視線が少なくともあらかじめ定められた時間間隔の間はずされたとき、第1の値に戻され得る。
本開示によれば、視標追跡システムと、第1のユーザに対して第1の画像を表示するための第1の電子ディスプレイと、マイクロフォンとを備える、第1のウェアラブルディスプレイと、第2のユーザに対して第2の画像を表示するための第2の電子ディスプレイと、スピーカーとを備える、第2のウェアラブルディスプレイと、第1のウェアラブルディスプレイおよび第2のウェアラブルディスプレイに通信可能に連結されたコントローラとを備える、AR/VRシステムがさらに提供される。コントローラは、本AR/VRシステムの第1のユーザから第2のユーザへのオーディオ通信チャネルを確立することと、第1の画像を表示するために第1のウェアラブルディスプレイにデータを提供することとを行うように構成される。コントローラは、第1のウェアラブルディスプレイから、第1のユーザの視標検出および追跡に関係するデータを受信することと、第2のユーザ、または第1の画像中の第2のユーザのアバターに向けられた、第1のユーザの視線を識別することとを行うように構成された注意モニタを含む。コントローラは、視線を検出すると、第1のユーザを第2のユーザに対してより可聴にするように、オーディオ通信チャネルのパラメータを第1の値から第2の値に変更するように構成される。
注意モニタは、第1のユーザの眼が少なくともあらかじめ定められた時間間隔の間第2のユーザまたは第1の画像中の第2のユーザのアバターを見ると決定するように構成され得る。
注意モニタは、第1のユーザの視線方向を決定するように構成され得る。この場合、注意モニタは、第1のユーザの視線輻輳または瞳孔拡張のうちの少なくとも1つを決定するように構成され得る。
パラメータは、オーディオ通信チャネルのピークオーディオ周波数、オーディオ通信チャネルのスペクトル幅、またはラウドネスのうちの少なくとも1つを含み得る。
注意モニタは、経時的に第1のユーザの視線を監視することと、視線が少なくともあらかじめ定められた時間間隔の間はずされたとき、パラメータを第1の値に戻すこととを行うように構成され得る。
次に、図面に関して例示的な実施形態が説明される。
本開示による、AR/VRシステムのブロック図である。 図1のAR/VRシステムにおける方法のフローチャートである。 図1のオーディオ通信チャネルのスペクトル応答関数を示す図である。 図1のAR/VRシステムの注意モニタのための例示的な方法のフローチャートである。 眼鏡フォームファクタニアアイ拡張現実(AR)/仮想現実(VR)ウェアラブルディスプレイ実施形態の等角図である。 図5AのAR/VRウェアラブルディスプレイの側面断面図である。 本開示のヘッドマウントディスプレイヘッドセットの等角図である。 図6Aのヘッドセットを含む仮想現実システムのブロック図である。 スクリーンを凝視する眼の概略図である。 一実施形態による、図1のAR/VRシステムのための例示的なネットワーク環境のブロック図である。 本開示の方法を実装するためのコンピュータシステムのブロック図である。
本教示は、様々な実施形態および例に関して説明されるが、本教示は、そのような実施形態に限定されるものではない。見方を変えれば、本教示は、当業者によって諒解されるように、様々な代替形態および等価物を包含する。本開示の原理、態様、および実施形態、ならびにそれらの特定の例を具陳する、本明細書のすべての記述は、それらの構造的等価物と機能的等価物の両方を包含するものとする。加えて、そのような等価物は、現在知られている等価物、ならびに将来において開発される等価物、すなわち、構造にかかわらず、同じ機能を実施する開発された要素の両方を含むものとする。
本明細書で使用される、「第1の」、「第2の」などの用語は、別段明示的に述べられていない限り、順序を暗示するものではなく、むしろ、ある要素を別の要素と区別するものである。同様に、方法ステップの順序は、別段明示的に述べられていない限り、方法ステップの実行の順番を暗示しない。「複数(plurality)」という用語は、「2つまたはそれ以上」を意味するために本明細書で使用され、「含む(include)」という単語は、「含む、備える(comprise)」という単語と同じ意味で使用される。
図1を参照すると、AR/VRシステム100は、ユーザのアン(111)およびボブ(112)など、2つまたはそれ以上のユーザの対話を可能にする。システム100は、ネットワークを介して2つまたはそれ以上のウェアラブルディスプレイ128(アンのウェアラブルディスプレイ)および126(ボブのウェアラブルディスプレイ)と接続されるコントローラ152を含む。各ウェアラブルディスプレイ126、128は、電子ディスプレイとオーディオシステムとを含み、すなわち、アンのウェアラブルディスプレイ128は、電子ディスプレイ121とオーディオシステム191とを含み、ボブのウェアラブルディスプレイ126は、電子ディスプレイ122とオーディオシステム192とを含む。オーディオシステム191、192は、各々、スピーカー193またはマイクロフォン194のうちの少なくとも1つを含み得る。コントローラ152から受信されたデータを使用して、画像および音が伝達される。また、コントローラ152は、アンからボブに向けられた第1のオーディオ通信チャネル171と、ボブからアンに向けられた第2のオーディオ通信チャネル172とを確立する。第1のオーディオ通信チャネル171および第2のオーディオ通信チャネル172は、アンとボブとの間の双方向通信チャネルの一部であり得、および/または、アンと、ボブと、もしいれば、他のユーザとの間の多方向通信チャネルの一部であり得る。さらに、コントローラ152は、サウンドトラック、バックグラウンドミュージック、自動告知など、他の音を生成し得る。
アンのウェアラブルディスプレイ128によって生成された画像は、広角カメラによってキャプチャされた画像を含み得るか、または、完全にVR生成された画像を含み得る。VR生成画像は、複数のユーザを表し得、特に、ボブを表す画像136を含み得る。本明細書では、ボブを表す画像136は、ボブのアバター136と呼ばれる。ボブのアバター136は、静止画像または動画像、アイコン、グラフィック表現、アニメーション画像などであり得る。いくつかのAR実施形態では、アンは、外部世界の直接ビューを可能にする外光を透過しながら、現実ビューをコンピュータ生成グラフィックスおよび他のコンピュータ生成画像で拡張する、ARヘッドセットを通してボブを直接見得る。そのような実施形態では、ボブの現実世界ビューは、キュー、記号などで拡張され得る。同じことが、アン、ならびに任意の他のユーザ、ならびに、互いに他のユーザを表す画像、すなわち、他のユーザのアバター131、132、および136について成り立つ。いくつかのAR実施形態では、同じシーン中に配置された仮想アバターおよび現実の人々が存在し得る。さらに、ユーザは、フォンによってダイヤルインすることができ、ダイヤルインしたユーザを表すアバターを配置することによって、シーン中に配置され得る。
図2は、本開示による、オーディオキューを提示するための方法のフローチャートである。方法は、AR/VRシステムの第1のユーザから第2のユーザへのオーディオ通信チャネルを確立すること(225)と、AR/VRシステムの第1のユーザに対して第1の電子ディスプレイ上で第1の画像を表示すること(230)とを含む。図1に示されている例では、第1のユーザ111はアンであり、第1の電子ディスプレイはアンの電子ディスプレイ121であり、画像136はボブを表す。
図1をさらに参照すると、AR/VRシステム100の第1のウェアラブルディスプレイ128は、第1のユーザの眼に関するデータを収集し、取得されたデータを(図1中で161Aおよび161Bとして示されている)注意モニタ161に提供する、視標追跡システム142を含む。好ましくは、第2のウェアラブルディスプレイ126も視標追跡システムを含み、したがって、アンは、同様に、ボブの視線を通知され得る。
注意モニタ161は、アンのウェアラブルディスプレイ128などのウェアラブルディスプレイ内の1つまたは複数のローカル部161Bを含み、コントローラ152内の中央部161Aを含む、機能ブロックである。ユーザロケーションにおけるローカル部161B、または中央ロケーションにおける中央部161Aのいずれかによって、何らかの機能性が実装され得る。注意モニタ161は、コンピュータ可読記憶媒体に記憶され、(1つまたは複数の)ハードウェアプロセッサによって実行される、命令で実装され得る。
注意モニタ161は、アンが、ボブを見る、たとえば、ARアプリケーションにおいてボブを直接見るのか、VRアプリケーションにおいてボブのアバター136を見るのかを識別するために、視標追跡システム142によって取得された情報と、電子ディスプレイ121上に現在表示されている画像に関係する情報とを同期させる。図1では、線170は、アンがボブのアバター136を見るときのアンの視線の特定の方向を指示する。
この例では、アンは、ボブのアバター136を見る。アンは、別のユーザを表す画像132に自分の注意をシフトし得る。注意モニタ161は、電子ディスプレイ121に提供される画像を形成するために使用された初期情報に基づいて、画像136と画像132とを区別し得る。注意モニタ161は、電子ディスプレイ121のどの部分が特定のユーザの画像によって占有されるかを識別する情報を有する。ARアプリケーションでは、各ARヘッドセットは、各ユーザが3D空間においてどこに位置するかを、AR/VRシステム100がリアルタイムで決定することを可能にする、位置センサーまたは位置インジケータを装備し得る。様々なユーザについての3D空間における視線方向および/または輻輳と一緒に、この情報は、各ユーザについて、どの1つまたは複数の他のユーザがその特定のユーザをおそらく見ているかを、AR/VRシステム100がリアルタイムで決定することを可能にする。たとえば、ボブが現実世界ロケーションAにおり、アンが3D空間における同じ現実世界ロケーションAを偶然見る場合、AR/VRシステム100は、アンがボブを見ていると決定し得る。
AR/VRシステム100の別のユーザに向けられた、あるユーザの視線の持続時間を識別する目的で、注意モニタ161は、ボブまたはボブのアバター136に対するアンの視線の継続時間を計算し得る。視線持続時間は、あらかじめ定められた時間間隔中の、ボブのアバター136などの特定の画像に対する、あるいはARアプリケーションにおける特定の人または3D空間ロケーションに対する、無中断連続視線として定義され得る。視線検出条件が、少なくともあらかじめ定められた時間間隔T1の間特定の画像を観察することとして構成され得る。視線検出条件が満たされたとき、視線の発生が検出される。
したがって、図2の方法は、視線、たとえば、第2のユーザ(ボブ)、または第1のユーザ(この場合、アン)に対して第1の電子ディスプレイ121上で表示される第1の画像中の第2のユーザのアバター(ボブのアバター136)のほうへの、線170によって表される、第1のユーザ(アン)の視線を検出すること(235)をさらに含む。検出すること235は、視標追跡ユニット、たとえば視標追跡システム142によって第1のユーザの眼の移動を追跡することを含み得る。検出することは、視線持続時間が、あらかじめ定められたしきい値時間量よりも長いという条件を含み得る。検出することは、第1のユーザの瞳孔拡張のようないくつかの眼の特性をも考慮に入れ得る。拡張された瞳孔は、高いレベルの注意を指示し得る。注意モニタ161は、あるユーザが少なくとも所定のしきい値時間量の間別のユーザに注意を払うと決定したとき、別のユーザは通知され得る。たとえば、モニタ161が、アンから、ボブに関係する画像136のほうへの視線170を検出したとき、コントローラ152はボブに通知し得る。
方法は、通知240をさらに含む。通知240は、第1のユーザ111(アン)を第2のユーザ112(ボブ)に対してより可聴にするように、第1のユーザ111から第2のユーザ112への第1のオーディオ通信チャネル171のパラメータを変更することを含み得る。パラメータは、第1のデフォルト値、たとえばすべてのユーザにとって共通の値から、第2の異なる値に変更される。パラメータは、たとえばオーディオ信号レベル、すなわち、アンがボブに話すときのアンの音声のラウドネスを含み得る。これは、ボブ、さらに言えば、任意の他のユーザの注意を得ることをより容易にすることによって、AR/VRシステム100の様々なユーザ間のソーシャル対話を容易にし得る。
第1のユーザの音声を第2のユーザに対してより可聴にまたはわかるようにするパラメータは、視線検出235時に修正され得る。たとえば、パラメータは、オーディオ通信チャネルのスペクトル形状に関係し得る。図1をさらに参照しながら図3を参照すると、第1の通信チャネル171(図1)は、AR/VRシステム100のすべてのユーザにとって共通であり得るデフォルトスペクトル応答関数300(図3)を有する。デフォルトスペクトル応答関数300は、第1のピークオーディオ周波数302および第1のスペクトル幅304を特徴とし得る。第2のユーザ112への第1のユーザ111の視線を検出する235と、コントローラ152は、第1の通信チャネル171を、第2のより高いピークオーディオ周波数312および第2のより狭いスペクトル幅314を特徴とする修正されたスペクトル応答関数310を有するように、変更する。修正されたスペクトル応答関数310は、たとえば第1のユーザ111が所定の時間量の間第2のユーザ112を凝視するとき、音声をよりシャープに聞こえるようにし、したがって、第2のユーザ112によってより容易にわかるようにする。
いくつかの実施形態では、ユーザの音声を異なるように聞こえるようにするために、ユーザの音声のピッチをリアルタイムで変更すること、ユーザの咽喉のモデル化された音響パラメータをリアルタイムで変更することなどを行うために、周波数シフト技法が適用され得る。第1のユーザの音声を強調するために、第1のユーザのスピーチのいくつかの周波数がブロックされ得、および/または、背景音が低減され得る。さらに、いくつかの実施形態では、アクティブ(電子)外部雑音抑圧/雑音消去が採用され得、特定のユーザが見られるとき、雑音消去は、オンにされるか、またはより大きい効果のために増加され得る。また、コントローラ152は、ユーザの隣に位置する人々の音声を、特に、これらの人々が、ユーザにではなく互いに話している場合、抑圧するように構成され得る。
通知は、任意選択的に、記号、視覚キュー、テキスト、シンボル、および/または、ボブのディスプレイ122上でボブに対して表示されるアンの画像に追加される色、コントラスト、輝度、輪郭など、アンのアバター131の何らかの修正など、視覚情報をも含み得る。視覚キューは、ボブのARヘッドセットによって提供される人工画像または特徴を表し得る。好ましくは、視覚キューは、あらかじめ定められ、容易にわかるものであるが、視覚キューは、適度に微細のままであり得る。視覚キューの目的は、第2のユーザに対するまたは第2のユーザのほうへの第1のユーザの識別された視線に応答して、第2のユーザの注意を第1のユーザに引きつけることを容易にすることである。
方法は、リアルタイムで実施され得る。AR/VRシステム100は、ユーザの眼がスクリーンの異なるエリア間でシフトするにつれて、規則的な時間間隔で、更新された視標追跡情報を受信することができ、ディスプレイシステムは、更新された視標追跡情報に基づいて、ユーザが見ているスクリーンにおける点である、注視点(point of regard)、すなわち視線点を算出することができる。好ましくは、視線方向および視線輻輳によって表される注視点は、あらかじめ定められた規則的な時間間隔で識別される。上記で説明されたように、第2のユーザは、第1のユーザの視線が確実に検出されるとすぐに、すなわち視線が所定の時間量の間発生している場合、通知される。次いで、システムは、第1のユーザ111の視線を監視し続ける。視線はずし条件(gaze withdrawal condition)が、あらかじめ定められた時間間隔T2未満の間第2のユーザを見続けることとして構成され得る。2つの時間間隔、すなわち、T1(視線の検出のしきい値時間)とT2(視線をはずす)とは等しく、すなわち、T1=T2であり得るが、必ずしも等しいとは限らない。注意モニタ161はまた、アイコンタクトの持続時間を快適な継続時間に限定する目的で、ユーザの眼および/または頭部の自然な移動を検出するように構成され得る。言い換えれば、第1のユーザは、短い間、床を見ること、自分の頭部を左右に振ることなどを行い得る。注意モニタ161は、第1のユーザと第2のユーザとの間のオーディオ通信チャネルのパラメータを変更することなしに、「短いはずし時間(brief withdrawal time)」T3の間のそのような移動を可能にするように構成され得る。しかしながら、視線はずし条件が満たされたとき、第1のオーディオ通信チャネル171のパラメータは元の(第1の)値に戻される。
最終的に、第1のユーザ111は、第2のユーザ112に自分の注意を戻し得る。視線検出条件が満たされたとき、第1のオーディオ通信チャネル171のパラメータは、再び第2の値に変更され得るか、または、たとえば、第1のユーザの音声を、見られているユーザにとってなお一層わかるようにするために選択された、異なる第3の値に変更され得る。本明細書では、オーディオパラメータの第2の値または第3の値は注意を指示し、第1の(デフォルト)値は注意の欠如を指示し得る。
第2のユーザのボブ(112)の視点から、方法は、ボブのウェアラブルディスプレイを使用して、ボブの注意に宛てられたオーディオを鳴らすことを含む。オーディオは、アンから発生し、アン(第1のユーザ111)からボブ(第2のユーザ、112)へのオーディオ通信チャネル171のパラメータを有する。上記で説明されたように、パラメータは、アン(第1のユーザ111)をボブ(第2のユーザ112)に対してより可聴にするように、第1の値から第2の値に変更される。これは、プロセッサが、アンの視標追跡データを処理するための命令を実行したことによって、ボブ、またはアンの電子ディスプレイ121上でアンに表示される画像中のボブのアバター136に向けられた、アンの視線が検出されたとき、起こる。パラメータは、プロセッサが、第1のユーザ111(アン)の眼が少なくともあらかじめ定められた時間間隔の間第2のユーザ112(ボブ)または第2のユーザのアバター136を見たと決定するための命令を実行したとき、第1の値から第2の値に変更され得る。いくつかの実施形態では、オーディオパラメータの変更は、第2のユーザ111に対する第1のユーザの視線方向、輻輳、瞳孔拡張などが検出されたとき、行われ得る。第1のユーザの視線方向または視線輻輳のうちの少なくとも1つは、規則的な時間間隔でプロセッサによって決定され得、視線がはずされたとき、第1の値に戻され得る。
いくつかの実施形態では、シーン中の人の存在を決定するために、ならびに年齢および性別に基づいてその人の音声ピッチを予測するために、顔認識が使用され得る。VRアプリケーションでは、各ユーザについて、オーディオプロファイルが提供され得、オーディオプロファイルに基づいてスペクトルフィルタ処理が適用されて、スピーチ検出可能性を最適化し得る。さらに、いくつかのアプリケーションでは、各ユーザの聴覚周波数応答が、たとえばユーザ自身のヘッドセットを使用して聴力検査を実施することによって、決定され得る。測定された聴覚周波数応答は、本明細書で説明されるように、ユーザによるスピーチ検出可能性を向上させるために、および/またはその特定のユーザを見ている(1つまたは複数の)他のユーザによる通信のオーディオチャネルをハイライトするために、ユーザにオーディオ信号を提供するとき、考慮され得る。
図4は、第2のユーザ112のほうへの第1のユーザ111の視線の存在または不在を検出するための、注意モニタ161によって採用される例示的な方法400のフローチャートである。初期に(402)、視線ステータスは、いいえである。間隔タイマーが開始され(404)、注視点が検出される(406)。注視点が第2の人の画像内にある(408)場合、観察タイマーが増分される(410)。注視点が第2の人の画像内にない場合、および間隔タイマーが<T1である(412)場合、プロセスは、注視点を検出すること(406)に戻る。いいえの場合、視線ステータスは決定される(414)。視線がなく、観察タイマーが<X*T1である(416)場合、プロセスは間隔タイマーを再開する(404)。観察タイマーが>X*T1である(418)場合、視線ステータスは、はいであり(420)、第2のユーザは視線変更を通知される(422)。視線が残存し、観察タイマーが>Y*T1である場合、プロセスは、同じく間隔タイマーを再開する(404)。観察タイマーが<Y*T1である場合、視線ステータスは、いいえであり(424)、第2のユーザは視線変更を通知される(422)。ユーザの視線は経時的に連続的に監視され得る。本明細書では、XおよびYは、プロセスパラメータ>1である。第1の電子ディスプレイ121上で表される他のユーザのほうへの第1のユーザ111の可能な視線が、同様の様式で考慮され得る。もちろん、(1つまたは複数の)他の方法が採用され得、特に、視線の存在または不在を決定するために、スライディング時間ウィンドウが使用され得る。
第1のユーザ111および第2のユーザ112は、それらのユーザの視線が視標追跡デバイスによってキャプチャされ得るような、人々であり得る。しかしながら、第1のユーザによって払われる注意を通知される第2のユーザ112はまた、機械、コンピュータ、またはロボットであり得る。
図5Aおよび図5Bを参照すると、ニアアイAR/VRディスプレイ500は、ウェアラブルディスプレイ126、128の一実施形態である。ニアアイAR/VRディスプレイ500の本体またはフレーム502は、示されているように、一対の眼鏡のフォームファクタを有する。ディスプレイ504はディスプレイアセンブリ506を含み(図5B)、ディスプレイアセンブリ506は、アイボックス510に、すなわち、良い品質の画像がユーザの眼512に提示され得る幾何学的エリアに、画像光508を提供する。ディスプレイアセンブリ506は、各眼のための別個のニアアイAR/VRディスプレイモジュール、または両方の眼のための1つのAR/VRディスプレイモジュールを含み得る。
ディスプレイアセンブリ506の電子ディスプレイは、たとえば、および限定はしないが、液晶ディスプレイ(LCD)、有機発光ディスプレイ(OLED)、無機発光ディスプレイ(ILED)、アクティブマトリックス有機発光ダイオード(AMOLED)ディスプレイ、透明有機発光ダイオード(TOLED)ディスプレイ、プロジェクタ、またはそれらの組合せを含み得る。ディスプレイによって生成された画像をユーザの眼に伝達するための導波路構造が提供され得る。ARアプリケーションでは、透明または半透明導波路構造が、ディスプレイアセンブリ506にわたって広がり得る。導波路は、選択的反射体と回折格子とを含み得る。導波路は、瞳孔複製(pupil-replicating)導波路セクションをも含み得る。
ニアアイAR/VRディスプレイ500は、ユーザの眼512の視線方向および/または輻輳角をリアルタイムで決定するための視標追跡システム514をも含み得る。決定された、視線方向および視線輻輳角はまた、画角および眼の位置に応じて、視覚的アーティファクトのリアルタイム補償のために使用され得る。さらに、決定された、輻輳および視線角は、ユーザとの対話、オブジェクトをハイライトすること、オブジェクトを前景に持ってくること、追加のオブジェクトまたはポインタを動的に作成することなどのために使用され得る。ニアアイコヒーレントAR/VRディスプレイ500は、オーディオシステム520をも含む。オーディオシステム520は、小さいスピーカーまたはヘッドフォン、および/あるいはマイクロフォンを含み得る。
図6Aを参照すると、HMD600は、AR/VR環境へのより大きい程度の没入のためのユーザの顔を囲むAR/VRウェアラブルディスプレイシステムの一例である。HMD600の機能は、コンピュータ生成された像で物理的現実世界の環境のビューを拡張すること、および/または、完全に仮想3D像を生成することである。HMD600は、前面本体602と、バンド604とを含み得る。前面本体602は、信頼できるおよび快適な様式でのユーザの眼の前への配置のために構成され、バンド604は、ユーザの頭部上で前面本体602を固定するために伸張され得る。ディスプレイシステム680は、ユーザにAR/VR像を提示するために、前面本体602中に配設され得る。前面本体602の側面606は、不透明であるか、または透明であり得る。
いくつかの実施形態では、前面本体602は、ロケータ608と、HMD600の加速度を追跡するための慣性測定ユニット(IMU)610と、HMD600の位置を追跡するための位置センサー612とを含む。IMU610は、HMD600の動きに応答して1つまたは複数の測定信号を生成する位置センサー612のうちの1つまたは複数から受信された測定信号に基づいて、HMD600の位置を指示するデータを生成する電子デバイスである。位置センサー612の例は、1つまたは複数の加速度計、1つまたは複数のジャイロスコープ、1つまたは複数の磁力計、動きを検出する別の好適なタイプのセンサー、IMU640の誤差補正のために使用されるタイプのセンサー、またはそれらの何らかの組合せを含む。位置センサー612は、IMU610の外部に、IMU610の内部に、またはそれらの何らかの組合せで位置し得る。
ロケータ608は、仮想現実システムが、HMD600全体のロケーションおよび向きを追跡することができるように、仮想現実システムの外部撮像デバイスによって追跡される。IMU610および位置センサー612によって生成された情報は、HMD600の位置および向きの追跡精度改善のために、ロケータ608を追跡することによって取得された位置および向きと比較され得る。正確な位置および向きは、ユーザが、3D空間において移動し、回転するので、適切な仮想風景をユーザに提示するために重要である。
HMD600は、HMD600の一部または全部の周囲のローカルエリアの深度情報を記述するデータをキャプチャする、深度カメラアセンブリ(DCA)611をさらに含み得る。そのために、DCA611は、レーザーレーダー(LIDAR)、または同様のデバイスを含み得る。深度情報は、3D空間におけるHMD600の位置および向きの決定のより良好な精度のために、IMU610からの情報と比較され得る。
HMD600は、リアルタイムでユーザの眼の向きおよび位置を決定するための視標追跡システム614をさらに含み得る。視標追跡システム614は、両方の眼を照らす赤外線照明器のアレイと、赤外光と可視光とを分離するためのホットミラーと、照明器からの反射(グリント)を用いて両方の眼の画像を取得する視標追跡カメラとを含み得る。眼の瞳孔の位置に対するグリントの位置を比較することによって、眼の位置および向きが決定され得る。眼の取得された位置および向きはまた、HMD600が、ユーザの視線方向を決定することと、それに応じてディスプレイシステム680によって生成された画像を調整することとを可能にする。一実施形態では、輻輳、すなわち、ユーザの眼視線の収束角が決定される。決定された、視線方向および視線輻輳角はまた、画角および眼の位置に応じて、視覚的アーティファクトのリアルタイム補償のために使用され得る。さらに、決定された、輻輳および視線角は、ユーザとの対話、オブジェクトをハイライトすること、オブジェクトを前景に持ってくること、追加のオブジェクトまたはポインタを作成することなどのために使用され得る。たとえば、前面本体602に組み込まれた小さいスピーカーのセットおよび/またはマイクロフォンを含む、オーディオシステム644が提供され得る。
図6Bを参照すると、AR/VRシステム650は、図6AのHMD600と、様々なAR/VRアプリケーション、セットアップおよび較正手順、3Dビデオなどを記憶する外部コンソール690と、コンソール690を動作させ、および/またはAR/VR環境と対話するための入出力(I/O)インターフェース615とを含む。HMD600は、物理的ケーブルを用いてコンソール690に「テザリング」されるか、またはBluetooth(登録商標)、Wi-Fiなど、ワイヤレス通信リンクを介してコンソール690に接続され得る。関連するI/Oインターフェース615を各々有する、複数のHMD600があり得、各HMD600および(1つまたは複数の)I/Oインターフェース615はコンソール690と通信する。代替構成では、異なるおよび/または追加の構成要素が、AR/VRシステム650中に含まれ得る。加えて、図6Aおよび図6Bに示されている構成要素のうちの1つまたは複数に関して説明される機能性は、いくつかの実施形態では、図6Aおよび図6Bに関して説明されるものとは異なる様式で構成要素の間で分散され得る。たとえば、コンソール615の機能性の一部または全部がHMD600によって提供され得、その逆も同様である。HMD600は、そのような機能性を達成することが可能な処理モジュールを提供され得る。
図6Aを参照しながら上記で説明されたように、HMD600は、眼の位置および向きを追跡する、視線角および収束角を決定するなどのための視標追跡システム614(図6B)と、3D空間におけるHMD600の位置および向きを決定するためのIMU610と、外部環境をキャプチャするためのDCA611と、HMD600の位置を独立して決定するための位置センサー612と、ユーザに対してAR/VRコンテンツを表示するためのディスプレイシステム680とを含み得る。ディスプレイシステム680は、(図6B)電子ディスプレイ625を含み、たとえば、および限定はしないが、液晶ディスプレイ(LCD)、有機発光ディスプレイ(OLED)、無機発光ディスプレイ(ILED)、アクティブマトリックス有機発光ダイオード(AMOLED)ディスプレイ、透明有機発光ダイオード(TOLED)ディスプレイ、プロジェクタ、またはそれらの組合せを含む。ディスプレイシステム680は、光学ブロック630をさらに含み、光学ブロック630の機能は、電子ディスプレイ625によって生成された画像をユーザの眼に伝達することである。ディスプレイシステム680は、光学ブロック630の一部であり得る、可変焦点モジュール635をさらに含み得る。可変焦点モジュール635の機能は、たとえば、輻輳調節矛盾(vergence-accommodation conflict)を補償すること、特定のユーザの視覚障害を補正すること、光学ブロック630の収差をオフセットすることなどのために、光学ブロック630の焦点を調整することである。
I/Oインターフェース615は、ユーザがアクション要求を送り、コンソール690から応答を受信することを可能にするデバイスである。アクション要求は、特定のアクションを実施するための要求である。たとえば、アクション要求は、画像データまたはビデオデータのキャプチャを開始または終了するための命令、あるいはアプリケーション内で特定のアクションを実施するための命令であり得る。I/Oインターフェース615は、キーボード、マウス、ゲームコントローラ、またはアクション要求を受信し、そのアクション要求をコンソール690に通信するための任意の他の好適なデバイスなど、1つまたは複数の入力デバイスを含み得る。I/Oインターフェース615によって受信されたアクション要求は、コンソール690に通信され、コンソール690は、そのアクション要求に対応するアクションを実施する。いくつかの実施形態では、I/Oインターフェース615は、I/Oインターフェース615の初期位置に対するI/Oインターフェース615の推定位置を指示する較正データをキャプチャするIMUを含む。いくつかの実施形態では、I/Oインターフェース615は、コンソール690から受信された命令に従って、ユーザに触覚フィードバックを提供し得る。たとえば、アクション要求が受信されたときに触覚フィードバックが提供され得るか、またはコンソール690がアクションを実施するときに、コンソール690が、I/Oインターフェース615に命令を通信して、I/Oインターフェース615が触覚フィードバックを生成することを引き起こす。
コンソール690は、IMU610とDCA611と視標追跡システム614とI/Oインターフェース615とのうちの1つまたは複数から受信された情報に従って、処理するためのコンテンツをHMD600に提供し得る。図6Bに示されている例では、コンソール690は、アプリケーションストア655と、追跡モジュール660と、VRエンジン665とを含む。コンソール690のいくつかの実施形態は、図6Bに関して説明されるものとは異なるモジュールまたは構成要素を有し得る。同様に、以下でさらに説明される機能は、図6Aおよび図6Bに関して説明されるものとは異なる様式でコンソール690の構成要素の間で分散され得る。
アプリケーションストア655は、コンソール690が実行するための1つまたは複数のアプリケーションを記憶し得る。アプリケーションは、プロセッサによって実行されたとき、ユーザへの提示のためのコンテンツを生成する命令のグループである。アプリケーションによって生成されたコンテンツは、HMD600またはI/Oインターフェース615の移動を介してユーザから受信された入力に応答したものであり得る。アプリケーションの例は、ゲームアプリケーション、プレゼンテーションおよび会議アプリケーション、ビデオ再生アプリケーション、または他の好適なアプリケーションを含む。
追跡モジュール660は、1つまたは複数の較正パラメータを使用してAR/VRシステム650を較正し得、HMD600またはI/Oインターフェース615の位置を決定する際の誤差を低減するように、1つまたは複数の較正パラメータを調整し得る。また、追跡モジュール660によって実施される較正は、HMD600中のIMU610および/または、もしあれば、I/Oインターフェース615中に含まれるIMUから受信された情報を考慮する。加えて、HMD600の追跡が失われた場合、追跡モジュール660は、AR/VRシステム650の一部または全部を再較正し得る。
追跡モジュール660は、HMD600またはI/Oインターフェース615の移動、IMU610、またはそれらの何らかの組合せを追跡し得る。たとえば、追跡モジュール660は、HMD600からの情報に基づいて、ローカルエリアのマッピングにおいてHMD600の基準点の位置を決定し得る。追跡モジュール660はまた、HMD600の基準点の位置、またはI/Oインターフェース615の基準点の位置を、それぞれ、HMD600の位置を指示するIMU610からのデータを使用して、またはI/Oインターフェース615の位置を指示するI/Oインターフェース615中に含まれるIMUからのデータを使用して決定し得る。さらに、いくつかの実施形態では、追跡モジュール660は、位置またはHMD600を指示するIMU610からのデータの部分、ならびにDCA611からのローカルエリアの表現を使用して、HMD600の将来のロケーションを予測し得る。追跡モジュール660は、HMD600またはI/Oインターフェース615の推定または予測された将来の位置をVRエンジン665に提供する。
VRエンジン665は、HMD600から受信された情報に基づいて、HMD600の一部または全部の周囲のエリア(「ローカルエリア」)の3Dマッピングを生成し得る。いくつかの実施形態では、VRエンジン665は、深度を算出する際に使用される技法に関連する、DCA611から受信された情報に基づいて、ローカルエリアの3Dマッピングのための深度情報を決定する。様々な実施形態では、VRエンジン665は、深度情報を使用して、ローカルエリアのモデルを更新し、更新されたモデルに部分的に基づいて、コンテンツを生成し得る。
VRエンジン665は、AR/VRシステム650内でアプリケーションを実行し、追跡モジュール660から、HMD600の位置情報、加速度情報、速度情報、予測された将来の位置、またはそれらの何らかの組合せを受信する。受信された情報に基づいて、VRエンジン665は、ユーザへの提示のためにHMD600に提供すべきコンテンツを決定する。たとえば、受信された情報が、ユーザが左を見ていることを指示する場合、VRエンジン665は、仮想環境において、またはローカルエリアを追加のコンテンツで拡張する環境において、ユーザの移動を反映する、HMD600のためのコンテンツを生成する。加えて、VRエンジン665は、I/Oインターフェース615から受信されたアクション要求に応答して、コンソール690上で実行しているアプリケーション内でアクションを実施し、そのアクションが実施されたというフィードバックをユーザに提供する。提供されるフィードバックは、HMD600を介した視覚または可聴フィードバック、あるいはI/Oインターフェース615を介した触覚フィードバックであり得る。
いくつかの実施形態では、視標追跡システム614から受信された視標追跡情報(たとえば、ユーザの眼の向き)に基づいて、VRエンジン665は、電子ディスプレイ625上でのユーザへの提示のために、HMD600に提供されたコンテンツの解像度を決定する。VRエンジン665は、ユーザの視線の中心窩領域において、電子ディスプレイ625上の最大ピクセル解像度を有するコンテンツをHMD600に提供し得る。VRエンジン665は、電子ディスプレイ625の他の領域において、より低いピクセル解像度を提供し、したがって、AR/VRシステム650の電力消費を少なくし、ユーザの視覚体験を損なうことなしにコンソール690のコンピューティングリソースを節約し得る。いくつかの実施形態では、VRエンジン665はさらに、視標追跡情報を使用して、オブジェクトが電子ディスプレイ625上で表示されるところを調整して、輻輳調節矛盾を防ぎ、ならびに/または光学的ひずみおよび収差をオフセットすることができる。
図7は、図1の視線ベクトル170に対応する視線ベクトル706によって指示される方向にあるスクリーン704を凝視する、ユーザの眼702を示す。図7は、スクリーン上の中心窩領域708をさらに示す。注意モニタモジュール161(図1)は、眼が見ている方向を表す、視線ベクトルを決定する。いくつかの実施形態では、注意モニタモジュール161は、眼球中心(図7中のA)と、角膜中心(C)と、瞳孔(E)と、角膜中心と瞳孔中心との間の距離(h)とを含む、眼に関連する複数の眼の特性に基づいて、視線ベクトルを決定する。一実施形態では、視標追跡システム142は、これらの眼の特性を推定し、その推定を視標追跡情報の一部として注意モニタモジュール161に送る。別の実施形態では、モジュール161は、視標追跡システム142から眼の角度の向きを受信し、角回転に基づいて眼のモデルに回転を適用することによって、これらの眼の特性を生成する。他の実施形態では、注意モニタモジュール161は、視標追跡システム142から眼の中心窩軸を受信し、中心窩軸の方向を視線ベクトル306として使用する。視線ベクトル706を決定した後に、モジュール161は、視線ベクトル706とスクリーン704との交点を算出することによって、注視点714を決定する。他の実施形態では、注視点714は、他の手段によって算出される。
別の実施形態では、2つの視線ベクトルが、ユーザの2つの眼について別個に決定され、ウェアラブルディスプレイ128は、2つの視線ベクトルの収束に基づいてユーザの焦点深度を決定する。この実施形態では、ウェアラブルディスプレイ128は、第1のユーザが、特定のオブジェクトまたはユーザに自分の眼を集中させるのか、スクリーンに注意を払うことなしにただ自分の眼を休ませるのかを決定するために、焦点深度と、シーン中のオブジェクトの深度値との間の深度の差(以下、深度差と呼ぶ)を決定する。
図8は、本開示の方法が実装され得る、AR/VRシステム100の一例を提供する。AR/VRシステム100は、ネットワーク855と、コントローラ152を含む1つまたは複数のサーバ850と、デバイス820および821によって示されている複数のユーザデバイス、たとえばウェアラブルディスプレイ128または126とを備える。(1つまたは複数の)サーバ850は、画像を表示するためにユーザデバイスにデータを提供し、ユーザ音声を伝達し、ユーザアクティビティを監視し、ユーザに、(1つまたは複数の)他のユーザによってそのユーザに払われる注意を通知する。ネットワーク855は、サーバ850とユーザデバイス820および821との間の通信のための手段を提供する。ネットワーク855は、インターネット、モバイルデバイスキャリアネットワークなどのワイヤレスまたはワイヤードネットワーク、あるいは、サーバとクライアントとの間の通信のために使用され得る任意の他のネットワークであり得る。ユーザデバイス820および821はHMDであり得、各々は、デスクトップコンピュータ、あるいはモバイルデバイス、たとえば、モバイルフォン、セルフォン、スマートフォン、携帯情報端末、ノートブックコンピュータ、タブレットコンピュータ、ラップトップコンピュータ、カメラ、ビデオカメラ、またはハンドヘルドゲームコンソールなど、任意の好適なコンピューティングデバイスを含み得る。
図9は、例示的なコンピュータシステム900を示す。特定の実施形態では、1つまたは複数のコンピュータシステム900は、本明細書で説明または示される1つまたは複数の方法の1つまたは複数のステップを実施する。特定の実施形態では、1つまたは複数のコンピュータシステム900は、本明細書で説明または示される機能性を提供する。特定の実施形態では、1つまたは複数のコンピュータシステム900上で稼働しているソフトウェアは、本明細書で説明または示される1つまたは複数の方法の1つまたは複数のステップを実施するか、あるいは本明細書で説明または示される機能性を提供する。特定の実施形態は、1つまたは複数のコンピュータシステム900の1つまたは複数の部分を含む。
本開示は、任意の好適な数のコンピュータシステム900を企図する。本開示は、任意の好適な物理的形態をとるコンピュータシステム900を企図する。限定としてではなく例として、コンピュータシステム900は、組込み型コンピュータシステム、システムオンチップ(SOC)、(たとえば、コンピュータオンモジュール(COM)またはシステムオンモジュール(SOM)などの)シングルボードコンピュータシステム(SBC)、デスクトップコンピュータシステム、ラップトップまたはノートブックコンピュータシステム、対話型キオスク、メインフレーム、コンピュータシステムのメッシュ、携帯電話、携帯情報端末(PDA)、サーバ、タブレットコンピュータシステム、あるいはこれらのうちの2つまたはそれ以上の組合せであり得る。適切な場合、コンピュータシステム900は、1つまたは複数のコンピュータシステム900を含むか、単一または分散型であるか、複数のロケーションにわたるか、複数のマシンにわたるか、複数のデータセンターにわたるか、あるいは1つまたは複数のネットワーク中の1つまたは複数のクラウド構成要素を含み得るクラウド中に常駐し得る。適切な場合、1つまたは複数のコンピュータシステム900は、実質的な空間的または時間的制限なしに、本明細書で説明または示される1つまたは複数の方法の1つまたは複数のステップを実施し得る。限定としてではなく一例として、1つまたは複数のコンピュータシステム900は、リアルタイムでまたはバッチモードで、本明細書で説明または示される1つまたは複数の方法の1つまたは複数のステップを実施し得る。1つまたは複数のコンピュータシステム900は、適切な場合、異なる時間においてまたは異なるロケーションにおいて、本明細書で説明または示される1つまたは複数の方法の1つまたは複数のステップを実施し得る。
特定の実施形態では、コンピュータシステム900は、プロセッサ902と、非一時的メモリ904と、ストレージ906と、入出力(I/O)インターフェース908と、通信インターフェース910と、バス912とを含む。本開示は、特定の構成において特定の数の特定の構成要素を有する特定のコンピュータシステムを説明し、示すが、本開示は、任意の好適な構成において任意の好適な数の任意の好適な構成要素を有する任意の好適なコンピュータシステムを企図する。
特定の実施形態では、プロセッサ902は、コンピュータプログラムを作り上げる命令など、命令を実行するためのハードウェアを含む。限定としてではなく一例として、命令を実行するために、プロセッサ902は、内部レジスタ、内部キャッシュ、非一時的メモリ904、またはストレージ906から命令を取り出し(またはフェッチし)、それらの命令を復号および実行し、次いで、内部レジスタ、内部キャッシュ、非一時的メモリ904、またはストレージ906に1つまたは複数の結果を書き込み得る。特定の実施形態では、プロセッサ902は、データ、命令、またはアドレスのための1つまたは複数の内部キャッシュを含み得る。本開示は、特定のプロセッサを説明し、示すが、本開示は任意の好適なプロセッサを企図する。
特定の実施形態では、非一時的メモリ904は、プロセッサ902が実行するための命令、またはプロセッサ902が動作する対象のデータを記憶するためのメインメモリを含む。限定としてではなく一例として、コンピュータシステム900は、ストレージ906または(たとえば、別のコンピュータシステム900などの)別のソースからメモリ904に命令をロードし得る。プロセッサ902は、次いで、メモリ904から内部レジスタまたは内部キャッシュに命令をロードし得る。命令を実行するために、プロセッサ902は、内部レジスタまたは内部キャッシュから命令を取り出し、それらの命令を復号し得る。命令の実行中またはその後に、プロセッサ902は、(中間結果または最終結果であり得る)1つまたは複数の結果を内部レジスタまたは内部キャッシュに書き込み得る。プロセッサ902は、次いで、非一時的メモリ904にそれらの結果のうちの1つまたは複数を書き込み得る。
特定の実施形態では、プロセッサ902は、1つまたは複数の内部レジスタまたは内部キャッシュ中の、あるいは(ストレージ906または他の場所とは対照的な)メモリ904中の命令のみを実行し、1つまたは複数の内部レジスタまたは内部キャッシュ中の、あるいは(ストレージ906または他の場所とは対照的な)メモリ904中のデータのみに対して動作する。(アドレスバスおよびデータバスを各々含み得る)1つまたは複数のメモリバスが、プロセッサ02をメモリ904に連結し得る。バス912は、以下で説明されるように、1つまたは複数のメモリバスを含み得る。特定の実施形態では、1つまたは複数のメモリ管理ユニット(MMU)が、プロセッサ902とメモリ904との間に常駐し、プロセッサ902によって要求されるメモリ904へのアクセスを容易にする。本開示は、特定のメモリを説明し、示すが、本開示は任意の好適なメモリを企図する。
特定の実施形態では、ストレージ906は、データまたは命令のための大容量ストレージを含む。ストレージ906は、適切な場合、リムーバブルまたは非リムーバブル(すなわち、固定)媒体を含み得る。ストレージ906は、適切な場合、コンピュータシステム900の内部または外部にあり得る。特定の実施形態では、ストレージ906は、不揮発性ソリッドステートメモリである。適切な場合、ストレージ906は、1つまたは複数のストレージ906を含み得る。本開示は、特定のストレージを説明し、示すが、本開示は任意の好適なストレージを企図する。
特定の実施形態では、I/Oインターフェース908は、コンピュータシステム900と1つまたは複数のI/Oデバイスとの間の通信のための1つまたは複数のインターフェースを提供する、ハードウェア、ソフトウェア、またはその両方を含む。コンピュータシステム900は、適切な場合、これらのI/Oデバイスのうちの1つまたは複数を含み得る。これらのI/Oデバイスのうちの1つまたは複数は、人とコンピュータシステム900との間の通信を可能にし得る。限定としてではなく一例として、I/Oデバイスは、キーボード、キーパッド、マイクロフォン、モニタ、マウス、プリンタ、スキャナ、スピーカー、スチールカメラ、スタイラス、タブレット、タッチスクリーン、トラックボール、ビデオカメラ、別の好適なI/Oデバイス、またはこれらのうちの2つまたはそれ以上の組合せを含み得る。I/Oデバイスは1つまたは複数のセンサーを含み得る。本開示は、任意の好適なI/Oデバイスと、それらのI/Oデバイスのための任意の好適なI/Oインターフェース908とを企図する。適切な場合、I/Oインターフェース908は、プロセッサ902がこれらのI/Oデバイスのうちの1つまたは複数を駆動することを可能にする1つまたは複数のデバイスまたはソフトウェアドライバを含み得る。I/Oインターフェース908は、適切な場合、1つまたは複数のI/Oインターフェース908を含み得る。本開示は、特定のI/Oインターフェースを説明し、示すが、本開示は任意の好適なI/Oインターフェースを企図する。
特定の実施形態では、通信インターフェース910は、コンピュータシステム900と、1つまたは複数の他のコンピュータシステム900または1つまたは複数のネットワークとの間の(たとえば、パケットベース通信などの)通信のための1つまたは複数のインターフェースを提供する、ハードウェア、ソフトウェア、またはその両方を含む。限定としてではなく一例として、通信インターフェース910は、イーサネットまたは他のワイヤベースネットワークと通信するためのネットワークインターフェースコントローラ(NIC)またはネットワークアダプタ、あるいはWi-Fiネットワークなどのワイヤレスネットワークと通信するためのワイヤレスNIC(WNIC)またはワイヤレスアダプタを含み得る。本開示は、任意の好適なネットワークと、そのネットワークのための任意の好適な通信インターフェース910とを企図する。本開示は、特定の通信インターフェースを説明し、示すが、本開示は任意の好適な通信インターフェースを企図する。
特定の実施形態では、バス912は、コンピュータシステム900の構成要素を互いに結合する、ハードウェア、ソフトウェア、またはその両方を含む。本開示は、特定のバスを説明し、示すが、本開示は任意の好適なバスまたは相互接続を企図する。
本明細書では、コンピュータ可読記憶媒体への言及は、1つまたは複数の非一時的、有形、コンピュータ可読記憶媒体所有構造を包含する。限定としてではなく一例として、コンピュータ可読記憶媒体は、適切な場合、(たとえば、フィールドプログラマブルゲートアレイ(FPGA)または特定用途向けIC(ASIC)などの)半導体ベースまたは他の集積回路(IC)、ハードディスク、HDD、ハイブリッドハードドライブ(HHD)、光ディスク、光ディスクドライブ(ODD)、光磁気ディスク、光磁気ドライブ、フロッピーディスク、フロッピーディスクドライブ(FDD)、磁気テープ、ホログラフィック記憶媒体、ソリッドステートドライブ(SSD)、RAMドライブ、セキュアデジタルカード、セキュアデジタルドライブ、あるいは別の好適なコンピュータ可読記憶媒体、あるいはこれらのうちの2つまたはそれ以上の組合せを含み得る。本明細書では、コンピュータ可読記憶媒体への言及は、米国特許法第101条に基づく特許保護の対象とならない媒体を除外する。本明細書では、コンピュータ可読記憶媒体への言及は、米国特許法第101条に基づく特許保護の対象とならない限り、(電気信号または電磁信号自体を伝搬することなどの)信号送信の一時的形態を除外する。コンピュータ可読非一時的記憶媒体は、適切な場合、揮発性、不揮発性、または揮発性と不揮発性との組合せであり得る。
本開示は、任意の好適なストレージを実装する1つまたは複数のコンピュータ可読記憶媒体を企図する。特定の実施形態では、コンピュータ可読記憶媒体は、適切な場合、(たとえば、1つまたは複数の内部レジスタまたはキャッシュなど)プロセッサ902の1つまたは複数の部分、メモリ904の1つまたは複数の部分、ストレージ906の1つまたは複数の部分、またはこれらの組合せを実装する。特定の実施形態では、コンピュータ可読記憶媒体は、RAMまたはROMを実装する。特定の実施形態では、コンピュータ可読記憶媒体は、揮発性または永続的メモリを実装する。特定の実施形態では、1つまたは複数のコンピュータ可読記憶媒体はソフトウェアを具現する。本明細書では、ソフトウェアへの言及は、適切な場合、1つまたは複数のアプリケーション、バイトコード、1つまたは複数のコンピュータプログラム、1つまたは複数の実行ファイル、1つまたは複数の命令、論理、機械コード、1つまたは複数のスクリプト、またはソースコードを包含し得、その逆も同様である。特定の実施形態では、ソフトウェアは、1つまたは複数のアプリケーションプログラミングインターフェース(API)を含む。本開示は、任意の好適なプログラミング言語またはプログラミング言語の任意の好適な組合せで書かれた、または場合によっては表現された、任意の好適なソフトウェアを企図する。特定の実施形態では、ソフトウェアは、ソースコードまたはオブジェクトコードとして表現される。
本開示は、本明細書で説明される特定の実施形態によって、範囲が限定されるべきではない。実際は、上記の説明および添付の図面から、本明細書で説明されるものに加えて、他の様々な実施形態および修正が当業者に明らかになろう。したがって、そのような他の実施形態および修正は、本開示の範囲内に入るものとする。さらに、本開示は、特定の目的のための特定の環境における特定の実装形態のコンテキストにおいて、本明細書で説明されたが、本開示の有用性がそれに限定されないこと、および、本開示が、任意の数の目的のための任意の数の環境において有益に実装され得ることを、当業者は認識されよう。したがって、以下に記載する特許請求の範囲は、本明細書で説明される本開示の全幅および全趣旨に鑑みて解釈されるべきである。

Claims (15)

  1. AR/VRシステムのウェアラブルディスプレイにおける方法であって、前記方法は、
    前記ウェアラブルディスプレイを使用して、前記AR/VRシステムの第2のユーザに対してオーディオを鳴らすことであって、前記オーディオが、前記AR/VRシステムの第1のユーザから発生し、前記第1のユーザから前記第2のユーザへのオーディオ通信チャネルのパラメータを有し、前記パラメータが、前記第1のユーザを前記第2のユーザに対してより可聴にするように、第1の値から第2の値に変更される、オーディオを鳴らすこと
    を含み、
    プロセッサが、前記第1のユーザの視標追跡データを処理するための命令を実行することによって、前記第2のユーザ、または前記第1のユーザに対して表示される画像中の前記第2のユーザのアバターに向けられた、前記第1のユーザの視線が検出された、
    方法。
  2. 前記パラメータは、前記プロセッサが、前記第1のユーザの眼が少なくともあらかじめ定められた時間間隔の間前記第2のユーザまたは前記第2のユーザのアバターを見たと決定するための命令を実行したとき、前記第1の値から前記第2の値に変更される、請求項1に記載の方法。
  3. 前記パラメータは、前記第2のユーザに対する前記第1のユーザの視線方向が検出されたとき、前記第1の値から前記第2の値に変更され、および、任意選択的に、
    前記パラメータは、前記第2のユーザに対する前記第1のユーザの視線輻輳または前記第1のユーザの瞳孔拡張のうちの少なくとも1つが検出されたとき、前記第1の値から前記第2の値に変更される、
    請求項1に記載の方法。
  4. 前記パラメータが、前記第1のユーザの前記視線の前に前記第1の値を有した、請求項1に記載の方法。
  5. 前記パラメータは、前記第1のユーザの視線方向または視線輻輳のうちの少なくとも1つが規則的な時間間隔で前記プロセッサによって決定されたとき、前記第1の値から前記第2の値に変更され、および/あるいは、
    前記パラメータは、前記視線が少なくともあらかじめ定められた時間間隔の間はずされたとき、前記第1の値に戻される、
    請求項1に記載の方法。
  6. 命令を記憶した非一時的メモリであって、前記命令は、1つまたは複数のプロセッサによって実行されたとき、前記1つまたは複数のプロセッサに、ウェアラブルディスプレイを使用して、AR/VRシステムの第2のユーザに対してオーディオを鳴らすことであって、前記オーディオが、前記AR/VRシステムの第1のユーザから発生し、前記第1のユーザから前記第2のユーザへのオーディオ通信チャネルのパラメータを有し、前記パラメータが、前記第1のユーザを前記第2のユーザに対してより可聴にするように、第1の値から第2の値に変更される、オーディオを鳴らすことを行わせ、
    プロセッサが、前記第1のユーザの視標追跡データを処理するための命令を実行することによって、前記第2のユーザ、または前記第1のユーザに対して表示される画像中の前記第2のユーザのアバターに向けられた、前記第1のユーザの視線が検出された、
    非一時的メモリ。
  7. 前記パラメータは、前記プロセッサが、前記第1のユーザの眼が少なくともあらかじめ定められた時間間隔の間前記第2のユーザまたは前記第2のユーザのアバターを見たと決定するための命令を実行したとき、前記第1の値から前記第2の値に変更される、請求項6に記載の非一時的メモリ。
  8. 前記パラメータは、前記第2のユーザに対する前記第1のユーザの視線方向が検出されたとき、前記第1の値から前記第2の値に変更され、および、任意選択的に、
    前記パラメータは、前記第2のユーザに対する前記第1のユーザの視線輻輳または前記第1のユーザの瞳孔拡張のうちの少なくとも1つが検出されたとき、前記第1の値から前記第2の値に変更される、
    請求項6に記載の非一時的メモリ。
  9. 前記パラメータが、前記第1のユーザの前記視線の前に前記第1の値を有した、請求項6に記載の非一時的メモリ。
  10. 前記パラメータは、前記第1のユーザの視線方向または視線輻輳のうちの少なくとも1つが規則的な時間間隔で前記1つまたは複数のプロセッサによって決定されたとき、前記第1の値から前記第2の値に変更され、および/あるいは、
    前記パラメータは、前記視線が少なくともあらかじめ定められた時間間隔の間はずされたとき、前記第1の値に戻される、
    請求項6に記載の非一時的メモリ。
  11. AR/VRシステムであって、
    視標追跡システムと、第1のユーザに対して第1の画像を表示するための第1の電子ディスプレイと、マイクロフォンとを備える、第1のウェアラブルディスプレイと、
    第2のユーザに対して第2の画像を表示するための第2の電子ディスプレイと、スピーカーとを備える、第2のウェアラブルディスプレイと、
    前記第1のウェアラブルディスプレイおよび前記第2のウェアラブルディスプレイに通信可能に連結され、前記AR/VRシステムの前記第1のユーザから前記第2のユーザへのオーディオ通信チャネルを確立することと、前記第1の画像を表示するために前記第1のウェアラブルディスプレイにデータを提供することとを行うように構成された、コントローラであって、前記コントローラが、前記第1のウェアラブルディスプレイから、前記第1のユーザの視標追跡に関係するデータを受信することと、前記第2のユーザ、または前記第1の画像中の前記第2のユーザのアバターに向けられた、前記第1のユーザの視線を識別することとを行うように構成された注意モニタを備え、前記コントローラが、前記視線を検出すると、前記第1のユーザを前記第2のユーザに対してより可聴にするように、前記オーディオ通信チャネルのパラメータを第1の値から第2の値に変更するように構成された、コントローラと
    を備える、AR/VRシステム。
  12. 前記注意モニタは、前記第1のユーザの眼が少なくともあらかじめ定められた時間間隔の間前記第2のユーザまたは前記第1の画像中の前記第2のユーザのアバターを見ると決定するように構成された、請求項11に記載のAR/VRシステム。
  13. 前記注意モニタが、前記第1のユーザの視線方向を決定するように構成され、および、任意選択的に、
    前記注意モニタが、前記第1のユーザの視線輻輳または瞳孔拡張のうちの少なくとも1つを決定するように構成された、
    請求項11に記載のAR/VRシステム。
  14. 前記パラメータが、前記オーディオ通信チャネルのピークオーディオ周波数、前記オーディオ通信チャネルのスペクトル幅、またはラウドネスのうちの少なくとも1つを含む、請求項11に記載のAR/VRシステム。
  15. 前記注意モニタは、経時的に前記第1のユーザの前記視線を監視することと、前記視線が少なくともあらかじめ定められた時間間隔の間はずされたとき、前記パラメータを前記第1の値に戻すこととを行うように構成された、請求項11に記載のAR/VRシステム。
JP2021529281A 2018-12-27 2019-12-23 Ar/vr環境におけるユーザ注意のオーディオインジケータ Pending JP2022516221A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862785634P 2018-12-27 2018-12-27
US62/785,634 2018-12-27
US16/392,103 US10990171B2 (en) 2018-12-27 2019-04-23 Audio indicators of user attention in AR/VR environment
US16/392,103 2019-04-23
PCT/US2019/068241 WO2020139801A1 (en) 2018-12-27 2019-12-23 Audio indicators of user attention in ar/vr environment

Publications (1)

Publication Number Publication Date
JP2022516221A true JP2022516221A (ja) 2022-02-25

Family

ID=71122857

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021529281A Pending JP2022516221A (ja) 2018-12-27 2019-12-23 Ar/vr環境におけるユーザ注意のオーディオインジケータ

Country Status (5)

Country Link
US (1) US10990171B2 (ja)
JP (1) JP2022516221A (ja)
KR (1) KR20210107710A (ja)
CN (1) CN113227942A (ja)
WO (1) WO2020139801A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023035007A1 (en) 2021-09-06 2023-03-09 Kickback Space Inc. Image analysis and gaze redirection using characteristics of the eye
US20230146178A1 (en) * 2021-11-11 2023-05-11 Kickback Space Inc. Attention based audio adjustment in virtual environments
EP4195688A1 (en) * 2021-12-08 2023-06-14 Nokia Technologies Oy Conversational service
US20230393657A1 (en) * 2022-06-02 2023-12-07 Google Llc Attention redirection of a user of a wearable device
WO2024029718A1 (ko) * 2022-08-02 2024-02-08 삼성전자주식회사 적어도 하나의 외부 객체에 기반하여 적어도 하나의 외부 전자 장치를 선택하기 위한 전자 장치 및 그 방법
WO2024110779A1 (en) * 2022-11-24 2024-05-30 Viewpointsystem Gmbh Method for triggering actions in the metaverse or virtual worlds

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104564A1 (ja) 2008-02-20 2009-08-27 インターナショナル・ビジネス・マシーンズ・コーポレーション 仮想空間における会話サーバ、会話のための方法及びコンピュータ・プログラム
US8875026B2 (en) * 2008-05-01 2014-10-28 International Business Machines Corporation Directed communication in a virtual environment
EP2508945B1 (en) 2011-04-07 2020-02-19 Sony Corporation Directional sound capturing
US20130241805A1 (en) 2012-03-15 2013-09-19 Google Inc. Using Convergence Angle to Select Among Different UI Elements
US10629003B2 (en) * 2013-03-11 2020-04-21 Magic Leap, Inc. System and method for augmented and virtual reality
EP2987052A2 (en) * 2013-04-16 2016-02-24 The Eye Tribe ApS Systems and methods of eye tracking data analysis
US9818225B2 (en) * 2014-09-30 2017-11-14 Sony Interactive Entertainment Inc. Synchronizing multiple head-mounted displays to a unified space and correlating movement of objects in the unified space
EP3369091A4 (en) * 2015-10-26 2019-04-24 Pillantas Inc. SYSTEMS AND METHODS FOR CONTROLLING CONVERGENT OCULAR MOVEMENTS
US9451210B1 (en) 2015-12-10 2016-09-20 Google Inc. Directing communications using gaze interaction
US9905244B2 (en) * 2016-02-02 2018-02-27 Ebay Inc. Personalized, real-time audio processing
US10162651B1 (en) 2016-02-18 2018-12-25 Board Of Trustees Of The University Of Alabama, For And On Behalf Of The University Of Alabama In Huntsville Systems and methods for providing gaze-based notifications
US10657701B2 (en) * 2016-06-30 2020-05-19 Sony Interactive Entertainment Inc. Dynamic entering and leaving of virtual-reality environments navigated by different HMD users
US20180095636A1 (en) 2016-10-04 2018-04-05 Facebook, Inc. Controls and Interfaces for User Interactions in Virtual Spaces
US20180101989A1 (en) 2016-10-06 2018-04-12 Google Inc. Headset removal in virtual, augmented, and mixed reality using an eye gaze database
US20180196506A1 (en) 2016-12-28 2018-07-12 Colopl, Inc. Information processing method and apparatus, information processing system, and program for executing the information processing method on computer
US10304239B2 (en) * 2017-07-20 2019-05-28 Qualcomm Incorporated Extended reality virtual assistant
US10521013B2 (en) 2018-03-01 2019-12-31 Samsung Electronics Co., Ltd. High-speed staggered binocular eye tracking systems

Also Published As

Publication number Publication date
WO2020139801A1 (en) 2020-07-02
US10990171B2 (en) 2021-04-27
KR20210107710A (ko) 2021-09-01
US20200209957A1 (en) 2020-07-02
CN113227942A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
US10990171B2 (en) Audio indicators of user attention in AR/VR environment
US9971403B1 (en) Intentional user experience
CN106489171B (zh) 立体图像显示器
US11022794B2 (en) Visual indicators of user attention in AR/VR environment
US9541996B1 (en) Image-recognition based game
US11188148B2 (en) User interaction in head-mounted display with eye tracking
CN110569750A (zh) 一种用于视线检测校准的方法和计算设备
US11620792B2 (en) Fast hand meshing for dynamic occlusion
WO2022125239A1 (en) Determining user intent based on attention values
JP2023536064A (ja) 交互サンプリングを使用した眼追跡
WO2023147038A1 (en) Systems and methods for predictively downloading volumetric data
US11763517B1 (en) Method and device for visualizing sensory perception
US20240005511A1 (en) Immediate Proximity Detection and Breakthrough with Visual Treatment
US11354869B2 (en) XR preferred movement along planes
US12028419B1 (en) Systems and methods for predictively downloading volumetric data
EP4328715A1 (en) Headset adjustment
EP4386519A1 (en) Electronic device with centralized user experience manager
US20240103705A1 (en) Convergence During 3D Gesture-Based User Interface Element Movement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240220