JP2023525196A - 滑りの影響を受けない視線追跡ユーザインターフェイス - Google Patents

滑りの影響を受けない視線追跡ユーザインターフェイス Download PDF

Info

Publication number
JP2023525196A
JP2023525196A JP2022552368A JP2022552368A JP2023525196A JP 2023525196 A JP2023525196 A JP 2023525196A JP 2022552368 A JP2022552368 A JP 2022552368A JP 2022552368 A JP2022552368 A JP 2022552368A JP 2023525196 A JP2023525196 A JP 2023525196A
Authority
JP
Japan
Prior art keywords
user
offset
trajectory
display
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022552368A
Other languages
English (en)
Inventor
アボウソウアン,エリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2023525196A publication Critical patent/JP2023525196A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

滑りの影響を受けないユーザインターフェイス(UI)は、ユーザ視線入力を処理する際に、ヘッドマウントディスプレイ(HMD)デバイスの滑り、再装着などに起因する動きを考慮し得る。滑りの影響を受けないUIは、複数のUI要素を含み得る。各UI要素は、そのUI要素の表示軌跡を規定する固有の移動パターンを有することにより、UI要素間の区別を提供し得る。ユーザ視線軌跡がUI要素の表示軌跡のうちの1つとマッチングさせられ得て、対応するUI要素が、ユーザによって選択されることが意図されているターゲットUI要素として識別され得る。視線軌跡とターゲットUI要素の表示軌跡との間の並進オフセット、スケーリングオフセット、および回転オフセットを用いて、HMDの目と画面の間の較正が実現され得る。

Description

分野
本明細書は、概して、拡張現実(augmented reality:AR)および/または仮想現実(virtual reality:VR)環境に関し、より具体的には、ARおよび/またはVR環境における特徴と対話するための視線追跡に関する。
背景
(AR)および/または(VR)システムは、3次元(3D)AR/VR環境を生成し得る。ユーザは、さまざまな電子デバイスとの対話を通してこの3DのAR/VR環境を体験することができ、これらの電子デバイスは、例として、たとえばヘルメット、ゴーグル、眼鏡などのヘッドマウントディスプレイ(head mounted display:HMD)デバイスおよび/またはヘッドアップディスプレイ(heads up display:HUD)デバイス、センサが装着された手袋、センサを含む外部ハンドヘルドデバイス、ならびに他のそのような電子デバイスなどである。ユーザはAR/VR環境の中を移動することができ、さまざまな入力方法を用いてAR/VR環境におけるオブジェクト、特徴、ユーザインターフェイスなどと対話することができる。たとえば、ユーザは、外部コントローラ、ジェスチャ入力、音声入力、頭部の注視および視線を含む視線入力、ならびに他のそのような入力方法を用いて、AR/VR環境における特徴と対話することができる。状況によっては、特に視線入力を用いてAR/VR環境の特徴と対話する場合、HMDの滑りおよび/または再装着が、検出される視線入力の精度に影響を及ぼすことがある。
概要
一局面において、コンピュータによって実現される方法は、ヘッドマウントディスプレイ(HMD)デバイスのディスプレイデバイスに表示される仮想UIに向けられたユーザ視線を検出することを含んでもよく、上記仮想UIは複数の仮想UI要素を含み、上記方法はさらに、検出された上記ユーザ視線に対応する視線軌跡を検出することと、検出された上記視線軌跡を、上記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、上記1つのUI要素をターゲットUI要素として識別することと、上記視線軌跡と上記ターゲットUI要素に関連付けられた上記表示軌跡との間のオフセットを求めることとを含んでもよく、上記オフセットは、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み、上記方法はさらに、求められた上記オフセットに基づいてユーザ視線対話モードを再較正することを含んでもよい。
いくつかの実現例において、上記並進オフセットは、第1の方向における第1の並進オフセットと、第2の方向における第2の並進オフセットとを含んでもよい。いくつかの実現例において、上記スケーリングオフセットは、上記第1の方向における圧縮または拡張と、上記第2の方向における圧縮または拡張とを含んでもよい。いくつかの実現例において、上記ユーザ視線対話モードを再較正することは、検出された上記ユーザ視線を上記仮想UIおよび上記複数のUI要素を用いて再設定して、上記第1および第2の並進オフセットならびに上記第1および第2のスケーリングオフセットを補償することを含んでもよい。
いくつかの実現例において、上記仮想UIは、複数の動的UI要素を含む動的UIであってもよく、上記複数の動的UI要素の各々は、それぞれの上記動的UI要素の移動パターンを規定するそれぞれの表示軌跡を有する。上記複数の動的UI要素の各動的UI要素は、その動的UI要素の固有の移動パターンを規定する固有の表示軌跡を含んでもよい。上記表示軌跡は、直線部分、円形部分、または曲線部分を含んでもよい。上記複数の動的UI要素の各動的UI要素は、その動的UI要素の擬似ランダムな移動パターンを規定する擬似ランダムな表示軌跡を含んでもよい。
いくつかの実現例において、上記ユーザ視線を検出すること、および上記視線軌跡を検出することは、上記HMDの眼球追跡システムがユーザ視線を追跡することと、上記仮想UIおよび上記複数のUI要素に対する追跡された上記ユーザ視線に基づいて、上記視線軌跡を検出することとを含んでもよい。上記ユーザ視線を追跡することは、上記HMDの1つ以上の光源が、上記ユーザの目に向かって光を発することと、上記HMDの1つ以上の光センサが、上記1つ以上の光源から発せられた上記光の、上記ユーザの目による反射を検出することと、検出された上記反射に基づいて上記ユーザ視線を追跡することとを含んでもよい。
別の一般的な局面において、電子デバイスは、ディスプレイと、検知システムと、少なくとも1つのプロセッサと、命令を格納したメモリとを含んでもよい。上記命令は、上記少なくとも1つのプロセッサによって実行されると、上記電子デバイスに、上記ディスプレイによって仮想ユーザインターフェイス(UI)を表示することを行わせてもよく、上記仮想UIは複数のUI要素を含み、さらに、上記仮想UIに向けられたユーザ視線を検出することと、検出された上記ユーザ視線に対応する視線軌跡を検出することと、検出された上記視線軌跡を、上記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、上記1つのUI要素をターゲットUI要素として識別することと、上記視線軌跡と上記ターゲットUI要素に関連付けられた上記表示軌跡との間のオフセットを求めることとを行わせてもよく、上記オフセットは、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み、さらに、求められた上記オフセットに基づいてユーザ視線対話モードを再較正することを行わせてもよい。
いくつかの実現例において、上記命令は上記少なくとも1つのプロセッサに、上記並進オフセットを求めることを行わせてもよく、上記並進オフセットは、第1の方向における第1の並進オフセットと、第2の方向における第2の並進オフセットとを含み、さらに、上記スケーリングオフセットを求めることを行わせてもよく、上記スケーリングオフセットは、上記第1の方向における圧縮または拡張と、上記第2の方向における圧縮または拡張とを含む。上記命令は上記少なくとも1つのプロセッサに、検出された上記ユーザ視線を上記仮想UIおよび上記複数のUI要素を用いて再設定して、上記第1および第2の並進オフセットならびに上記第1および第2のスケーリングオフセットを補償することを行わせてもよい。上記仮想UIは、複数の動的UI要素を含む動的UIであってもよく、上記複数の動的UI要素の各動的UI要素は、それぞれの上記動的UI要素の固有の移動パターンを規定するそれぞれの表示軌跡を有する。上記表示軌跡は、直線部分、円形部分、または曲線部分を含んでもよい。上記複数の動的UI要素の各動的UI要素は、その動的UI要素の擬似ランダムな移動パターンを規定する擬似ランダムな表示軌跡を含んでもよい。
いくつかの実現例において、上記命令は上記少なくとも1つのプロセッサに、上記電子デバイスの眼球追跡システムによってユーザ視線を追跡することを行わせてもよく、上記追跡することは、1つ以上の光源が、上記ユーザの目に向かって光を発することと、1つ以上の光センサが、上記1つ以上の光源から発せられた上記光の、上記ユーザの目による反射を検出することと、検出された上記反射に基づいて上記ユーザ視線を追跡することとを含む。
いくつかの実現例において、上記電子デバイスはヘッドマウントディスプレイ(HMD)デバイスであってもよく、上記視線軌跡と上記ターゲットUI要素に関連付けられた上記表示軌跡との間の上記オフセットは、上記HMDデバイスの最初の較正の後の上記ユーザの目に対する上記HMDデバイスの動きに起因する。
別の一般的な局面において、非一時的なコンピュータ読取可能媒体は命令を格納してもよく、上記命令は、コンピューティングデバイスによって実行されると、上記コンピューティングデバイスに、上記コンピューティングデバイスのディスプレイデバイスによって仮想ユーザインターフェイス(UI)を表示することを行わせ、上記仮想UIは複数のUI要素を含み、さらに、上記仮想UIに向けられたユーザ視線を検出することと、検出された上記ユーザ視線に対応する視線軌跡を検出することと、検出された上記視線軌跡を、上記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、上記1つのUI要素をターゲットUI要素として識別することとを行わせてもよい。
1つ以上の実現例の詳細は、添付の図面および以下の説明に記載されている。その他の特徴は、説明および図面から、ならびに請求項から明らかになるであろう。
例示的なARおよび/またはVRシステムを示す図である。 例示的なARおよび/またはVRシステムを示す図である。 例示的なARおよび/またはVRシステムを示す図である。 ARおよび/またはVR環境を生成し、このARおよび/またはVR環境と対話するための例示的なシステムを示す図である。 本明細書に記載されている実現例に従う、ARおよび/またはVR環境を生成し、このARおよび/またはVR環境と対話するための例示的な電子デバイスのブロック図である。 例示的な視線追跡システムの概略図である。 点視線入力モードを採用する例示的なユーザインターフェイスを示す図である。 点視線入力モードを採用する例示的なユーザインターフェイスを示す図である。 本明細書に記載されている実現例に従う、例示的な視線軌跡入力モードを採用する例示的なユーザインターフェイスを示す図である。 本明細書に記載されている実現例に従う、例示的な視線軌跡入力モードを採用する例示的なユーザインターフェイスを示す図である。 本明細書に記載されている実現例に従う、例示的な視線軌跡入力モードを採用する例示的なユーザインターフェイスを示す図である。 本明細書に記載されている実現例に従う、例示的なユーザインターフェイス要素軌跡および例示的な視線軌跡の概略図である。 本明細書に記載されている実現例に従う、例示的なユーザインターフェイス要素軌跡および例示的な視線軌跡の概略図である。 本明細書に記載されている実現例に従う、例示的なユーザインターフェイス要素軌跡および例示的な視線軌跡の概略図である。 本明細書に記載されている実現例に従う、例示的なユーザインターフェイス要素軌跡および例示的な視線軌跡の概略図である。 本明細書に記載されている実現例に従う、例示的なユーザインターフェイス要素軌跡および例示的な視線軌跡の概略図である。 本明細書に記載されている実現例に従う、例示的なユーザインターフェイス要素軌跡および例示的な視線軌跡の概略図である。 本明細書に記載されている実現例に従う、例示的なユーザインターフェイス要素軌跡および例示的な視線軌跡の概略図である。 本明細書に記載されている実現例に従う、ユーザ視線入力の検出方法のフローチャートの図である。 本明細書に記載されている技術を実現するために使用可能なコンピュータデバイスおよびモバイルコンピュータデバイスの一例を示す図である。
詳細な説明
ユーザは、ARおよび/またはVR環境における特徴(すなわち、仮想オブジェクト、仮想ユーザインターフェイス(UI)など)と対話するための多数の異なる入力方法を利用することができる。そのような入力方法は、たとえば、外部コンピューティングデバイス(たとえばハンドヘルドコントローラなど)で受信されるユーザ入力、ジェスチャ入力、可聴/音声入力、視線入力(たとえば頭部注視入力および眼球注視入力を含む)などを含み得る。いくつかの実現例において、これらの入力方法は組み合わされてもよい。本明細書に記載されている実現例に従うシステムおよび方法は、視線入力を用いたARおよび/またはVR環境におけるUIとのユーザ対話を提供する。本明細書に記載されている実現例に従うシステムおよび方法は、考慮しなければAR/VR環境におけるUIに向けられた視線入力の精度に影響を及ぼし得る、HMDの滑り、または動き、または再装着を考慮することができる。
図1A~図1Cは、たとえば電子デバイスによって実行されるアプリケーションを通してARおよび/またはVR環境を生成することができる、さまざまな例示的な電子デバイスを示す。図1Aに示す例に図示されるように、いくつかの実現例において、ユーザは、ウェアラブルデバイス16のディスプレイ部分を介してAR/VR環境を見て体験することができる。図1Aに示す例では、ウェアラブルデバイスは、たとえばスマートグラスの形態のヘッドマウントデバイス16である。この構成では、ユーザはヘッドマウントデバイス16を通して物理的な実世界環境を見ることができ、仮想特徴、オブジェクト、UIなどが、物理的な実世界環境のユーザの視野の中に置かれ得るかまたは視野に重ね合わされ得る。図1Bに示す例に図示されるように、いくつかの実現例において、ユーザは、物理的な実世界環境のユーザの直接的な視界を本質的に遮断するヘッドマウントデバイス18のディスプレイ部分を介してAR/VR環境を見て体験することができる。この構成では、物理的環境のモデルの画像、または物理的環境のパススルー画像が、ヘッドマウントデバイス18のディスプレイ部分に表示され、仮想特徴、オブジェクト、UIなどが、ユーザが見るAR/VRシーンに配置され得る。図1Cに示す例に図示されるように、いくつかの実現例において、ユーザは、ハンドヘルドデバイス10のディスプレイ部分12上でAR/VR環境を見て体験することができる。例示的なハンドヘルドデバイス10の撮像デバイス14が、物理的な実世界環境のカメラの視野またはシーンを表示するための画像を、物理的な実世界環境のカメラの視野またはシーンに配置された仮想特徴、オブジェクト、UIなどとともに提供し得る。
ここで、本開示の非限定的な例を詳細に参照し、その例を添付の図面に示す。図面を参照することにより、これらの例を以下に説明する。図面では、同様の参照番号は同様の要素を指す。
図1A~図1Cに示すハンドヘルドデバイス10ならびにヘッドマウントデバイス16および18は、AR環境および/またはVR環境における仮想オブジェクトを表示する能力がある電子デバイスである。以下では、単に説明および図示を簡単にするために、本明細書に記載されている実現例に従うシステムおよび方法の例を、図1Aに示す例示的なヘッドマウントデバイス16と同様の電子デバイス上で見られるシーンに基づいて提示する。しかしながら、本明細書で説明する原理は、ユーザが視線入力を用いて仮想特徴、オブジェクト、UIなどと対話することができるAR/VR環境を生成および提示可能な他の電子デバイスおよび/またはシステムにも適用され得る。
状況によっては、図1Aに示す例示的なHMD16のようなヘッドアップディスプレイ(HUD)デバイスまたはヘッドマウントディスプレイ(HMD)デバイスを用いる場合、視線追跡は、AR/VR環境およびアプリケーションにおける入力および/または特徴との対話を検出する際に利点を提供し得る。たとえば、眼球追跡は、ユーザがたとえばオブジェクトを注視し、瞬きしてこのオブジェクトを選択することを可能にする、見てクリックするアクションを容易にし得る。加えて、眼球追跡は、高精細度(HD)コンテンツの最適化されたレンダリングを提供し得る。たとえば、眼球追跡は、シーン全体をHDでレンダリングするのではなく、ユーザの焦点が合っているシーンの部分のみをHDでレンダリングすることによって中心窩レンダリングを容易にすることにより、処理負荷を低減し得る。状況によっては、眼球追跡を用いて、ユーザ認証およびユーザ識別の両方のために、生体認証システムの一部として虹彩認識が行われてもよい。例示的なHMD16の滑り、またはHMD16の物理的な調整、またはユーザの頭部上のHMD16の取り外し/再装着は、HMD16の視線追跡能力、特に眼球追跡能力を低下させることがあり、選択された仮想特徴、オブジェクト、UIなどとの対応するユーザ対話の精度に影響を及ぼすことがある。
図2は、本開示の教示に従う、3DのARおよび/またはVR環境を作成してこの環境と対話するための例示的なシステム100を示す。一般に、システム100は、ユーザがアクセスする、見る、対話する、および操作するコンテンツを含む3DのAR/VR環境を提供する。システム100は、たとえば眼球追跡および/または頭部追跡を含む視線追跡を用いて、コンテンツ、アプリケーション、オブジェクト、特徴などにアクセスするオプションをユーザに提供することができる。図2に示す例では、ユーザは、たとえばスマートグラスの形態のHMD110を装着しており、このスマートグラスを通して物理的環境を見ることができ、物理的環境のユーザの視野の上に仮想特徴がオーバーレイされてAR環境が作成されてもよい。
図2に示すように、例示的なシステム100は、ネットワーク120を介してデータを交換可能な複数のコンピューティングデバイスおよび/または電子デバイスを含み得る。これらのデバイスは、クライアントまたはサーバを表し得るものであり、ネットワーク120またはその他の追加のおよび/もしくは代替のネットワークを介して通信することができる。例示的なクライアントデバイスとして、モバイデバイス131(たとえば、スマートフォン、タブレットコンピューティングデバイス、携帯情報端末、ポータブルメディアプレーヤなど)、ラップトップまたはネットブック132、カメラ(図示せず)、この例ではユーザが装着するHMD110、デスクトップコンピュータ133、ハンドヘルドデバイス134、ゲームデバイス(図示せず)、および、ネットワーク120もしくは他のネットワークを用いて他のコンピューティングデバイスもしくは電子デバイスもしくはシステムと通信することができる、または仮想コンテンツにアクセスするためにもしくはAR/VR環境内で動作するために使用され得る、その他の電子デバイスまたはコンピューティングデバイスがあるが、これらに限定されない。デバイス110および131~134は、クライアントデバイスまたはサーバデバイスを表し得る。デバイス110および131~134は、それぞれのデバイス110および131~134に含まれるまたは関連するディスプレイデバイス上でVRコンテンツにアクセスする、VRコンテンツをレンダリングする、提供する、または表示することができる、クライアントオペレーティングシステムおよび1つ以上のクライアントアプリケーションを実行することができる。デバイス110および131~134は、とりわけ、HMD110または本明細書に開示されている他のHMDによって実行される眼球追跡を利用するVRアプリケーションを実行することができる。
システム100は、AR/VRシーンを生成、修正、または実行することができるコンテンツおよび/または(たとえばAR/VRアプリケーション144の形態の)AR/VRソフトウェアモジュールを格納する任意の数のコンテンツシステム140を含み得る。いくつかの例において、デバイス110および131~134は、クライアントオペレーティングシステムおよび1つ以上のクライアントアプリケーションを実行することができる、1つ以上のプロセッサおよび1つ以上のメモリデバイスを含む。HMD110、他のデバイス131~133またはコンテンツシステム140は、図9に示す例示的なコンピューティングデバイスによって実現されてもよい。
アプリケーション144は、デバイス110および131~134のうちのいずれかまたはすべての上で実行されるように構成されてもよい。たとえば、HMD110をデバイス131~134に接続して、コンテンツシステム140上のAR/VRコンテンツにアクセスするができる。デバイス131~134を、表示するコンテンツを提供可能なHMD110に(有線または無線で)接続することができる。ユーザのAR/VRシステムは、HMD110単独であってもよく、またはデバイス131~134とHMD110との組み合わせであってもよい。
図3は、たとえば図2でユーザが装着している(たとえばスマートグラスの形態の)HMD110のような、例示的な電子デバイス300のブロック図であり、電子デバイス300は、ユーザが体験するAR環境を生成することができ、ユーザ入力を検出するための視線追跡(視線追跡および/または頭部の注視追跡を含む)を実行することができる。
電子デバイス300は、検知システム360および制御システム370を含み得る。検知システム360は、たとえば、光センサ、音声センサ、画像センサ、距離/近接センサ、および/または他のセンサ、および/またはセンサの異なる組み合わせを含む、1つ以上の異なるタイプのセンサを含み得る。いくつかの実現例において、検知システム360は、たとえば眼球追跡システムを含む、1つ以上の視線追跡センサを含み得る。いくつかの実現例において、眼球追跡システムは、ユーザの視線を検出して追跡するように位置決めされる1つ以上の画像センサまたはカメラを含み得る。いくつかの実現例において、眼球追跡システムは、ユーザの目に向けられた光、たとえば赤外光を発するたとえば発光ダイオード(LED)のような、1つ以上の光源を含み得る。LEDによって発せられたこの光の、ユーザの目からの反射は、たとえば検知システム360の1つ以上の光センサによって検出されてもよい。LEDによって発せられた光の捕捉反射に基づいて、視線が追跡されてもよい。いくつかの実現例において、検知システム360は、頭部の注視方向および動きを検出して追跡するための慣性計測装置(IMU)を含み得る。制御システム370は、たとえば、出力/停止制御デバイス、音声および映像制御デバイス、光学制御デバイス、ならびに/または他のそのようなデバイスならびに/またはデバイスの異なる組み合わせを含み得る。特定の実現例に応じて、検知システム360および/または制御システム370はより多いまたはより少ないデバイスを含んでもよい。電子デバイス300は、検知システム360および制御システム370と通信するプロセッサ390を含み得る。プロセッサ390は、たとえば、1つ以上の画像センサによって捕捉された視線方向および動き入力、ならびに/またはIMUによって捕捉された頭部の注視方向および動き入力など、検知システム360から受信した入力を処理することにより、入力を処理し、検出された視線入力に対応する命令を実行してもよい。電子デバイス300は、制御システム370の制御下でプロセッサ290によって処理されて出力システム350によって出力されるユーザ入力を受信可能な入力システムを含み得る。入力システム340は、たとえば、タッチ入力面、音声入力を受信可能な音声入力デバイス(たとえば、検知システム360に含まれる音声センサまたはマイクを含む)、ジェスチャ認識デバイス(たとえば、検知システム360の画像センサによって捕捉されてプロセッサ390によって処理される画像を含む)、および他のそのような入力デバイスを含む、さまざまなタイプの入力デバイスを含み得る。出力システム350は、たとえば、ディスプレイデバイス、音声出力デバイス、またはスピーカ、物理的および/もしくは触覚出力デバイス、ならびに他のそのような出力デバイスのような、さまざまなタイプの出力デバイスを含み得る。電子デバイス300は、メモリ380と、電子デバイス300とたとえば図2に示す外部デバイスのような1つ以上の他の外部デバイスとの間の通信を提供する通信モジュール395とを含み得る。
非限定的な一例では、電子デバイス300は、図4に示す例のように、たとえば眼鏡などのHUDまたはHMDであってもよい。特に、図4は、ユーザが装着するスマートグラスの形態の例示的なHMD300の側面概略図である。この例では、HMD300は、単に説明および図示を目的として、眼球追跡を実行するための1つ以上の光源361と1つ以上の光センサ362とを含む眼球追跡デバイスを含む。本明細書で説明する原理は、他のタイプの眼球追跡デバイスを含むHMDにも適用され得る。例示的なHMD300は、HMD300を装着しているユーザの目Eの視線または光路に沿って1つ以上のレンズ352およびディスプレイデバイス355を位置決めするフレーム305を含み得る。たとえば1つ以上のLEDの形態の1つ以上の光源361は、たとえば図4に示す例示的な光線R1に沿って、ユーザの目Eに向かって発光してもよく、たとえば間欠的に発光してもよい。いくつかの実現例において、光源361から発せられた光は、例示的な光線R2によって示されるように、ユーザの目Eによって反射し得る。いくつかの実現例において、ユーザの目Eによって反射した光は1つ以上の光センサ362によって検出されてもよい。ユーザの目Eからの光の反射は、たとえば、視線を追跡するためにHMD300のプロセッサによって使用されてもよい。プロセッサは、検出された視線を、たとえばディスプレイデバイス上でまたはディスプレイデバイスを通してユーザが見ることができる要素と相関させてもよい。いくつかの実現例において、プロセッサは、検出された視線を、ディスプレイデバイスによって表示されるUIの要素と相関させて、UIの要素とのユーザ対話を提供してもよい。図4に提供されている概略図に示す構成要素の配置および/または数は、単に例示目的である。いくつかの実現例において、例示的なHMD300は、図4に示す例示的な構成とは異なるように配置および/または位置決めされた、より多いまたはより少ない光源361を含んでもよい。いくつかの実現例において、例示的なHMDは、図4に示す例示的な構成とは異なるように配置および/または位置決めされた、より多いまたはより少ない光センサ362を含んでもよい。
上述のように、たとえば眼鏡、ヘッドセット、ゴーグルなどのHUDまたはHMDは、たとえばARおよび/またはVR環境において眼球注視入力および/または頭部注視入力を含む視線入力を受信するように構成されてもよい。いくつかの実現例において、入力モダリティとしての視線は、HMDによって実行される眼球追跡に依存してもよい。状況によっては、たとえば、HMDのカメラによって捕捉された画像に基づく画像ベースの追跡ではなく、図4に示す説明的な例に関して上述したように、特に、目からの光の反射、光源による出力、およびHMDの光センサによる捕捉に基づいて視線が追跡される場合に、HMDの滑り、HMDの再装着、および/またはHMDの他の再位置決めは、HMDによって行われる眼球追跡の精度に悪影響を及ぼすことがあり、これにより、HMDのような電力制約のあるデバイスでは法外な量の電力を消費することがある。そして、この眼球追跡の精度に対する悪影響は、入力モダリティとしての視線の精度に影響を及ぼすことがある。眼球追跡の精度を回復するための再較正は、時間がかかり大量のリソースが消費され得る。
本明細書に記載されている実現例に従うシステムおよび方法では、滑りの影響を受けないUIは、HMDのユーザによって選択可能なUIの要素の移動パターンを利用してもよい。いくつかの実現例において、これにより、視線軌跡がUI要素との位置合わせから外れる原因となり得るHMDの滑り、再装着、または他の動きが生じた場合でも、システムは視線軌跡に基づいてUIの要素の選択を区別することが可能になり得る。いくつかの実現例において、またこれにより、システムは、UI要素の表示の較正を調整して、求められた滑りに従って視線軌跡推定を再位置合わせすることが可能になり得る。いくつかの実現例において、マッチングさせなければ滑り誤差が生じやすく、マッチングさせなければ再較正が必要となる視線入力を、注視点の絶対位置ではなく、視線軌跡に基づいて、対応するUI要素(たとえば、意図されているユーザ選択)とマッチングさせてもよい。本明細書に記載されている実現例に従うシステムおよび方法は、眼球追跡手法の大幅な変更に依拠することなく、UI要素に関するユーザの意図を判定する際に滑りを考慮し得る。
図5Aは、上述のようなAR/VR環境において、上述の例示的な電子デバイス300のユーザに表示され得る例示的なUI500を示す。例示的なUI500は、1つ以上の静的UI要素550A~550Iを含み得る。静的UI要素550A~550Iは、上述のような視線入力を用いて、ユーザによって選択可能であってもよい。図5Bは、較正以降にHMD300の何らかの動き(すなわち、滑り、再装着など)が起こった状況における、例示的なUI300とのユーザ対話を示す。図5Bに示すように、例示的な滑りが起こった状況において、ユーザ視線は(UI要素550Aの選択に対応する)点510を意図している場合がある。しかしながら、例示的な滑りに起因して、視線は代わりに、静的UI500上の点520に向けられたものであると推定されて、意図されているようなUI要素550AではなくUI要素550IとのマッチングおよびUI要素550Iの選択が行われる場合がある。視線と静的UI500/静的UI要素550A~550Iとのマッチングは、(矢印Aによって表される)視線オフセットの影響を非常に受けやすいため、滑りに起因する視線オフセットによって静的UI500とのユーザの対話が不正確になり、この例では、結果として生じる選択が不正確になる。すなわち、この例では、ユーザ視線と静的UI500の静的UI要素550A~550Hのうちの1つとのマッチングは、滑りに起因してオフセットしている、静的UI500/静的UI要素550A~550Hに対する注視点の絶対位置に基づいている。この状況では、補正には完全な再較正プロセスが必要となる。
一方、本明細書に記載されている実現例に従う、ユーザ視線と動的UI要素または移動UI要素を含む動的UIとの動的なマッチングは、滑りに起因する視線オフセットに基づく不正確さが生じにくいことがある。本明細書に記載されている実現例に従う動的UI要素を含む動的UIでは、(たとえば、視線と意図されているUI要素との間の)マッチングは、ユーザの目がターゲット持続時間にわたって所与のUI要素を追うときに、または選択されることが意図されている所与のUI要素をユーザの目が滑らかに追いかけるときに、(注視点の絶対位置に基づいてではなく)視線軌跡に基づいて行われ得る。動的UI要素のうちの1つがうまく選択されると、動的UI要素の(既知の)軌跡と、選択された動的UI要素を滑らかに追いかける間に観察された推定視線軌跡とに基づいて、目と画面の間の較正を計算することができる。この較正手順は、比較的シームレスであり得るものであり、今後の滑りに起因する視線オフセットを考慮し得る。
図6Aは、本明細書に記載されている実現例に従う例示的なUI600を示す。例示的なUI600は、複数の動的UI要素650A~650Hを含む動的UI600である。すなわち、この例示的なUI600では、UI要素650A~650Hは、移動可能であるか、またはUI要素650A~650Hが動いている状態で表示され、直線的に分離された軌跡で移動する。図6A~図6Cに関して説明する例示的な実現例では、単に説明および図示を簡単にするために、例示的な動的UI要素650A~650Hは実質的に円形の配置を有し、たとえば矢印Bによって示されるように実質的に円形のパターンで移動する。この実質的に円形のパターンでの移動を図6B(1)~図6B(5)に順次示す。しかしながら、本明細書で説明する原理は、異なる数のUI要素を有するUI、ならびに/または、UI要素が異なるように配置されたUI、ならびに/または、UI要素が他のパターンで移動する、および/もしくは均一なおよび不均一なパターン、もしくはランダムなパターン、もしくは擬似ランダムなパターンを含む動的UI内の他の移動軌跡をたどるUIなど、他の動的UIにも適用され得る。
図6Cは、較正以降にHMD300の何らかの動き(すなわち、HMD300の滑り、HMD300の再装着、HMD300の再位置決めなど)が起こった状況における、例示的な動的UI600とのユーザ対話を示す。図6Cに示すように、例示的な滑りが起こった状況において、ユーザ視線はUI要素650Aを意図している場合がある。この例では、(典型的に、上述のように、意図されているターゲットUI要素から注視点がオフセットする原因となる)HMD300の滑りが起こっているが、(注視点ではなく)視線軌跡610が追跡され得る。システムは、視線軌跡610がUI要素650Aの表示軌跡630Aを追いかけているまたはたどっていることを検出し得る。この状況では、システムはUI要素650Aの表示軌跡630Aを知っている。ユーザ視線軌跡610が、意図されているターゲットUI要素650A、およびターゲットUI要素650Aの関連付けられた表示軌跡630Aに対するオフセット620であっても、システムは、検出された視線軌跡610をUI要素650Aの表示軌跡630Aとマッチングさせ得る。視線軌跡610とUI要素650Aの表示軌跡630Aとのマッチングに基づいて、システムは、UI要素650Aが検出された視線610のターゲットであると判断し得て、UI要素650Aが選択され得る。いくつかの実現例において、ターゲットUI要素650Aの選択を確認した後、システムは、たとえば、別のそのような再較正の必要性が検出される、セッションの終了が検出される、などするまで、求められたオフセット620を用いて、システムが今後使用するための、比較的簡単な目とディスプレイの間の較正を実行してもよい。
図7A~図7Cは、本明細書に記載されている実現例に従う、たとえば図6A~図6Cに関して上述した視線軌跡610のような視線軌跡と、たとえば図6A~図6Cに関して上述したターゲットUI要素650Aの既知の表示軌跡630のようなターゲットUI要素の移動パターンまたは表示軌跡とのマッチングの概略図である。
上述のように、例示的な動的UI要素650の各々は、各自の別個の表示軌跡630を有し得る。これにより、システムは、特に、検出された視線軌跡610を複数のUI要素650のうちの1つとマッチングさせようと試みる際に、複数の異なるUI要素650同士を区別することにより、視線軌跡610に関連付けられた意図されているターゲットUI要素650を決定することが可能になり得る。
図7A~図7Gに示す概略図は、例示的なUI要素650のうちの1つの例示的な表示軌跡630を、さまざまな異なる滑りのシナリオにおける例示的な視線軌跡610とともに示す。図7A~図7Gに示す例示的な構成では、単に説明および図示を目的として、例示的な動的UI要素650がたどる例示的な表示軌跡630、すなわち例示的な軌跡または経路は実質的に円形である。いくつかの実現例において、表示軌跡は、擬似ランダムパターンを含む他のパターンに従ってもよい。表示軌跡のパターンまたは形状または輪郭にかかわらず、システムは特定のUI要素に関連付けられた表示軌跡のパターンまたは形状または輪郭を知っているので、システムはさまざまなUI要素同士を区別し、検出または観察された視線軌跡をUI要素のうちの1つとマッチングさせることができる。
図7Aは、HMD300がユーザの顔の上に位置決めされ、目と画面の間の較正が行われたシナリオを示す。図7Aに示す較正後の状態では、表示軌跡630(実線で示す)と表示軌跡610(破線で示す)とが実質的に位置合わせされている。すなわち、観察された視線軌跡630は、ユーザが注視しているUI要素650の表示軌跡610と実質的にマッチングまたは一致している。すなわち、表示軌跡610に沿って移動する動的UI要素650は、図7Aに表される特定の時点でユーザ視線615と実質的に位置合わせされている。
図7B~図7Gは、図7Aに示す状態からのHMD300の何らかの形態の滑りによって、観察または検出された視線軌跡610がターゲットUI要素650の表示軌跡630からオフセットしているさまざまなシナリオを示す。図7A~図7Gでは静的に示されているが、動的UI要素650は、関数G(t)を表す表示軌跡630(実線で示す)によって規定されるパターンに沿って移動することが理解される。視線軌跡610(破線で示す)は関数G′(t)を表し得る。関数G′(t)は、動的UI600のUI要素650のうちの1つとマッチングさせられる、観察または検出された視線軌跡610のパターンの尺度または推定値を提供し得る。図7A~図7Gでは、検出されたユーザ視線615は、表示軌跡630に沿った動的UI要素650の位置によって表される時点に対応する時点で示されている。図7B~図7Gに示す例では、HMD300の滑りに起因して、UI要素650をターゲットとするユーザ視線は、ターゲットUI要素650の表示軌跡630をたどらない。むしろ、視線軌跡610は、HMD300の滑りに起因して、ターゲットUI要素650の表示軌跡630からオフセットしている。特に、HMD300の滑りに起因して、表示軌跡630と視線軌跡610との間に並進オフセットTおよびスケーリングオフセットSが存在している。図7B~図7Gは、滑りに起因するユーザの顔/目に対するHMD300の配置に対応する、HMD300の異なるタイプの滑りに対応するさまざまな例示的なシナリオを示す。
図7Bは、HMD300が少し並進して、表示軌跡630と観察された視線軌跡610との間が実質的に均質にスケーリングされた例を示す。図7Bに示すように、観察または検出されたユーザ視線軌跡610(破線で示す)は、HMD300の滑りに起因して、ターゲットUI要素650の表示軌跡630(実線で示す)に対してやや並進またはオフセットしている。図7Bに示す例では、視線軌跡610は、表示軌跡650に対してX方向に(すなわちX軸に沿って)およびY方向に(すなわちY軸に沿って)にオフセットまたは並進している。視線軌跡610の並進オフセットまたは並進は、表示軌跡630を表すパターンの中心部から視線軌跡610を表すパターンの中心部まで延びるベクトルTによって表される。並進オフセットTは、成分Tx(X方向におけるまたはX軸に沿ったオフセットまたは並進またはシフト)およびTy(Y方向におけるまたはY軸に沿ったオフセットまたは並進またはシフト)によって規定され得る。並進オフセットはたとえば、(たとえば図7Aに示す較正後の位置に対する)X方向および/またはY方向におけるHMD300の動きまたは変位に応答し得る。図7Bに示す例では、視線軌跡610のスケーリングオフセットSは、スケーリング成分Sx(X方向におけるまたはX軸に沿ったスケーリング)およびSy(Y方向におけるまたはY軸に沿ったスケーリング)によって表され得る。スケーリング成分Sxは、表示軌跡630と視線軌跡610との間のX軸に沿った圧縮または拡張を表し得る。スケーリング成分Syは、表示軌跡630と視線軌跡610との間のY軸に沿った圧縮または拡張を表し得る。スケーリングオフセットは、たとえば、HMD300がユーザの顔/目に近づくまたはユーザの顔/目から遠ざかることによってHMD300のセンサがユーザの顔/目に近づくおよび/またはユーザの顔/目から遠ざかることに応答し得る。図7Bに示す例では、視線軌跡610は、X方向のスケーリングSxがY方向のスケーリングSyと実質的に同じであるという点で、HMD300の滑りに起因して表示軌跡630に対して実質的に均質にまたは均一にスケーリング(縮小または減少)されている。この実現例では、HMD300の現実的な滑りによってスケーリング(X方向およびY方向における実質的に均一なスケーリング)のみが生じており、視線軌跡610の変形は生じていない。
したがって、並進成分TxおよびTyは、スケーリング成分SxおよびSyとともに、HMD300の滑りに起因するユーザ視線軌跡610の並進および/またはスケーリングおよび/または変形を規定し得る。並進は、少なくとも一部が、たとえば、鼻梁に沿ったHMD300の動き、ユーザの顔に対するHMD300の横方向の(すなわち左から右への)動きなどに起因して起こり得る。圧縮および/または拡張の形態のスケーリングは、少なくとも一部が、滑りに起因するセンサの再位置決め、ユーザの顔に近づくおよび/またはユーザの顔から遠ざかるようなHMD300の一部のセンサの位置決めに起因して起こり得る。動的UI600のターゲットUI要素650とのマッチングが行われると、視線軌跡610と既知の表示軌跡630との間の並進オフセットTx、Tyおよび/またはスケーリングオフセットSx、Syが求められ得て、それらのオフセットが今後の視線検出に適用されることにより、目と画面の間の再較正が提供され得る。すなわち、視線軌跡610が解析されてUI要素650のうちの1つの表示軌跡630とマッチングされると、そのターゲットUI要素650を選択するために、HMD300の滑り状態であっても、それらのオフセットを用いて目と画面の間の再較正が行われて、システムが図7Aに示すような較正後の状態に戻され得る。
図7Cは、HMD300の滑りによって、(並進成分TxおよびTyによって規定される)並進オフセットTならびに(スケーリング成分SxおよびSyによって規定される)スケーリングオフセットSが生じた状況を示す。図7Cに示す例では、観察または検出された視線軌跡610はHMD300の滑りに起因して少し変形している。すなわち、この例では、スケーリングオフセットSは、図7Bに示す例における実質的に均質なまたは均一なスケーリングと比較して、(Y方向におけるまたはY軸に沿った)スケーリングSyから独立している(X方向におけるまたはX軸に沿った)スケーリングSxを含む。この例では、スケーリング成分SxはX方向における(またはX軸に沿った)拡張を表し得るものであり、スケーリング成分SyはY方向における(またはY軸に沿った)圧縮を表し得る。これは、HMD300の滑りによって、(図7Aに示す較正後の位置と比較して)HMD300の一部のセンサがユーザの顔/目に近づくように位置決めされ、一部のセンサがユーザの顔/目から遠ざかるように位置決めされたことを示し得る。
図7Dは、HMD300の現実的な滑りによって、HMD300の不均一な滑りを示すある程度のせん断Sxyを含む並進オフセットTおよびスケーリングオフセットSが生じた実現例を示す。図7Eは、HMD300の滑りによって並進オフセットTが生じ、X方向およびY方向において均質なまたは均一なスケーリングSが生じた状況を示す。図7Eに示す例では、滑りは、示される時点における表示軌跡630上のターゲットUI要素650に対する視線軌跡610の視線615のオフセット位置によって示されるように、HMD300のある程度の回転も含む。図7Fは、HMD300の現実的な滑りによって並進オフセットTが生じ、X方向(すなわち拡張)およびY方向(すなわち圧縮)において独立したスケーリングSが生じた実現例を示す。図7Fに示す例では、滑りは、示される時点における表示軌跡630上のターゲットUI要素650に対する視線軌跡610の視線615のオフセット位置によって示されるように、HMD300のある程度の回転も含む。図7Gは、HMD300の滑りによって、せん断Sxyを含む並進オフセットTおよびスケーリングオフセットSが生じた状況を示す。図7Gに示す例では、滑りは、示される時点における表示軌跡630上のターゲットUI要素650に対する視線軌跡610の視線615のオフセット位置によって示されるように、HMD300のある程度の回転も含む。
いくつかの実現例において、HMD300の滑りが生じた場合に検出された視線軌跡610に基づいてターゲットUI要素650を決定する際に、1つ以上のアルゴリズムが実装されてもよい。たとえば、いくつかの実現例において、(並進滑りの例における)視線追跡のモデル化は以下の式1によって特徴付けられ得る。
式1 G'(t) = SG(t) + T
式1において、G(t)は特定のUI要素に関連付けられた真の表示軌跡を規定し得る。上述のように、TはHMDの滑りに関連付けられた並進成分を表し得るものであり、SはHMDの滑りに関連付けられたスケーリング成分を表し得る。(推定)ユーザ視線軌跡であるG′(t)は式1を用いて求められ得る。
Figure 2023525196000002
いくつかの実現例において、視線軌跡をターゲットUI要素の移動パターンとマッチングさせる位相検出アルゴリズムを用いて、視線軌跡G′(t)をUI要素軌跡とマッチングさせることができる。そのような位相検出アルゴリズムは、ノイズ、並進オフセットおよびスケーリングの影響をそれほど受けないことがある。しかしながら、たとえばフーリエシフト定理のような位相検出アルゴリズムは、信号周期よりも1桁以上長いサンプリング周期に依存することがある。これは、動的UIとの比較的迅速なユーザ対話を提供することと、動的UIのUI要素の移動速度とのバランスをとる上での課題を提起し得る。
上述のように、図7E、図7Fおよび図7Gは、HMD300の滑りが上述のような並進成分およびスケーリング成分を含み、さらに回転成分も含むことにより、検出された視線軌跡610がターゲットUI要素650の表示軌跡630からオフセットしている例を示している。回転滑りは、少なくとも一部が、たとえばHMD300の第1の側面の上方移動およびHMD300の第2の側面の下方移動などに起因して起こり得る。いくつかの実現例において、(回転滑りを含む例における)視線追跡のモデル化は以下の式3によって特徴付けられ得る。
式3 G'(t) = SRG(t) + T
式3において、Sは滑りのスケーリング成分を表し得るものであり、Rは滑りの回転成分を表し得るものであり、G(t)は特定のUI要素に関連付けられた真の表示軌跡を規定し得るものであり、Tは滑りの並進成分を表し得る。このように、HMD300の回転滑りを含む状況における(推定)ユーザ視線軌跡であるG′(t)は式3を用いて求められ得る。
Figure 2023525196000003
Figure 2023525196000004
図8は、本明細書に記載されている実現例に従う、AR/VR環境においてユーザ視線入力を検出する例示的な方法800のフローチャートである。
上述の例示的な動的UI600のような動的UIが、たとえば眼鏡、ゴーグルのようなたとえばHMD300のディスプレイデバイスを介して、AR/VR環境においてユーザに表示され得る。動的UI600は、上述の例示的な動的UI要素650のような複数の動的UI要素を含んでもよく、動的UI要素650の各々は、システムが知っているそれぞれの独立した表示軌跡630に沿って移動する。動的UI要素650のうちの1つ以上は、たとえば視線入力モードを含むいくつかの異なる入力モードを用いるユーザによって選択可能であってもよい。
システムは、複数の動的UI要素650を含む動的UI600に向けられたユーザ視線を検出し得る(ブロック810)。視線入力が動的UI要素650のうちの1つと一致すると判定された場合は、システムは、識別された動的UI要素650をターゲットUI要素として設定し、さらなるアクションのためにこのUI要素650を選択し得る(ブロック820,880,890)。視線入力が動的UI要素650のうちの1つと一致しないと判定された場合は(ブロック820)、システムは、検出されたユーザ視線に関連付けられた視線軌跡610を追跡し得る(830)。システムは、追跡されたユーザ視線軌跡610を動的UI要素650に対応する既知の表示軌跡630と比較して(ブロック840)、ユーザ視線軌跡610を動的UI要素650のうちの1つの表示軌跡630とマッチングさせ得る(ブロック850)。ユーザ視線軌跡610と動的UI要素650のうちの1つの表示軌跡630とのマッチングに応答して、システムは、識別されたUI要素650をターゲットUI要素として設定し、さらなるアクションのためにターゲットUI要素を選択し得る(ブロック850,880,890)。次にシステムは、ユーザ視線軌跡610とターゲットUI要素650の表示軌跡630との間のオフセットを求め得る(ブロック860)。オフセットは、たとえば、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み得る。システムは、求められたオフセットを用いて再較正を実行し得る(ブロック870)。セッションが終了する(ブロック895)までこのプロセスが継続され得る。
図9は、本明細書に記載されている技術とともに使用され得るコンピュータデバイス1000およびモバイルコンピュータデバイス1050の一例を示す。コンピューティングデバイス1000は、プロセッサ1002と、メモリ1004と、ストレージデバイス1006と、メモリ1004および高速拡張ポート1010に接続する高速インターフェイス1008と、低速バス1014およびストレージデバイス1006に接続する低速インターフェイス1012とを含む。コンポーネント1002,1004,1006,1008,1010および1012の各々は、さまざまなバスを用いて相互接続され、共通のマザーボード上にまたは適宜他の態様で搭載されてもよい。プロセッサ1002は、コンピューティングデバイス1000内で実行される命令を処理することができ、これらの命令は、高速インターフェイス1008に結合されたディスプレイ1016などの外部入出力デバイス上にGUIのためのグラフィック情報を表示するための、メモリ1004内またはストレージデバイス1006上に格納された命令を含む。他の実現例において、複数のメモリおよび複数タイプのメモリとともに、複数のプロセッサおよび/または複数のバスが適宜使用されてもよい。また、複数のコンピューティングデバイス1000が接続されてもよく、各デバイスは、(たとえば、サーババンク、ブレードサーバのグループ、またはマルチプロセッサシステムとして)必要な動作の一部を提供する。
メモリ1004は、コンピューティングデバイス1000内に情報を格納する。一実現例において、メモリ1004は、1つまたは複数の揮発性メモリユニットである。別の実現例において、メモリ1004は、1つまたは複数の不揮発性メモリユニットである。また、メモリ1004は、磁気ディスクまたは光ディスクなどの、別の形式のコンピュータ読取可能媒体であってもよい。
ストレージデバイス1006は、コンピューティングデバイス1000に大容量ストレージを提供可能である。一実現例において、ストレージデバイス1006は、フロッピー(登録商標)ディスクデバイス、ハードディスクデバイス、光ディスクデバイス、またはテープデバイス、フラッシュメモリもしくは他の同様のソリッドステートメモリデバイス、または、ストレージエリアネットワークもしくは他の構成内のデバイスを含むデバイスのアレイなどのコンピュータ読取可能媒体であってもよく、またはコンピュータ読取可能媒体を含んでもよい。コンピュータプログラム製品を情報担体において有形に具体化してもよい。コンピュータプログラム製品は、実行されると上述のような1つ以上の方法を実行する命令も含んでもよい。情報担体は、メモリ1004、ストレージデバイス1006、またはプロセッサ1002上のメモリなどのコンピュータ読取可能媒体または機械読取可能媒体である。
高速コントローラ1008は、コンピューティングデバイス1000のための帯域幅を多く使用する動作を管理するのに対して、低速コントローラ1012は、帯域幅をそれほど使用しない動作を管理する。そのような機能の割り当ては例示に過ぎない。一実現例において、高速コントローラ1008は、メモリ1004、ディスプレイ1016に(たとえば、グラフィックスプロセッサまたはアクセラレータを介して)結合されるとともに、さまざまな拡張カード(図示せず)を受け付け得る高速拡張ポート1010に結合される。この実現例において、低速コントローラ1012は、ストレージデバイス1006および低速拡張ポート1014に結合される。さまざまな通信ポート(たとえば、USB、ブルートゥース(登録商標)、イーサネット(登録商標)、無線イーサネット)を含み得る低速拡張ポートは、たとえばネットワークアダプタを介して、キーボード、ポインティングデバイス、スキャナ、またはスイッチもしくはルータなどのネットワーキングデバイスなどの1つ以上の入出力デバイスに結合されてもよい。
コンピューティングデバイス1000は、図に示すように多くの異なる形態で実現されてもよい。たとえば、標準的なサーバ1020として、またはそのようなサーバのグループで複数回実現されてもよい。さらに、ラックサーバシステム1024の一部として実現されてもよい。加えて、ラップトップコンピュータ1022などのパーソナルコンピュータとして実現されてもよい。あるいは、コンピューティングデバイス1000からのコンポーネントが、デバイス1050などのモバイルデバイス(図示せず)内の他のコンポーネントと組み合わされてもよい。そのようなデバイスの各々は、コンピューティングデバイス1000,1050のうちの1つ以上を含んでもよく、システム全体が、互いに通信する複数のコンピューティングデバイス1000,1050で構成されてもよい。
コンピューティングデバイス1050は、いくつかあるコンポーネントの中で特に、プロセッサ1052と、メモリ1064と、ディスプレイ1054などの入出力デバイスと、通信インターフェイス1066と、トランシーバ1068とを含む。デバイス1050は、さらなるストレージを提供するために、マイクロドライブまたは他のデバイスなどの記憶装置が設けられてもよい。コンポーネント1050,1052,1064,1054,1066および1068の各々は、さまざまなバスを用いて相互接続され、これらのコンポーネントのうちのいくつかは、共通のマザーボード上にまたは適宜他の態様で搭載されてもよい。
プロセッサ1052は、メモリ1064に格納された命令を含む、コンピューティングデバイス1050内の命令を実行可能である。プロセッサは、別々の複数のアナログおよびデジタルプロセッサを含むチップのチップセットとして実現されてもよい。プロセッサは、たとえば、ユーザインターフェイスの制御、デバイス1050によって実行されるアプリケーション、およびデバイス1050による無線通信など、デバイス1050の他のコンポーネントの連携を提供してもよい。
プロセッサ1052は、ディスプレイ1054に結合された制御インターフェイス1058およびディスプレイインターフェイス1056を通してユーザと通信してもよい。ディスプレイ1054はたとえば、TFT LCD(薄膜トランジスタ液晶ディスプレイ)もしくはOLED(有機発光ダイオード)ディスプレイ、または他の適切なディスプレイ技術であってもよい。ディスプレイインターフェイス1056は、ディスプレイ1054を駆動してグラフィック情報および他の情報をユーザに提示するための適切な回路を含んでもよい。制御インターフェイス1058は、ユーザからコマンドを受信し、これらのコマンドを変換してプロセッサ1052に送信してもよい。加えて、デバイス1050と他のデバイスとの近接通信を可能にするために、外部インターフェイス1062がプロセッサ1052と通信するように設けられてもよい。外部インターフェイス1062は、たとえば、ある実現例では有線通信を提供してもよく、他の実現例では無線通信を提供してもよく、複数のインターフェイスが使用されてもよい。
メモリ1064は、コンピューティングデバイス1050内に情報を格納する。メモリ1064は、1つ以上のコンピュータ読取可能媒体、1つ以上の揮発性メモリユニット、または1つ以上の不揮発性メモリユニットのうちの1つ以上として実現されてもよい。また、拡張メモリ1074が設けられて、拡張インターフェイス1072を介してデバイス1050に接続されてもよく、拡張インターフェイス1072は、たとえばSIMM(シングル・インライン・メモリ・モジュール)カードインターフェイスを含んでもよい。そのような拡張メモリ1074は、デバイス1050のための追加の記憶空間を提供してもよく、またはデバイス1050のためのアプリケーションもしくは他の情報を格納してもよい。具体的には、拡張メモリ1074は、上記のプロセスを実行または補完するための命令を含んでもよく、セキュアな情報も含んでもよい。このため、拡張メモリ1074はたとえば、デバイス1050のためのセキュリティモジュールとして設けられてもよく、デバイス1050のセキュアな使用を可能にする命令を用いてプログラムされてもよい。加えて、ハッキングできない態様でSIMMカードに識別情報を載せるなどして、セキュアなアプリケーションが追加情報とともにSIMMカードを介して提供されてもよい。
メモリは、以下に記載するように、たとえばフラッシュメモリおよび/またはNVRAMメモリを含んでもよい。一実現例において、コンピュータプログラム製品が情報担体において有形に具体化される。コンピュータプログラム製品は、実行されると上述のような1つ以上の方法を実行する命令を含む。情報担体は、たとえばトランシーバ1068または外部インターフェイス1062を介して受信され得る、メモリ1064、拡張メモリ1074、またはプロセッサ1052上のメモリといった、コンピュータ読取可能媒体または機械読取可能媒体である。
デバイス1050は、必要に応じてデジタル信号処理回路を含み得る通信インターフェイス1066を介して無線通信してもよい。通信インターフェイス1066は、とりわけ、GSM(登録商標)音声電話、SMS、EMSもしくはMMSメッセージング、CDMA、TDMA、PDC、WCDMA(登録商標)、CDMA2000、またはGPRSといった、さまざまなモードまたはプロトコル下で通信を提供してもよい。そのような通信は、たとえば無線周波数トランシーバ1068を介して行われてもよい。加えて、ブルートゥース、Wi-Fi(登録商標)、または他のそのようなトランシーバ(図示せず)を用いるなどして、短距離通信が行われてもよい。加えて、GPS(全地球測位システム)受信機モジュール1070が、ナビゲーションおよび位置に関連する追加の無線データをデバイス1050に提供してもよく、当該データは、デバイス1050上で実行されるアプリケーションによって適宜使用されてもよい。
また、デバイス1050は、ユーザから発話の情報を受信してそれを使用可能なデジタル情報に変換し得る音声コーデック1060を用いて、可聴式に通信してもよい。音声コーデック1060は同様に、たとえばデバイス1050のハンドセットにおいて、スピーカを介するなどしてユーザのために可聴音を生成してもよい。そのような音は、音声電話からの音を含んでもよく、録音された音(たとえば、音声メッセージ、音楽ファイルなど)を含んでもよく、さらに、デバイス1050上で動作するアプリケーションによって生成された音を含んでもよい。
コンピューティングデバイス1050は、図に示すように多くの異なる形態で実現されてもよい。たとえば、携帯電話1080として実現されてもよい。また、スマートフォン1082、携帯情報端末、または他の同様のモバイルデバイスの一部として実現されてもよい。
本明細書に記載されているシステムおよび技術のさまざまな実現例は、デジタル電子回路、集積回路、特別に設計されたASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはこれらの組み合わせで実現されてもよい。これらのさまざまな実現例は、プログラム可能なシステム上で実行可能および/または解釈可能である1つ以上のコンピュータプログラムでの実現例を含んでもよく、当該プログラム可能なシステムは、少なくとも1つのプログラム可能なプロセッサと、少なくとも1つの入力デバイスと、少なくとも1つの出力デバイスとを含み、当該少なくとも1つのプログラム可能なプロセッサは、ストレージシステムとデータおよび命令を送受信するように結合された専用または汎用プロセッサであってもよい。
これらのコンピュータプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーションまたはコードとしても知られている)は、プログラム可能なプロセッサのための機械命令を含み、ハイレベルの手続き型プログラミング言語および/もしくはオブジェクト指向プログラミング言語で実現されてもよく、ならびに/またはアセンブリ言語/機械言語で実現されてもよい。本明細書で使用される「機械読取可能媒体」、「コンピュータ読取可能媒体」という用語は、機械命令を機械読取可能信号として受信する機械読取可能媒体を含む、機械命令および/またはデータをプログラム可能なプロセッサに提供するために使用される任意のコンピュータプログラム製品、装置および/またはデバイス(たとえば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を意味する。「機械読取可能信号」という用語は、機械命令および/またはデータをプログラム可能なプロセッサに提供するために使用される任意の信号を意味する。
ユーザとの対話を提供するために、本明細書に記載されているシステムおよび技術は、情報をユーザに表示するためのディスプレイデバイス(たとえば、CRT(陰極線管)またはLCD(液晶ディスプレイ)モニタ)と、ユーザがコンピュータに入力を提供するために使用し得るキーボードおよびポインティングデバイス(たとえば、マウスまたはトラックボール)とを有するコンピュータ上で実現され得る。ユーザとの対話を提供するために他の種類のデバイスも使用され得る。たとえば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(たとえば、視覚フィードバック、聴覚フィードバック、または触覚フィードバック)であってもよく、ユーザからの入力は、音響入力、音声入力、または触覚入力を含む任意の形態で受信されてもよい。
本明細書に記載されているシステムおよび技術は、(たとえばデータサーバとして)バックエンドコンポーネントを含む、または、ミドルウェアコンポーネント(たとえばアプリケーションサーバ)を含む、または、フロントエンドコンポーネント(たとえば、本明細書に記載されているシステムおよび技術の実現例とユーザが対話できるようにするグラフィカルユーザインターフェイスもしくはウェブブラウザを有するクライアントコンピュータ)を含む、または、そのようなバックエンドコンポーネント、ミドルウェアコンポーネント、もしくはフロントエンドコンポーネントの任意の組み合わせを含む、コンピューティングシステムで実現され得る。システムのコンポーネントは、任意の形態または媒体のデジタルデータ通信(たとえば通信ネットワーク)によって相互接続され得る。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク(「WAN」)、およびインターネットを含む。
コンピューティングシステムはクライアントとサーバとを含み得る。クライアントとサーバは、通常は互いに離れており、通信ネットワークを通して対話するのが一般的である。クライアントとサーバとの関係は、それぞれのコンピュータ上で実行されクライアントとサーバとの関係を有するコンピュータプログラムによって発生する。
いくつかの実現例において、図10に図示されたコンピューティングデバイスは、仮想現実とインターフェイス接続するセンサ(VRヘッドセット/HMDデバイス1090)を含んでもよい。たとえば、コンピューティングデバイス1050または図10に図示された他のコンピューティングデバイスに含まれる1つ以上のセンサは、VRヘッドセット1090に入力を提供する、または一般に、VR空間に入力を提供することが可能である。センサは、タッチスクリーン、加速度計、ジャイロスコープ、圧力センサ、生体認証センサ、温度センサ、湿度センサ、および周囲光センサを含み得るが、これらに限定されない。コンピューティングデバイス1050は、センサを用いて、次にVR空間への入力として使用可能なVR空間におけるコンピューティングデバイスの絶対位置および/または検出された回転を求めることが可能である。たとえば、コンピューティングデバイス1050は、コントローラ、レーザーポインタ、キーボード、武器などの仮想オブジェクトとしてVR空間に組み込まれてもよい。VR空間に組み込まれたときのユーザによるコンピューティングデバイス/仮想オブジェクトの位置決めによって、ユーザは、VR空間において特定の態様で仮想オブジェクトを見るためにコンピューティングデバイスを位置決めすることが可能になる。たとえば、仮想オブジェクトがレーザーポインタを表す場合、ユーザは、コンピューティングデバイスを、実際のレーザーポインタであるかのように操作することができる。ユーザはコンピューティングデバイスをたとえば左右に、上下に、円形に動かして、レーザーポインタを使用するのと同様の態様でデバイスを使用することができる。
いくつかの実現例において、コンピューティングデバイス1050に含まれるまたは接続される1つ以上の入力デバイスは、VR空間への入力として使用され得る。入力デバイスは、タッチスクリーン、キーボード、1つ以上のボタン、トラックパッド、タッチパッド、ポインティングデバイス、マウス、トラックボール、ジョイスティック、カメラ、マイク、入力機能付きイヤホンもしくは小型イヤホン、ゲームコントローラ、または他の接続可能な入力デバイスを含み得るが、これらに限定されない。コンピューティングデバイスがVR空間に組み込まれるとコンピューティングデバイス1050に含まれる入力デバイスと対話するユーザは、VR空間において特定のアクションを発生させることができる。
いくつかの実現例において、コンピューティングデバイス1050のタッチスクリーンは、VR空間においてタッチパッドとしてレンダリング可能である。ユーザは、コンピューティングデバイス1050のタッチスクリーンと対話することができる。対話は、たとえばVRヘッドセット1090において、VR空間におけるレンダリングされたタッチパッド上の動きとしてレンダリングされる。レンダリングされた動きは、VR空間において仮想オブジェクトを制御することができる。
いくつかの実現例において、コンピューティングデバイス1050に含まれる1つ以上の出力デバイスは、VR空間においてVRヘッドセット1090のユーザに出力および/またはフィードバックを提供可能である。出力およびフィードバックは、視覚、触覚、または音声によるものであり得る。出力および/またはフィードバックは、振動、1つ以上のライトまたはストロボをオンオフすることまたは点滅および/または明滅させること、アラームを鳴らすこと、チャイムを鳴らすこと、歌を演奏すること、ならびに音声ファイルを演奏することを含み得るが、これらに限定されない。出力デバイスは、振動モータ、振動コイル、圧電デバイス、静電デバイス、発光ダイオード(LED)、ストロボ、およびスピーカを含み得るが、これらに限定されない。
いくつかの実現例において、コンピューティングデバイス1050は、コンピュータで生成された3D環境における別のオブジェクトとして現れてもよい。ユーザによるコンピューティングデバイス1050との対話(たとえば、回転、振動、タッチスクリーンのタッチ、タッチスクリーンを横切る指のスワイプ)は、VR空間におけるオブジェクトとの対話と解釈され得る。VR空間におけるレーザーポインタの例では、コンピューティングデバイス1050は、コンピュータで生成された3D環境において仮想レーザーポインタとして現れる。ユーザがコンピューティングデバイス1050を操作すると、VR空間内のユーザは、レーザーポインタの動きを見る。ユーザは、VR環境におけるコンピューティングデバイス1050との対話からのフィードバックを、コンピューティングデバイス1050上またはVRヘッドセット1090上で受信する。
いくつかの実現例において、コンピューティングデバイス1050はタッチスクリーンを含んでもよい。たとえば、ユーザは、タッチスクリーン上で起こることをVR空間内で起こることと模倣することができる特定の態様で、タッチスクリーンと対話することができる。たとえば、ユーザは、つまむタイプの動作を用いて、タッチスクリーン上に表示されているコンテンツをズームさせることができる。このタッチスクリーン上のつまむタイプの動作は、VR空間において提供される情報をズームさせることができる。別の例において、コンピューティングデバイスは、コンピュータで生成された3D環境における仮想ブックとしてレンダリングされてもよい。VR空間において、このブックのページがVR空間内で表示され得て、タッチスクリーンを横切るユーザの指のスワイプは、仮想ブックのページを裏返す/めくることと解釈され得る。各ページを裏返す/めくると、ページの内容が変わるのが見え、それに加えて、本のページを裏返す音などの音声フィードバックがユーザに提供され得る。
いくつかの実現例において、コンピューティングデバイスに加えて1つ以上の入力デバイス(たとえばマウス、キーボード)が、コンピュータで生成された3D環境においてレンダリング可能である。レンダリングされた入力デバイス(たとえば、レンダリングされたマウス、レンダリングされたキーボード)は、VR空間内のオブジェクトを制御するために、VR空間内でレンダリングされたものとして使用可能である。
コンピューティングデバイス1000は、ラップトップ、デスクトップ、ワークステーション、携帯情報端末、サーバ、ブレードサーバ、メインフレーム、および他の適切なコンピュータを含むがこれらに限定されない、さまざまな形態のデジタルコンピュータおよびデバイスを表すことが意図されている。コンピューティングデバイス1050は、携帯情報端末、携帯電話、スマートフォン、および他の類似のコンピューティングデバイスのような、さまざまな形態のモバイルデバイスを表すことが意図されている。ここに示された構成要素、それらの接続および関係、ならびにそれらの機能は、例示的であることを意図しているに過ぎず、本文書に記載のおよび/または請求項に記載の本発明の実現例を限定することを意図したものではない。
多くの実施形態を説明してきた。しかしながら、明細書の精神および範囲から逸脱することなくさまざまな変更がなされ得ることが理解されるであろう。
加えて、図に示された論理フローは、望ましい結果を得るために、示された特定の順序、または連続した順序を必要としない。加えて、説明したフローから他のステップを設けてもよく、ステップを削除してもよく、説明したシステムに対して他のコンポーネントを追加または削除してもよい。したがって、他の実施形態は、以下の請求項の範囲内にある。
記載されている実現例の特定の特徴について、本明細書に記載されているように説明してきたが、多くの変形、置換、変更および等価物が当業者に想起されるであろう。したがって、添付の請求項は、実現例の範囲内に入るすべてのこのような変形および変更を包含するよう意図されているということが理解されるべきである。それらは限定としてではなく単に一例として提示されており、形態および詳細のさまざまな変更がなされてもよいということが理解されるべきである。本明細書に記載されている装置および/または方法のいずれの部分も、相互排他的な組み合わせを除いて、いかなる組み合わせで組み合わされてもよい。本明細書に記載されている実現例は、記載されているさまざまな実現例の機能、構成要素および/または特徴のさまざまな組み合わせおよび/または下位組み合わせを含み得る。
以下にいくつかの例を記載する。
例1:コンピュータによって実現される方法であって、ヘッドマウントディスプレイ(HMD)デバイスのディスプレイデバイスが、仮想ユーザインターフェイス(UI)を表示することを備え、上記仮想UIは複数のUI要素を含み、上記方法はさらに、上記仮想UIに向けられたユーザ視線を検出することと、検出された上記ユーザ視線に対応する視線軌跡を検出することと、検出された上記視線軌跡を、上記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、上記1つのUI要素をターゲットUI要素として識別することと、上記視線軌跡と上記ターゲットUI要素に関連付けられた上記表示軌跡との間のオフセットを求めることとを備え、上記オフセットは、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み、上記方法はさらに、求められた上記オフセットに基づいてユーザ視線対話モードを再較正することを備える、方法。
例2:上記オフセットを求めることは、上記並進オフセットを求めることを含み、上記並進オフセットは、第1の方向における第1の並進オフセットと、第2の方向における第2の並進オフセットとを含み、上記オフセットを求めることはさらに、上記スケーリングオフセットを求めることを含み、上記スケーリングオフセットは、上記第1の方向における圧縮または拡張と、上記第2の方向における圧縮または拡張とを含む、請求項1に記載の方法。
例3:上記ユーザ視線対話モードを再較正することは、検出された上記ユーザ視線を上記仮想UIおよび上記複数のUI要素を用いて再設定して、上記第1および第2の並進オフセットならびに上記第1および第2のスケーリングオフセットを補償することを含む、請求項2に記載の方法。
例4:上記仮想UIは、複数の動的UI要素を含む動的UIであり、上記複数の動的UI要素の各々は、それぞれの上記動的UI要素の移動パターンを規定するそれぞれの表示軌跡を有する、請求項1に記載の方法。
例5:上記複数の動的UI要素の各動的UI要素は、その動的UI要素の固有の移動パターンを規定する固有の表示軌跡を有する、請求項4に記載の方法。
例6:上記表示軌跡は、直線部分、円形部分、または曲線部分を含む、請求項5に記載の方法。
例7:上記複数の動的UI要素の各動的UI要素は、その動的UI要素の擬似ランダムな移動パターンを規定する擬似ランダムな表示軌跡を有する、請求項5に記載の方法。
例8:上記ユーザ視線を検出すること、および上記視線軌跡を検出することは、上記HMDの眼球追跡システムがユーザ視線を追跡することと、上記仮想UIおよび上記複数のUI要素に対する追跡された上記ユーザ視線に基づいて、上記視線軌跡を検出することとを含む、請求項1~7の少なくとも1項に記載の方法。
例9:上記ユーザ視線を追跡することは、上記HMDの1つ以上の光源が、上記ユーザの目に向かって光を発することと、上記HMDの1つ以上の光センサが、上記1つ以上の光源から発せられた上記光の、上記ユーザの目による反射を検出することと、検出された上記反射に基づいて上記ユーザ視線を追跡することとを含む、請求項8に記載の方法。
例10:電子デバイスであって、ディスプレイと、検知システムと、少なくとも1つのプロセッサと、命令を格納したメモリとを含み、上記命令は、上記少なくとも1つのプロセッサによって実行されると、上記電子デバイスに、上記ディスプレイによって仮想ユーザインターフェイス(UI)を表示することを行わせ、上記仮想UIは複数のUI要素を含み、さらに、上記仮想UIに向けられたユーザ視線を検出することと、検出された上記ユーザ視線に対応する視線軌跡を検出することと、検出された上記視線軌跡を、上記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、上記1つのUI要素をターゲットUI要素として識別することと、上記視線軌跡と上記ターゲットUI要素に関連付けられた上記表示軌跡との間のオフセットを求めることとを行わせ、上記オフセットは、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み、さらに、求められた上記オフセットに基づいてユーザ視線対話モードを再較正することを行わせる、電子デバイス。
例11:上記オフセットを求める際に、上記命令は上記少なくとも1つのプロセッサに、上記並進オフセットを求めることを行わせ、上記並進オフセットは、第1の方向における第1の並進オフセットと、第2の方向における第2の並進オフセットとを含み、さらに、上記スケーリングオフセットを求めることを行わせ、上記スケーリングオフセットは、上記第1の方向における圧縮または拡張と、上記第2の方向における圧縮または拡張とを含む、請求項10に記載のデバイス。
例12:上記ユーザ視線対話モードを再較正する際に、上記命令は上記少なくとも1つのプロセッサに、検出された上記ユーザ視線を上記仮想UIおよび上記複数のUI要素を用いて再設定して、上記第1および第2の並進オフセットならびに上記第1および第2のスケーリングオフセットを補償することを行わせる、請求項11に記載のデバイス。
例13:上記仮想UIは、複数の動的UI要素を含む動的UIであり、上記複数の動的UI要素の各動的UI要素は、それぞれの上記動的UI要素の固有の移動パターンを規定するそれぞれの表示軌跡を有する、請求項12に記載のデバイス。
例14:上記表示軌跡は、直線部分、円形部分、または曲線部分を含む、請求項13に記載の方法。
例15:上記複数の動的UI要素の各動的UI要素は、その動的UI要素の擬似ランダムな移動パターンを規定する擬似ランダムな表示軌跡を有する、請求項13に記載のデバイス。
例16:上記ユーザ視線を検出し、上記視線軌跡を検出する際に、上記命令は上記少なくとも1つのプロセッサに、上記電子デバイスの眼球追跡システムによってユーザ視線を追跡することを行わせ、上記追跡することは、1つ以上の光源が、上記ユーザの目に向かって光を発することと、1つ以上の光センサが、上記1つ以上の光源から発せられた上記光の、上記ユーザの目による反射を検出することと、検出された上記反射に基づいて上記ユーザ視線を追跡することとを含む、請求項10~15の少なくとも1項に記載のデバイス。
例17:上記電子デバイスはヘッドマウントディスプレイ(HMD)デバイスであり、上記視線軌跡と上記ターゲットUI要素に関連付けられた上記表示軌跡との間の上記オフセットは、上記HMDデバイスの最初の較正の後の上記ユーザの目に対する上記HMDデバイスの動きに起因する、請求項10~16の少なくとも1項に記載のデバイス。
例18:命令を格納した非一時的なコンピュータ読取可能媒体であって、上記命令は、コンピューティングデバイスによって実行されると、上記コンピューティングデバイスに、上記コンピューティングデバイスのディスプレイデバイスによって仮想ユーザインターフェイス(UI)を表示することを行わせ、上記仮想UIは複数のUI要素を含み、さらに、上記仮想UIに向けられたユーザ視線を検出することと、検出された上記ユーザ視線に対応する視線軌跡を検出することと、検出された上記視線軌跡を、上記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、上記1つのUI要素をターゲットUI要素として識別することと、上記視線軌跡と上記ターゲットUI要素に関連付けられた上記表示軌跡との間のオフセットを求めることとを行わせ、上記オフセットは、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み、さらに、求められた上記オフセットに基づいてユーザ視線対話モードを再較正することを行わせる、非一時的なコンピュータ読取可能媒体。

Claims (18)

  1. コンピュータによって実現される方法であって、
    ヘッドマウントディスプレイ(HMD)デバイスのディスプレイデバイスに表示される仮想UIに向けられたユーザ視線を検出することを備え、前記仮想UIは複数の仮想UI要素を含み、前記方法はさらに、
    検出された前記ユーザ視線に対応する視線軌跡を検出することと、
    検出された前記視線軌跡を、前記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、
    前記1つのUI要素をターゲットUI要素として識別することと、
    前記視線軌跡と前記ターゲットUI要素に関連付けられた前記表示軌跡との間のオフセットを求めることとを備え、前記オフセットは、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み、前記方法はさらに、
    求められた前記オフセットに基づいてユーザ視線対話モードを再較正することを備える、方法。
  2. 前記オフセットを求めることは、
    前記並進オフセットを求めることを含み、前記並進オフセットは、
    第1の方向における第1の並進オフセットと、
    第2の方向における第2の並進オフセットとを含み、前記オフセットを求めることはさらに、
    前記スケーリングオフセットを求めることを含み、前記スケーリングオフセットは、
    前記第1の方向における圧縮または拡張と、
    前記第2の方向における圧縮または拡張とを含む、請求項1に記載の方法。
  3. 前記ユーザ視線対話モードを再較正することは、検出された前記ユーザ視線を前記仮想UIおよび前記複数のUI要素を用いて再設定して、前記第1および第2の並進オフセットならびに前記第1および第2のスケーリングオフセットを補償することを含む、請求項2に記載の方法。
  4. 前記仮想UIは、複数の動的UI要素を含む動的UIであり、前記複数の動的UI要素の各々は、それぞれの前記動的UI要素の移動パターンを規定するそれぞれの表示軌跡を有する、請求項1に記載の方法。
  5. 前記複数の動的UI要素の各動的UI要素は、その動的UI要素の固有の移動パターンを規定する固有の表示軌跡を有する、請求項4に記載の方法。
  6. 前記表示軌跡は、直線部分、円形部分、または曲線部分を含む、請求項5に記載の方法。
  7. 前記複数の動的UI要素の各動的UI要素は、その動的UI要素の擬似ランダムな移動パターンを規定する擬似ランダムな表示軌跡を有する、請求項5に記載の方法。
  8. 前記ユーザ視線を検出すること、および前記視線軌跡を検出することは、
    前記HMDの眼球追跡システムがユーザ視線を追跡することと、
    前記仮想UIおよび前記複数のUI要素に対する追跡された前記ユーザ視線に基づいて、前記視線軌跡を検出することとを含む、請求項1~7の少なくとも1項に記載の方法。
  9. 前記ユーザ視線を追跡することは、
    前記HMDの1つ以上の光源が、前記ユーザの目に向かって光を発することと、
    前記HMDの1つ以上の光センサが、前記1つ以上の光源から発せられた前記光の、前記ユーザの目による反射を検出することと、
    検出された前記反射に基づいて前記ユーザ視線を追跡することとを含む、請求項8に記載の方法。
  10. 電子デバイスであって、
    ディスプレイと、
    検知システムと、
    少なくとも1つのプロセッサと、
    命令を格納したメモリとを含み、前記命令は、前記少なくとも1つのプロセッサによって実行されると、前記電子デバイスに、
    前記ディスプレイによって仮想ユーザインターフェイス(UI)を表示することを行わせ、前記仮想UIは複数のUI要素を含み、さらに、
    前記仮想UIに向けられたユーザ視線を検出することと、
    検出された前記ユーザ視線に対応する視線軌跡を検出することと、
    検出された前記視線軌跡を、前記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、
    前記1つのUI要素をターゲットUI要素として識別することと、
    前記視線軌跡と前記ターゲットUI要素に関連付けられた前記表示軌跡との間のオフセットを求めることとを行わせ、前記オフセットは、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み、さらに、
    求められた前記オフセットに基づいてユーザ視線対話モードを再較正することを行わせる、電子デバイス。
  11. 前記オフセットを求める際に、前記命令は前記少なくとも1つのプロセッサに、
    前記並進オフセットを求めることを行わせ、前記並進オフセットは、
    第1の方向における第1の並進オフセットと、
    第2の方向における第2の並進オフセットとを含み、さらに、
    前記スケーリングオフセットを求めることを行わせ、前記スケーリングオフセットは、
    前記第1の方向における圧縮または拡張と、
    前記第2の方向における圧縮または拡張とを含む、請求項10に記載のデバイス。
  12. 前記ユーザ視線対話モードを再較正する際に、前記命令は前記少なくとも1つのプロセッサに、検出された前記ユーザ視線を前記仮想UIおよび前記複数のUI要素を用いて再設定して、前記第1および第2の並進オフセットならびに前記第1および第2のスケーリングオフセットを補償することを行わせる、請求項11に記載のデバイス。
  13. 前記仮想UIは、複数の動的UI要素を含む動的UIであり、前記複数の動的UI要素の各動的UI要素は、それぞれの前記動的UI要素の固有の移動パターンを規定するそれぞれの表示軌跡を有する、請求項12に記載のデバイス。
  14. 前記表示軌跡は、直線部分、円形部分、または曲線部分を含む、請求項13に記載の方法。
  15. 前記複数の動的UI要素の各動的UI要素は、その動的UI要素の擬似ランダムな移動パターンを規定する擬似ランダムな表示軌跡を有する、請求項13に記載のデバイス。
  16. 前記ユーザ視線を検出し、前記視線軌跡を検出する際に、前記命令は前記少なくとも1つのプロセッサに、
    前記電子デバイスの眼球追跡システムによってユーザ視線を追跡することを行わせ、前記追跡することは、
    1つ以上の光源が、前記ユーザの目に向かって光を発することと、
    1つ以上の光センサが、前記1つ以上の光源から発せられた前記光の、前記ユーザの目による反射を検出することと、
    検出された前記反射に基づいて前記ユーザ視線を追跡することとを含む、請求項10~15の少なくとも1項に記載のデバイス。
  17. 前記電子デバイスはヘッドマウントディスプレイ(HMD)デバイスであり、前記視線軌跡と前記ターゲットUI要素に関連付けられた前記表示軌跡との間の前記オフセットは、前記HMDデバイスの最初の較正の後の前記ユーザの目に対する前記HMDデバイスの動きに起因する、請求項10~16の少なくとも1項に記載のデバイス。
  18. 命令を格納した非一時的なコンピュータ読取可能媒体であって、前記命令は、コンピューティングデバイスによって実行されると、前記コンピューティングデバイスに、
    前記コンピューティングデバイスのディスプレイデバイスによって仮想ユーザインターフェイス(UI)を表示することを行わせ、前記仮想UIは複数のUI要素を含み、さらに、
    前記仮想UIに向けられたユーザ視線を検出することと、
    検出された前記ユーザ視線に対応する視線軌跡を検出することと、
    検出された前記視線軌跡を、前記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、
    前記1つのUI要素をターゲットUI要素として識別することと、
    前記視線軌跡と前記ターゲットUI要素に関連付けられた前記表示軌跡との間のオフセットを求めることとを行わせ、前記オフセットは、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み、さらに、
    求められた前記オフセットに基づいてユーザ視線対話モードを再較正することを行わせる、非一時的なコンピュータ読取可能媒体。
JP2022552368A 2020-08-10 2020-08-10 滑りの影響を受けない視線追跡ユーザインターフェイス Pending JP2023525196A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2020/070388 WO2022035458A1 (en) 2020-08-10 2020-08-10 Slippage resistant gaze tracking user interfaces

Publications (1)

Publication Number Publication Date
JP2023525196A true JP2023525196A (ja) 2023-06-15

Family

ID=72148259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022552368A Pending JP2023525196A (ja) 2020-08-10 2020-08-10 滑りの影響を受けない視線追跡ユーザインターフェイス

Country Status (6)

Country Link
US (1) US20220397958A1 (ja)
EP (1) EP4097566A1 (ja)
JP (1) JP2023525196A (ja)
KR (1) KR20220100051A (ja)
CN (1) CN114868099A (ja)
WO (1) WO2022035458A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022122479A (ja) * 2021-02-10 2022-08-23 キヤノン株式会社 撮像システム、表示装置、撮像装置、および撮像システムの制御方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8235529B1 (en) * 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
US10635167B2 (en) * 2013-05-30 2020-04-28 Umoove Services Ltd. Smooth pursuit gaze tracking
US9727136B2 (en) * 2014-05-19 2017-08-08 Microsoft Technology Licensing, Llc Gaze detection calibration
US11122999B2 (en) * 2016-06-30 2021-09-21 Cornell University Optokinesys
US10725538B2 (en) * 2018-06-19 2020-07-28 Igt Interacting with game elements using eye movement tracking

Also Published As

Publication number Publication date
CN114868099A (zh) 2022-08-05
WO2022035458A1 (en) 2022-02-17
EP4097566A1 (en) 2022-12-07
US20220397958A1 (en) 2022-12-15
KR20220100051A (ko) 2022-07-14

Similar Documents

Publication Publication Date Title
US11181986B2 (en) Context-sensitive hand interaction
CN108700941B (zh) 用于在虚拟现实环境中对准组件的方法和设备
US10642344B2 (en) Manipulating virtual objects with six degree-of-freedom controllers in an augmented and/or virtual reality environment
US10545584B2 (en) Virtual/augmented reality input device
EP3320413B1 (en) System for tracking a handheld device in virtual reality
CN107667328B (zh) 用于在增强和/或虚拟现实环境中跟踪手持设备的系统
EP3092546B1 (en) Target positioning with gaze tracking
US10353478B2 (en) Hover touch input compensation in augmented and/or virtual reality
US11360550B2 (en) IMU for touch detection
US11620790B2 (en) Generating a 3D model of a fingertip for visual touch detection
JP2023525196A (ja) 滑りの影響を受けない視線追跡ユーザインターフェイス

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240416