JP2023525196A - 滑りの影響を受けない視線追跡ユーザインターフェイス - Google Patents
滑りの影響を受けない視線追跡ユーザインターフェイス Download PDFInfo
- Publication number
- JP2023525196A JP2023525196A JP2022552368A JP2022552368A JP2023525196A JP 2023525196 A JP2023525196 A JP 2023525196A JP 2022552368 A JP2022552368 A JP 2022552368A JP 2022552368 A JP2022552368 A JP 2022552368A JP 2023525196 A JP2023525196 A JP 2023525196A
- Authority
- JP
- Japan
- Prior art keywords
- user
- offset
- trajectory
- display
- gaze
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims description 53
- 230000015654 memory Effects 0.000 claims description 37
- 230000003993 interaction Effects 0.000 claims description 26
- 230000006835 compression Effects 0.000 claims description 16
- 238000007906 compression Methods 0.000 claims description 16
- 230000003287 optical effect Effects 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 4
- 230000004069 differentiation Effects 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 13
- 230000003068 static effect Effects 0.000 description 10
- 238000004590 computer program Methods 0.000 description 8
- 238000013519 translation Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 238000009877 rendering Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 4
- 208000013057 hereditary mucoepithelial dysplasia Diseases 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000004984 smart glass Substances 0.000 description 4
- 241000699666 Mus <mouse, genus> Species 0.000 description 3
- 240000007320 Pinus strobus Species 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000000135 prohibitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本明細書は、概して、拡張現実(augmented reality:AR)および/または仮想現実(virtual reality:VR)環境に関し、より具体的には、ARおよび/またはVR環境における特徴と対話するための視線追跡に関する。
(AR)および/または(VR)システムは、3次元(3D)AR/VR環境を生成し得る。ユーザは、さまざまな電子デバイスとの対話を通してこの3DのAR/VR環境を体験することができ、これらの電子デバイスは、例として、たとえばヘルメット、ゴーグル、眼鏡などのヘッドマウントディスプレイ(head mounted display:HMD)デバイスおよび/またはヘッドアップディスプレイ(heads up display:HUD)デバイス、センサが装着された手袋、センサを含む外部ハンドヘルドデバイス、ならびに他のそのような電子デバイスなどである。ユーザはAR/VR環境の中を移動することができ、さまざまな入力方法を用いてAR/VR環境におけるオブジェクト、特徴、ユーザインターフェイスなどと対話することができる。たとえば、ユーザは、外部コントローラ、ジェスチャ入力、音声入力、頭部の注視および視線を含む視線入力、ならびに他のそのような入力方法を用いて、AR/VR環境における特徴と対話することができる。状況によっては、特に視線入力を用いてAR/VR環境の特徴と対話する場合、HMDの滑りおよび/または再装着が、検出される視線入力の精度に影響を及ぼすことがある。
一局面において、コンピュータによって実現される方法は、ヘッドマウントディスプレイ(HMD)デバイスのディスプレイデバイスに表示される仮想UIに向けられたユーザ視線を検出することを含んでもよく、上記仮想UIは複数の仮想UI要素を含み、上記方法はさらに、検出された上記ユーザ視線に対応する視線軌跡を検出することと、検出された上記視線軌跡を、上記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、上記1つのUI要素をターゲットUI要素として識別することと、上記視線軌跡と上記ターゲットUI要素に関連付けられた上記表示軌跡との間のオフセットを求めることとを含んでもよく、上記オフセットは、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み、上記方法はさらに、求められた上記オフセットに基づいてユーザ視線対話モードを再較正することを含んでもよい。
ユーザは、ARおよび/またはVR環境における特徴(すなわち、仮想オブジェクト、仮想ユーザインターフェイス(UI)など)と対話するための多数の異なる入力方法を利用することができる。そのような入力方法は、たとえば、外部コンピューティングデバイス(たとえばハンドヘルドコントローラなど)で受信されるユーザ入力、ジェスチャ入力、可聴/音声入力、視線入力(たとえば頭部注視入力および眼球注視入力を含む)などを含み得る。いくつかの実現例において、これらの入力方法は組み合わされてもよい。本明細書に記載されている実現例に従うシステムおよび方法は、視線入力を用いたARおよび/またはVR環境におけるUIとのユーザ対話を提供する。本明細書に記載されている実現例に従うシステムおよび方法は、考慮しなければAR/VR環境におけるUIに向けられた視線入力の精度に影響を及ぼし得る、HMDの滑り、または動き、または再装着を考慮することができる。
式1において、G(t)は特定のUI要素に関連付けられた真の表示軌跡を規定し得る。上述のように、TはHMDの滑りに関連付けられた並進成分を表し得るものであり、SはHMDの滑りに関連付けられたスケーリング成分を表し得る。(推定)ユーザ視線軌跡であるG′(t)は式1を用いて求められ得る。
式3において、Sは滑りのスケーリング成分を表し得るものであり、Rは滑りの回転成分を表し得るものであり、G(t)は特定のUI要素に関連付けられた真の表示軌跡を規定し得るものであり、Tは滑りの並進成分を表し得る。このように、HMD300の回転滑りを含む状況における(推定)ユーザ視線軌跡であるG′(t)は式3を用いて求められ得る。
例1:コンピュータによって実現される方法であって、ヘッドマウントディスプレイ(HMD)デバイスのディスプレイデバイスが、仮想ユーザインターフェイス(UI)を表示することを備え、上記仮想UIは複数のUI要素を含み、上記方法はさらに、上記仮想UIに向けられたユーザ視線を検出することと、検出された上記ユーザ視線に対応する視線軌跡を検出することと、検出された上記視線軌跡を、上記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、上記1つのUI要素をターゲットUI要素として識別することと、上記視線軌跡と上記ターゲットUI要素に関連付けられた上記表示軌跡との間のオフセットを求めることとを備え、上記オフセットは、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み、上記方法はさらに、求められた上記オフセットに基づいてユーザ視線対話モードを再較正することを備える、方法。
Claims (18)
- コンピュータによって実現される方法であって、
ヘッドマウントディスプレイ(HMD)デバイスのディスプレイデバイスに表示される仮想UIに向けられたユーザ視線を検出することを備え、前記仮想UIは複数の仮想UI要素を含み、前記方法はさらに、
検出された前記ユーザ視線に対応する視線軌跡を検出することと、
検出された前記視線軌跡を、前記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、
前記1つのUI要素をターゲットUI要素として識別することと、
前記視線軌跡と前記ターゲットUI要素に関連付けられた前記表示軌跡との間のオフセットを求めることとを備え、前記オフセットは、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み、前記方法はさらに、
求められた前記オフセットに基づいてユーザ視線対話モードを再較正することを備える、方法。 - 前記オフセットを求めることは、
前記並進オフセットを求めることを含み、前記並進オフセットは、
第1の方向における第1の並進オフセットと、
第2の方向における第2の並進オフセットとを含み、前記オフセットを求めることはさらに、
前記スケーリングオフセットを求めることを含み、前記スケーリングオフセットは、
前記第1の方向における圧縮または拡張と、
前記第2の方向における圧縮または拡張とを含む、請求項1に記載の方法。 - 前記ユーザ視線対話モードを再較正することは、検出された前記ユーザ視線を前記仮想UIおよび前記複数のUI要素を用いて再設定して、前記第1および第2の並進オフセットならびに前記第1および第2のスケーリングオフセットを補償することを含む、請求項2に記載の方法。
- 前記仮想UIは、複数の動的UI要素を含む動的UIであり、前記複数の動的UI要素の各々は、それぞれの前記動的UI要素の移動パターンを規定するそれぞれの表示軌跡を有する、請求項1に記載の方法。
- 前記複数の動的UI要素の各動的UI要素は、その動的UI要素の固有の移動パターンを規定する固有の表示軌跡を有する、請求項4に記載の方法。
- 前記表示軌跡は、直線部分、円形部分、または曲線部分を含む、請求項5に記載の方法。
- 前記複数の動的UI要素の各動的UI要素は、その動的UI要素の擬似ランダムな移動パターンを規定する擬似ランダムな表示軌跡を有する、請求項5に記載の方法。
- 前記ユーザ視線を検出すること、および前記視線軌跡を検出することは、
前記HMDの眼球追跡システムがユーザ視線を追跡することと、
前記仮想UIおよび前記複数のUI要素に対する追跡された前記ユーザ視線に基づいて、前記視線軌跡を検出することとを含む、請求項1~7の少なくとも1項に記載の方法。 - 前記ユーザ視線を追跡することは、
前記HMDの1つ以上の光源が、前記ユーザの目に向かって光を発することと、
前記HMDの1つ以上の光センサが、前記1つ以上の光源から発せられた前記光の、前記ユーザの目による反射を検出することと、
検出された前記反射に基づいて前記ユーザ視線を追跡することとを含む、請求項8に記載の方法。 - 電子デバイスであって、
ディスプレイと、
検知システムと、
少なくとも1つのプロセッサと、
命令を格納したメモリとを含み、前記命令は、前記少なくとも1つのプロセッサによって実行されると、前記電子デバイスに、
前記ディスプレイによって仮想ユーザインターフェイス(UI)を表示することを行わせ、前記仮想UIは複数のUI要素を含み、さらに、
前記仮想UIに向けられたユーザ視線を検出することと、
検出された前記ユーザ視線に対応する視線軌跡を検出することと、
検出された前記視線軌跡を、前記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、
前記1つのUI要素をターゲットUI要素として識別することと、
前記視線軌跡と前記ターゲットUI要素に関連付けられた前記表示軌跡との間のオフセットを求めることとを行わせ、前記オフセットは、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み、さらに、
求められた前記オフセットに基づいてユーザ視線対話モードを再較正することを行わせる、電子デバイス。 - 前記オフセットを求める際に、前記命令は前記少なくとも1つのプロセッサに、
前記並進オフセットを求めることを行わせ、前記並進オフセットは、
第1の方向における第1の並進オフセットと、
第2の方向における第2の並進オフセットとを含み、さらに、
前記スケーリングオフセットを求めることを行わせ、前記スケーリングオフセットは、
前記第1の方向における圧縮または拡張と、
前記第2の方向における圧縮または拡張とを含む、請求項10に記載のデバイス。 - 前記ユーザ視線対話モードを再較正する際に、前記命令は前記少なくとも1つのプロセッサに、検出された前記ユーザ視線を前記仮想UIおよび前記複数のUI要素を用いて再設定して、前記第1および第2の並進オフセットならびに前記第1および第2のスケーリングオフセットを補償することを行わせる、請求項11に記載のデバイス。
- 前記仮想UIは、複数の動的UI要素を含む動的UIであり、前記複数の動的UI要素の各動的UI要素は、それぞれの前記動的UI要素の固有の移動パターンを規定するそれぞれの表示軌跡を有する、請求項12に記載のデバイス。
- 前記表示軌跡は、直線部分、円形部分、または曲線部分を含む、請求項13に記載の方法。
- 前記複数の動的UI要素の各動的UI要素は、その動的UI要素の擬似ランダムな移動パターンを規定する擬似ランダムな表示軌跡を有する、請求項13に記載のデバイス。
- 前記ユーザ視線を検出し、前記視線軌跡を検出する際に、前記命令は前記少なくとも1つのプロセッサに、
前記電子デバイスの眼球追跡システムによってユーザ視線を追跡することを行わせ、前記追跡することは、
1つ以上の光源が、前記ユーザの目に向かって光を発することと、
1つ以上の光センサが、前記1つ以上の光源から発せられた前記光の、前記ユーザの目による反射を検出することと、
検出された前記反射に基づいて前記ユーザ視線を追跡することとを含む、請求項10~15の少なくとも1項に記載のデバイス。 - 前記電子デバイスはヘッドマウントディスプレイ(HMD)デバイスであり、前記視線軌跡と前記ターゲットUI要素に関連付けられた前記表示軌跡との間の前記オフセットは、前記HMDデバイスの最初の較正の後の前記ユーザの目に対する前記HMDデバイスの動きに起因する、請求項10~16の少なくとも1項に記載のデバイス。
- 命令を格納した非一時的なコンピュータ読取可能媒体であって、前記命令は、コンピューティングデバイスによって実行されると、前記コンピューティングデバイスに、
前記コンピューティングデバイスのディスプレイデバイスによって仮想ユーザインターフェイス(UI)を表示することを行わせ、前記仮想UIは複数のUI要素を含み、さらに、
前記仮想UIに向けられたユーザ視線を検出することと、
検出された前記ユーザ視線に対応する視線軌跡を検出することと、
検出された前記視線軌跡を、前記複数のUI要素のうちの1つのUI要素に関連付けられた表示軌跡とマッチングさせることと、
前記1つのUI要素をターゲットUI要素として識別することと、
前記視線軌跡と前記ターゲットUI要素に関連付けられた前記表示軌跡との間のオフセットを求めることとを行わせ、前記オフセットは、並進オフセット、スケーリングオフセット、または回転オフセットのうちの少なくとも1つを含み、さらに、
求められた前記オフセットに基づいてユーザ視線対話モードを再較正することを行わせる、非一時的なコンピュータ読取可能媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2020/070388 WO2022035458A1 (en) | 2020-08-10 | 2020-08-10 | Slippage resistant gaze tracking user interfaces |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023525196A true JP2023525196A (ja) | 2023-06-15 |
Family
ID=72148259
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022552368A Pending JP2023525196A (ja) | 2020-08-10 | 2020-08-10 | 滑りの影響を受けない視線追跡ユーザインターフェイス |
Country Status (6)
Country | Link |
---|---|
US (1) | US20220397958A1 (ja) |
EP (1) | EP4097566A1 (ja) |
JP (1) | JP2023525196A (ja) |
KR (1) | KR20220100051A (ja) |
CN (1) | CN114868099A (ja) |
WO (1) | WO2022035458A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022122479A (ja) * | 2021-02-10 | 2022-08-23 | キヤノン株式会社 | 撮像システム、表示装置、撮像装置、および撮像システムの制御方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8235529B1 (en) * | 2011-11-30 | 2012-08-07 | Google Inc. | Unlocking a screen using eye tracking information |
US10635167B2 (en) * | 2013-05-30 | 2020-04-28 | Umoove Services Ltd. | Smooth pursuit gaze tracking |
US9727136B2 (en) * | 2014-05-19 | 2017-08-08 | Microsoft Technology Licensing, Llc | Gaze detection calibration |
US11122999B2 (en) * | 2016-06-30 | 2021-09-21 | Cornell University | Optokinesys |
US10725538B2 (en) * | 2018-06-19 | 2020-07-28 | Igt | Interacting with game elements using eye movement tracking |
-
2020
- 2020-08-10 EP EP20758423.6A patent/EP4097566A1/en active Pending
- 2020-08-10 WO PCT/US2020/070388 patent/WO2022035458A1/en unknown
- 2020-08-10 CN CN202080087994.9A patent/CN114868099A/zh active Pending
- 2020-08-10 US US17/756,441 patent/US20220397958A1/en active Pending
- 2020-08-10 JP JP2022552368A patent/JP2023525196A/ja active Pending
- 2020-08-10 KR KR1020227021102A patent/KR20220100051A/ko unknown
Also Published As
Publication number | Publication date |
---|---|
CN114868099A (zh) | 2022-08-05 |
WO2022035458A1 (en) | 2022-02-17 |
EP4097566A1 (en) | 2022-12-07 |
US20220397958A1 (en) | 2022-12-15 |
KR20220100051A (ko) | 2022-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11181986B2 (en) | Context-sensitive hand interaction | |
CN108700941B (zh) | 用于在虚拟现实环境中对准组件的方法和设备 | |
US10642344B2 (en) | Manipulating virtual objects with six degree-of-freedom controllers in an augmented and/or virtual reality environment | |
US10545584B2 (en) | Virtual/augmented reality input device | |
EP3320413B1 (en) | System for tracking a handheld device in virtual reality | |
CN107667328B (zh) | 用于在增强和/或虚拟现实环境中跟踪手持设备的系统 | |
EP3092546B1 (en) | Target positioning with gaze tracking | |
US10353478B2 (en) | Hover touch input compensation in augmented and/or virtual reality | |
US11360550B2 (en) | IMU for touch detection | |
US11620790B2 (en) | Generating a 3D model of a fingertip for visual touch detection | |
JP2023525196A (ja) | 滑りの影響を受けない視線追跡ユーザインターフェイス |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221107 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240117 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240416 |