JP2020522795A - 眼追跡較正技術 - Google Patents
眼追跡較正技術 Download PDFInfo
- Publication number
- JP2020522795A JP2020522795A JP2019565507A JP2019565507A JP2020522795A JP 2020522795 A JP2020522795 A JP 2020522795A JP 2019565507 A JP2019565507 A JP 2019565507A JP 2019565507 A JP2019565507 A JP 2019565507A JP 2020522795 A JP2020522795 A JP 2020522795A
- Authority
- JP
- Japan
- Prior art keywords
- user
- eye
- virtual
- target
- reticle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005516 engineering process Methods 0.000 title description 7
- 238000000034 method Methods 0.000 claims abstract description 167
- 238000003384 imaging method Methods 0.000 claims description 43
- 230000004044 response Effects 0.000 claims description 21
- 238000005266 casting Methods 0.000 claims description 13
- 238000005259 measurement Methods 0.000 claims description 11
- 238000004891 communication Methods 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 8
- 241000542420 Sphyrna tudes Species 0.000 claims 1
- 230000000704 physical effect Effects 0.000 claims 1
- 238000012795 verification Methods 0.000 abstract description 24
- 230000004462 vestibulo-ocular reflex Effects 0.000 abstract description 6
- 210000003128 head Anatomy 0.000 description 167
- 230000008569 process Effects 0.000 description 71
- 235000019013 Viburnum opulus Nutrition 0.000 description 35
- 230000003287 optical effect Effects 0.000 description 29
- 230000036544 posture Effects 0.000 description 29
- 210000001747 pupil Anatomy 0.000 description 29
- 238000004422 calculation algorithm Methods 0.000 description 27
- 238000012545 processing Methods 0.000 description 27
- 230000033001 locomotion Effects 0.000 description 24
- 238000013507 mapping Methods 0.000 description 23
- 230000000007 visual effect Effects 0.000 description 19
- 230000004308 accommodation Effects 0.000 description 16
- 239000011159 matrix material Substances 0.000 description 15
- 238000000605 extraction Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 13
- 230000003993 interaction Effects 0.000 description 13
- 230000008859 change Effects 0.000 description 11
- 230000004424 eye movement Effects 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 9
- 239000000463 material Substances 0.000 description 8
- 239000000835 fiber Substances 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000000284 resting effect Effects 0.000 description 6
- 230000035807 sensation Effects 0.000 description 6
- 241000256837 Apidae Species 0.000 description 5
- 241000255777 Lepidoptera Species 0.000 description 5
- 230000004438 eyesight Effects 0.000 description 5
- 230000004886 head movement Effects 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 5
- 230000008447 perception Effects 0.000 description 5
- 239000007787 solid Substances 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 244000071378 Viburnum opulus Species 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000003190 augmentative effect Effects 0.000 description 4
- 210000004556 brain Anatomy 0.000 description 4
- 238000013500 data storage Methods 0.000 description 4
- 238000002347 injection Methods 0.000 description 4
- 239000007924 injection Substances 0.000 description 4
- 239000013307 optical fiber Substances 0.000 description 4
- 238000013442 quality metrics Methods 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 210000001525 retina Anatomy 0.000 description 4
- 230000001953 sensory effect Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 208000003464 asthenopia Diseases 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000011514 reflex Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 210000003813 thumb Anatomy 0.000 description 3
- 208000019901 Anxiety disease Diseases 0.000 description 2
- 230000002350 accommodative effect Effects 0.000 description 2
- 230000036506 anxiety Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 210000000720 eyelash Anatomy 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000001976 improved effect Effects 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 239000000047 product Substances 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000012800 visualization Methods 0.000 description 2
- QNRATNLHPGXHMA-XZHTYLCXSA-N (r)-(6-ethoxyquinolin-4-yl)-[(2s,4s,5r)-5-ethyl-1-azabicyclo[2.2.2]octan-2-yl]methanol;hydrochloride Chemical compound Cl.C([C@H]([C@H](C1)CC)C2)CN1[C@@H]2[C@H](O)C1=CC=NC2=CC=C(OCC)C=C21 QNRATNLHPGXHMA-XZHTYLCXSA-N 0.000 description 1
- 244000241796 Christia obcordata Species 0.000 description 1
- 241000284156 Clerodendrum quadriloculare Species 0.000 description 1
- 235000002767 Daucus carota Nutrition 0.000 description 1
- 206010019233 Headaches Diseases 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 239000004983 Polymer Dispersed Liquid Crystal Substances 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000005253 cladding Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 229910003460 diamond Inorganic materials 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 231100000869 headache Toxicity 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000009533 lab test Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 229910052751 metal Inorganic materials 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003565 oculomotor Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000004043 responsiveness Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
- 230000036410 touch Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/22—Setup operations, e.g. calibration, key configuration or button assignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Cardiology (AREA)
- Heart & Thoracic Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Radar Systems Or Details Thereof (AREA)
- Fertilizing (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Description
本願は、米国仮出願第62/512,954号, 出願日2017年5月31日,発明の名称 “EYE TRACKING CALIBRATION TECHNIQUES”に対する35 U.S.C. § 119(e)のもとでの優先権の利益を主張するものであり、その開示は、全体が参照により本明細書中に援用される。
ウェアラブルデバイスは、仮想コンテンツを双方向VR/AR/MR環境内に提示することができる。仮想コンテンツは、例えば、頭部姿勢、眼視線、または身体姿勢等の種々の姿勢を通して、ユーザによって相互作用され得る、データ要素を備えてもよい。眼視線を使用したユーザ相互作用のコンテキストでは、ウェアラブルデバイスは、眼画像等の眼データを収集することができる(例えば、ウェアラブルデバイスの内向きに向いた結像システム内の眼カメラを介して)。ウェアラブルシステムは、ユーザの眼視線と視線ベクトル(ユーザの視線方向を示すことができる)との間の関連付けを提供する、マッピング行列に基づいて、ユーザの眼視線方向を計算することができる。ユーザ体験を改良するために、ウェアラブルデバイスは、マッピング行列を較正し、各人物の眼の一意性、装着されたときのユーザに対するウェアラブルデバイスの特定の配向、現在の環境条件(例えば、照明条件、温度等)、それらの組み合わせ、または同等物を考慮し得る、眼追跡較正プロセスを実施することができる。
ウェアラブルシステム(本明細書では、拡張現実(AR)システムとも称される)は、2次元(2D)または3次元(3D)仮想画像をユーザに提示するために構成されることができる。画像は、組み合わせまたは同等物における、静止画像、ビデオのフレーム、またはビデオであってもよい。ウェアラブルシステムは、ユーザ相互作用のために、単独で、または組み合わせて、VR、AR、またはMR環境を提示し得る、ウェアラブルデバイスを含むことができる。ウェアラブルデバイスは、ARデバイス(ARD)と同義的に使用され、ウェアラブルデバイスは、頭部搭載型デバイス(HMD)であることができる。
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ウェアラブルシステム400は、複数の導波管432b、434b、436b、438b、4400bを使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ480を含む。いくつかの実施形態では、ウェアラブルシステム400は、図2のウェアラブルシステム200に対応してもよく、図4は、ウェアラブルシステム200のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ480は、図2のディスプレイ220の中に統合されてもよい。
多くの実装では、ウェアラブルシステムは、上記に説明されるウェアラブルシステムのコンポーネントに加えて、またはその代替として、他のコンポーネントを含んでもよい。ウェアラブルシステムは、例えば、1つ以上の触知デバイスまたはコンポーネントを含んでもよい。触知デバイスまたはコンポーネントは、触覚をユーザに提供するように動作可能であってもよい。例えば、触知デバイスまたはコンポーネントは、仮想コンテンツ(例えば、仮想オブジェクト、仮想ツール、他の仮想構造)に触れると、圧力および/またはテクスチャの感覚を提供してもよい。触覚は、仮想オブジェクトが表す物理的オブジェクトの感覚を再現してもよい、または仮想コンテンツが表す想像上のオブジェクトまたはキャラクタ(例えば、ドラゴン)の感覚を再現してもよい。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって装着されてもよい(例えば、ユーザウェアラブルグローブ)。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって保持されてもよい。
ウェアラブルシステムは、高被写界深度をレンダリングされたライトフィールド内で達成するために、種々のマッピング関連技法を採用してもよい。仮想世界をマッピングする際、実世界内の全ての特徴および点を把握し、仮想オブジェクトを実世界に関連して正確に描くことが有利である。この目的を達成するために、ウェアラブルシステムのユーザから捕捉されたFOV画像が、実世界の種々の点および特徴についての情報を伝達する新しい写真を含むことによって、世界モデルに追加されることができる。例えば、ウェアラブルシステムは、マップ点(2D点または3D点等)のセットを収集し、新しいマップ点を見出し、世界モデルのより正確なバージョンをレンダリングすることができる。第1のユーザの世界モデルは、第2のユーザが第1のユーザを囲繞する世界を体験し得るように、(例えば、クラウドネットワーク等のネットワークを経由して)第2のユーザに通信されることができる。
本明細書に説明されるように、ユーザは、ユーザの眼が向けられている方向を含み得る、眼視線を使用して、ウェアラブルデバイスと相互作用することができる。眼視線(時として、本明細書では、眼姿勢とも称される)は、基準方向(典型的には、ユーザの眼が自然に向く前方方向)から測定されてもよく、多くの場合、2つの角度(例えば、基準方向に対する仰角および方位角)または3つの角度(例えば、仰角、方位角、および加えて、ロール角度)を用いて測定される。眼視線を使用してユーザの環境内のオブジェクトとの現実的かつ直感的相互作用を提供するために、ウェアラブルシステムは、眼追跡較正を使用して、ウェアラブルデバイスを較正し、ユーザの眼特徴の一意性および眼測定に何らかの影響を及ぼし得る他の条件を組み込むことができる。
ウェアラブルシステムは、図12Aおよび12Bを参照して説明される眼追跡較正プロセスの間、眼画像を入手することができるが、眼追跡較正プロセスにおける1つの課題は、ユーザが、予期される通りに標的を見ていない場合があることである。例えば、ウェアラブルシステムが、標的(例えば、仮想蝶1205または標的1202a−iのうちの1つ)をリグ空間内にレンダリングするとき、ユーザは、グラフィックの代わりに、別の方向標的を見ている場合がある。例えば、1つの実験室ベースの実験では、ユーザの10パーセントが、実験室試験条件下でさえ、較正の間、標的のうちのいくつかを見ていなかった。較正プロトコルとのユーザコンプライアンスは、ユーザが自宅またはオフィス環境内に一人でいるとき、実質的により低くなり得る。その結果、ウェアラブルシステムは、正確な眼追跡結果を較正から得られ得ず、その結果、ウェアラブルシステムを用いたユーザの視覚的体験は、影響され得る。
眼視線検証を伴う、眼追跡較正の例示的プロセス
レチクルは、例えば、色、形状、サイズ、グラフィック等の種々の外観を有することができる。レチクルの外観は、眼追跡較正プロセスの際に関わるパラメータに依存する。レチクルの外観は、コンテキスト情報に基づいて、動的に調節されてもよい。コンテキスト情報は、標的の特性(例えば、標的のサイズまたは場所)、ユーザと関連付けられた情報(例えば、ユーザの位置)、または眼追跡較正プロセスのために要求される整合精度を含んでもよい。例えば、ウェアラブルシステムは、標的が大きい場合、より大きいレチクルを使用する一方、標的が小さい場合、より小さいレチクルを使用してもよい。いくつかの実施形態では、ウェアラブルシステムは、標的がユーザの比較的に近傍に位置付けられる場合、比較的に大きいレチクルを使用してもよく、標的がユーザから比較的に遠く離れて位置付けられる場合、比較的に小さいレチクルを使用してもよい。
上記に述べられたように、レチクルの外観は、種々の異なる色、形状、サイズ、グラフィック等のいずれかをとってもよい。例えば、レチクルの形状は、標的の形状に類似してもよい。これは、レチクルおよび標的が相互に適正に整合されていると決定される、比較的に少ない頭部姿勢が存在するであろうため、標的がレチクル内に入るであろう可能性を低下させる役割を果たし得る(整合の正確度を増加させ得る)。図16Aおよび16Bは、形状が類似する、レチクルおよび標的の実施例を図示する。図16Aおよび16Bでは、ユーザは、ディスプレイ220を介して、ドア1610等の実世界オブジェクトと、場面1600a内の標的1630およびレチクル1620等の仮想オブジェクトとを知覚することができる。標的1630は、ユーザの3D空間内の場所に固定されることができる一方、レチクル1620は、リグ空間内の場所にレンダリングされることができる。
レチクルおよび標的を用いた眼視線検証プロセスは、ゲームの一部として組み込まれ、双方向かつ向上されたユーザ体験を提供してもよい。眼視線較正を娯楽化することによって、ユーザは、較正プロセス要件に準拠し、較正プロシージャを完了する可能性がより高くなる。較正プロシージャの開始時、ウェアラブルディスプレイシステムは、そこからユーザが選定し得る、一連の較正ゲームオプションを提示してもよい。
ユーザ研究が、本明細書に説明される技法の実施形態から取得された眼較正データ品質と従来の方法を使用して取得されたデータを比較するために実施された。研究は、18名のユーザを含み、外部の注意散漫材料が存在しない、実験室ベースの設定において実施された。研究は、本明細書に説明される較正技法が従来の眼較正技法と同一またはより良好な性能を発揮したことを見出した。18名中11名のユーザが、新しい較正技法を使用して、従来の技法より優れた結果を示した。システムは、x、y、およびz方向に沿って、ユーザの各眼の瞳孔位置を測定した。研究は、18名中7名のユーザに関して、正規化された瞳孔位置の標準偏差が有意に改良されたことを見出した。いずれのユーザも、新しい相互作用シーケンスを使用して、有意な性能の悪化を認めなかった。研究結果の概要は、2017年5月31日に出願された米国仮特許出願第62/512,594号(参照することによってその全体として本明細書に組み込まれる)に付録Aとして含まれる。概要に示される結果は、18名のユーザの左および右瞳孔のx、y、z軸に沿った瞳孔位置の正規化された測定の標準偏差の変化および統計的確率値(p−値)を含む。p−値が0.05の有意性値未満である測定値は、ハイライトされる。
第1の側面では、眼追跡較正のためのウェアラブルシステムであって、ウェアラブルディスプレイシステムのユーザから眼画像(片眼または両眼)を捕捉するように構成される、画像捕捉デバイスと、眼画像を記憶するように構成される、非一過性メモリと、それを通してユーザがユーザの環境内の眼較正標的および仮想レチクルを知覚し得る、ディスプレイシステムと、ユーザの頭部姿勢を追跡するように構成される、姿勢センサと、非一過性メモリおよびディスプレイシステムと通信する、ハードウェアプロセッサであって、眼較正標的をディスプレイシステムを介して知覚可能にさせ、仮想レチクルをディスプレイシステムを介してレンダリング可能にさせ、姿勢センサから入手されたデータに基づいて、ユーザの頭部姿勢を識別し、ユーザの頭部姿勢に基づいて、仮想レチクルの位置を計算し、少なくとも部分的に、仮想レチクルおよび眼較正標的の位置に基づいて、仮想レチクルが眼較正標的と整合するかどうかを決定し、仮想レチクルが眼較正標的と整合することの決定に応答して、画像捕捉デバイスに、眼画像を捕捉し、非一過性メモリの中への眼画像の記憶を開始するように命令するようにプログラムされる、ハードウェアプロセッサとを備える、ウェアラブルシステム。
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
Claims (34)
- 眼追跡較正のためのウェアラブルシステムであって、
画像捕捉デバイスであって、前記画像捕捉デバイスは、前記ウェアラブルシステムのユーザの片眼または両眼の眼画像を捕捉するように構成される、画像捕捉デバイスと、
非一過性メモリであって、前記非一過性メモリは、前記眼画像を記憶するように構成される、非一過性メモリと、
ディスプレイシステムであって、前記ディスプレイシステムは、それを通して前記ユーザが前記ユーザの環境内の眼較正標的および仮想レチクルを知覚し得る、ディスプレイシステムと、
姿勢センサであって、前記姿勢センサは、前記ユーザの頭部姿勢を追跡するように構成される、姿勢センサと、
前記非一過性メモリおよび前記ディスプレイシステムと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記眼較正標的を前記ディスプレイシステムを介して知覚可能にすることと、
前記仮想レチクルを前記ディスプレイシステムを介してレンダリングされるようにすることと、
前記姿勢センサから入手されたデータに基づいて、前記ユーザの頭部姿勢を識別することと、
前記ユーザの頭部姿勢に基づいて、前記仮想レチクルの位置を計算することと、
少なくとも部分的に、前記仮想レチクルおよび前記眼較正標的の位置に基づいて、前記仮想レチクルが前記眼較正標的と整合するかどうかを決定することと、
前記仮想レチクルが前記眼較正標的と整合することの決定に応答して、前記画像捕捉デバイスに、前記眼画像を捕捉し、前記非一過性メモリの中への前記眼画像の記憶を開始するように命令することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、ウェアラブルシステム。 - 前記画像捕捉デバイスは、前記ユーザの眼領域を結像するように構成される眼カメラを備える、請求項1に記載のウェアラブルシステム。
- 前記姿勢センサは、慣性測定ユニットを備える、請求項1に記載のウェアラブルシステム。
- 前記眼較正標的は、世界空間内のオブジェクトであり、前記仮想レチクルは、リグ空間内にある、請求項1に記載のウェアラブルシステム。
- 前記世界空間は、前記ユーザの環境を基準とする3次元(3D)座標系を備え、前記リグ空間は、前記ディスプレイシステムを基準とする座標系を備える、請求項4に記載のウェアラブルシステム。
- 前記仮想レチクルが前記眼較正標的と整合するかどうかを決定するために、前記ハードウェアプロセッサは、
前記リグ空間と前記世界空間との間のオフセットを決定することと、
前記リグ空間内の前記仮想レチクルの第1の座標値および前記世界空間内の前記眼較正標的の第2の座標値を計算することと、
前記第1の座標値、前記第2の座標値、および前記オフセットに基づいて、整合を計算することと
を行うようにプログラムされる、請求項5に記載のウェアラブルシステム。 - 前記整合を計算するために、前記ハードウェアプロセッサは、前記オフセットに基づいて、前記リグ空間内の第1の座標値を前記世界空間内の第3の座標値に変換し、前記第3の座標値および前記第2の座標値が閾値範囲内にあるかどうかを決定するようにプログラムされる、請求項6に記載のウェアラブルシステム。
- 前記ユーザの頭部姿勢は、前記ユーザの頭部の位置、配向、または前記位置および配向の組み合わせを備える、請求項1に記載のウェアラブルシステム。
- 前記仮想レチクルが前記眼較正標的と整合するかどうかを決定するために、前記ハードウェアプロセッサは、
前記仮想レチクルの位置に基づいて、レイキャスティングを実施することと、
前記レイキャスティングにおける光線の一部が前記眼較正標的と交差するかどうかを決定することと
を行うようにプログラムされる、請求項1に記載のウェアラブルシステム。 - 仮想レチクルが前記眼較正標的と整合するかどうかを決定するために、前記ハードウェアプロセッサは、
標的頭部姿勢にアクセスすることであって、前記標的頭部姿勢は、前記仮想レチクルが眼較正標的と整合するとき、前記ユーザがとる姿勢である、ことと、
前記ユーザの頭部姿勢が前記標的頭部姿勢にあるかどうかを決定することと
を行うようにプログラムされる、請求項1に記載のウェアラブルシステム。 - 前記仮想レチクルが前記眼較正標的と整合することの決定に応答して、前記ハードウェアプロセッサはさらに、前記仮想レチクルが前記眼較正標的と整合されることを示す視覚的、聴覚的、または触知的効果を提供するようにプログラムされる、請求項1に記載のウェアラブルシステム。
- 前記仮想レチクルが前記眼較正標的と整合することの決定に応答して、前記ハードウェアプロセッサはさらに、前記ディスプレイシステムに、別の仮想レチクルを提示するように命令するようにプログラムされる、請求項1に記載のウェアラブルシステム。
- 前記ハードウェアプロセッサはさらに、少なくとも部分的に、前記眼較正標的のサイズ、前記眼較正標的の色、または前記眼追跡較正と関連付けられた要求される精度のうちの少なくとも1つを備えるコンテキスト情報に基づいて、前記仮想レチクルの外観を動的に更新するようにプログラムされる、請求項1に記載のウェアラブルシステム。
- 前記仮想レチクルの外観は、前記眼較正標的の外観に類似する、請求項13に記載のウェアラブルシステム。
- 前記ハードウェアプロセッサは、高要求精度または小眼較正標的に応答して、前記レチクルのサイズを低減させるようにプログラムされる、請求項13に記載のウェアラブルシステム。
- 眼追跡較正のための方法であって、
ハードウェアプロセッサの制御下で、
ユーザの環境と関連付けられた世界空間内の眼較正標的を識別することと、
前記ユーザのウェアラブルデバイスに、仮想レチクルを前記ユーザのウェアラブルデバイスと関連付けられたリグ空間内にレンダリングするように命令することと、
前記ユーザの頭部姿勢データを取得することと、
前記取得された頭部姿勢データに基づいて、前記ユーザの現在の頭部姿勢を決定することと、
少なくとも部分的に、前記ユーザの現在の頭部姿勢に基づいて、前記眼較正標的に対する前記仮想レチクルの相対的位置を決定することと、
少なくとも部分的に、前記眼較正標的に対する前記仮想レチクルの相対的位置に基づいて、仮想レチクルが前記眼較正標的と整合するかどうかを決定することと、
前記仮想レチクルが前記眼較正標的と整合することの決定に応答して、前記ウェアラブルデバイスの内向きに向いた結像システムに、眼較正データを入手するように命令することと
を含む、方法。 - 前記頭部姿勢データは、前記ウェアラブルデバイスの外向きに向いた結像システム、前記ウェアラブルデバイスの慣性測定ユニット、または前記ユーザの環境内のカメラのうちの少なくとも1つから取得される、請求項16に記載の方法。
- 前記眼較正データは、前記ユーザの片眼または両眼の画像を備える、請求項16に記載の方法。
- 前記眼較正標的は、前記世界空間内の固定場所にある、または前記仮想レチクルは、前記リグ空間内の固定場所にレンダリングされる、請求項18に記載の方法。
- 前記仮想レチクルが前記眼較正標的と整合することの決定に応答して、前記ウェアラブルデバイスに、前記仮想レチクルを前記リグ空間内の異なる場所にレンダリングするように命令することをさらに含む、請求項19に記載の方法。
- 前記仮想レチクルは、前記ユーザの視野の中心またはその近傍にレンダリングされ、前記視野は、前記ユーザが所与の時間に知覚し得る前記ユーザの環境の一部を備える、請求項16に記載の方法。
- 前記取得された頭部姿勢データに基づいて、前記ユーザの現在の頭部姿勢を決定することは、前記頭部姿勢データに基づいて、前記ユーザの頭部の位置または配向を計算することを含む、請求項16に記載の方法。
- 頭部姿勢の範囲にアクセスすることをさらに含み、仮想レチクルが前記眼較正標的と整合するかどうかを決定することは、前記現在の頭部姿勢が頭部姿勢の範囲内であるかどうかを決定することを含む、請求項16に記載の方法。
- 前記眼較正標的は、前記ユーザの環境内の物理的オブジェクトである、請求項16に記載の方法。
- 前記眼較正標的は、ゲームアプリケーション内の仮想オブジェクトであり、前記眼追跡較正のための方法は、前記ゲームアプリケーションの一部として実施される、請求項16に記載の方法。
- 眼追跡較正のための方法であって、
ハードウェアプロセッサの制御下で、
ユーザの環境内の標的領域を識別することと、
前記ユーザのウェアラブルデバイスと関連付けられたリグ空間内の位置における仮想レチクルを識別することと、
前記ユーザの頭部姿勢データを取得することと、
前記取得された頭部姿勢データに基づいて、前記ユーザの現在の頭部姿勢を決定することと、
少なくとも部分的に、前記ユーザの現在の頭部姿勢に基づいて、前記標的領域に対する前記仮想レチクルの位置を更新することと、
前記仮想レチクルが前記標的領域と整合するかどうかを決定することと、
前記仮想レチクルが前記標的領域と整合することの決定に応答して、整合が達成されたことのインジケーションを提供することと
を含む、方法。 - 前記標的領域は、少なくとも仮想オブジェクトを備え、前記仮想レチクルが前記標的領域と整合するかどうかを決定することは、前記仮想レチクルが前記仮想オブジェクトと整合するかどうかを決定することを含む、請求項26に記載の方法。
- 前記標的領域は、物理的オブジェクトの少なくとも一部を備え、前記仮想レチクルが前記標的領域と整合するかどうかを決定することは、前記仮想レチクルが前記物理的オブジェクトの一部と整合するかどうかを決定することを含む、請求項26に記載の方法。
- 前記眼較正データは、容量ベースまたは電極ベースの眼追跡システムによって収集される、請求項26に記載の方法。
- 前記仮想レチクルが前記眼較正標的と整合することの決定に応答して、前記方法はさらに、前記ウェアラブルデバイスの眼カメラに、眼画像の収集を開始させることを含む、請求項26に記載の方法。
- 前記仮想レチクルが前記標的領域と整合するかどうかを決定することは、
少なくとも部分的に、前記ユーザの現在の頭部姿勢に基づいて、少なくとも1つの仮想光線を投射することと、
前記少なくとも1つの仮想光線が前記標的領域と交差するかどうかを決定することと
を含む、請求項26に記載の方法。 - 少なくとも部分的に、前記ユーザの現在の頭部姿勢に基づいて、少なくとも1つの仮想光線を投射することは、
少なくとも1つの仮想光線を前記ユーザまたは前記ウェアラブルデバイス上の場所から前記仮想レチクルの位置を通して投射すること
を含む、請求項31に記載の方法。 - 少なくとも部分的に、前記ユーザの現在の頭部姿勢に基づいて、少なくとも1つの仮想光線を投射することは、
仮想幾何学的円錐を前記仮想レチクルの場所を通して投射すること
を含む、請求項31に記載の方法。 - 前記仮想レチクルの形状は、前記仮想レチクルの場所における前記仮想幾何学的円錐の断面形状に対応する、請求項33に記載の方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022148944A JP7486276B2 (ja) | 2017-05-31 | 2022-09-20 | 眼追跡較正技術 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762512954P | 2017-05-31 | 2017-05-31 | |
US62/512,954 | 2017-05-31 | ||
PCT/US2018/035190 WO2018222753A1 (en) | 2017-05-31 | 2018-05-30 | Eye tracking calibration techniques |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022148944A Division JP7486276B2 (ja) | 2017-05-31 | 2022-09-20 | 眼追跡較正技術 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020522795A true JP2020522795A (ja) | 2020-07-30 |
JP7239493B2 JP7239493B2 (ja) | 2023-03-14 |
Family
ID=64456215
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019565507A Active JP7239493B2 (ja) | 2017-05-31 | 2018-05-30 | 眼追跡較正技術 |
JP2022148944A Active JP7486276B2 (ja) | 2017-05-31 | 2022-09-20 | 眼追跡較正技術 |
JP2023031759A Active JP7543466B2 (ja) | 2017-05-31 | 2023-03-02 | 眼追跡較正技術 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022148944A Active JP7486276B2 (ja) | 2017-05-31 | 2022-09-20 | 眼追跡較正技術 |
JP2023031759A Active JP7543466B2 (ja) | 2017-05-31 | 2023-03-02 | 眼追跡較正技術 |
Country Status (9)
Country | Link |
---|---|
US (3) | US10671160B2 (ja) |
EP (2) | EP3631567B1 (ja) |
JP (3) | JP7239493B2 (ja) |
KR (2) | KR102670987B1 (ja) |
CN (2) | CN110945405B (ja) |
AU (1) | AU2018277842A1 (ja) |
CA (1) | CA3065131A1 (ja) |
IL (2) | IL270893B (ja) |
WO (1) | WO2018222753A1 (ja) |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11106273B2 (en) | 2015-10-30 | 2021-08-31 | Ostendo Technologies, Inc. | System and methods for on-body gestural interfaces and projection displays |
US10496808B2 (en) | 2016-10-25 | 2019-12-03 | Apple Inc. | User interface for managing access to credentials for use in an operation |
JP2018142857A (ja) * | 2017-02-28 | 2018-09-13 | セイコーエプソン株式会社 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
US10671160B2 (en) | 2017-05-31 | 2020-06-02 | Magic Leap, Inc. | Eye tracking calibration techniques |
DE102017221488A1 (de) * | 2017-11-30 | 2019-06-06 | Volkswagen Aktiengesellschaft | Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm |
WO2019117350A1 (ko) * | 2017-12-14 | 2019-06-20 | 삼성전자 주식회사 | 응시 거리를 결정하는 방법 및 디바이스 |
CN111788623B (zh) | 2018-01-06 | 2023-02-28 | 凯尔Os公司 | 智能镜系统及其使用方法 |
CN110554511B (zh) * | 2018-05-30 | 2022-05-03 | 托比股份公司 | 用于校准头戴式显示器的方法和装置 |
US11269402B1 (en) * | 2018-08-03 | 2022-03-08 | Snap Inc. | User interface interaction paradigms for eyewear device with limited field of view |
US20210318796A1 (en) * | 2018-08-17 | 2021-10-14 | Matrix Analytics Corporation | System and Method for Fabricating Decorative Surfaces |
WO2020059263A1 (ja) * | 2018-09-21 | 2020-03-26 | 富士フイルム株式会社 | 画像提案装置、画像提案方法及び画像提案プログラム |
US11816927B2 (en) * | 2018-09-26 | 2023-11-14 | Nec Corporation | Information providing device, information providing method, and storage medium |
US11275778B2 (en) * | 2018-12-04 | 2022-03-15 | International Business Machines Corporation | Content marshaling using biometric data |
CN111991800B (zh) * | 2019-02-22 | 2024-06-21 | 网易(杭州)网络有限公司 | 游戏角色控制方法、装置、设备和存储介质 |
WO2020185219A1 (en) * | 2019-03-13 | 2020-09-17 | Hewlett-Packard Development Company, L.P. | Detecting eye tracking calibration errors |
EP3940507A4 (en) * | 2019-03-15 | 2022-04-20 | Sony Group Corporation | INFORMATION PROCESSING DEVICE AND METHOD, AND COMPUTER READABLE MATERIAL |
CN109976528B (zh) * | 2019-03-22 | 2023-01-24 | 北京七鑫易维信息技术有限公司 | 一种基于头动调整注视区域的方法以及终端设备 |
WO2020209491A1 (en) * | 2019-04-11 | 2020-10-15 | Samsung Electronics Co., Ltd. | Head-mounted display device and operating method of the same |
CN110058693B (zh) * | 2019-04-23 | 2022-07-15 | 北京七鑫易维科技有限公司 | 数据采集方法、装置、电子设备及存储介质 |
EP3965611A1 (en) | 2019-05-06 | 2022-03-16 | CareOS | Smart mirror system and methods of use thereof |
US10698701B1 (en) | 2019-06-01 | 2020-06-30 | Apple Inc. | User interface for accessing an account |
US10819898B1 (en) * | 2019-06-21 | 2020-10-27 | Facebook Technologies, Llc | Imaging device with field-of-view shift control |
JP2022539603A (ja) * | 2019-07-12 | 2022-09-12 | マジック リープ, インコーポレイテッド | ディスプレイシステム較正のための眼球カメラシステムおよび方法 |
CN112306229A (zh) | 2019-08-02 | 2021-02-02 | 佳能株式会社 | 电子装置、控制方法和计算机可读介质 |
CN110837294B (zh) * | 2019-10-14 | 2023-12-12 | 成都西山居世游科技有限公司 | 一种基于眼球追踪的面部表情控制方法及系统 |
CN115053270A (zh) | 2019-12-09 | 2022-09-13 | 奇跃公司 | 用于基于用户身份来操作头戴式显示系统的系统和方法 |
CN113116291B (zh) * | 2019-12-31 | 2024-09-10 | Oppo广东移动通信有限公司 | 眼球追踪的标定校准方法、装置、移动终端及存储介质 |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
CN111610861A (zh) * | 2020-05-25 | 2020-09-01 | 歌尔科技有限公司 | 跨平台交互方法、ar装置及服务器和vr装置及服务器 |
WO2021242008A1 (en) * | 2020-05-28 | 2021-12-02 | Samsung Electronics Co., Ltd. | Electronic device and operating method thereof |
US11382713B2 (en) * | 2020-06-16 | 2022-07-12 | Globus Medical, Inc. | Navigated surgical system with eye to XR headset display calibration |
CN111862338B (zh) * | 2020-06-23 | 2024-06-18 | 深圳市新镜介网络有限公司 | 模拟眼镜佩戴图像的显示方法及装置 |
CN114365214A (zh) | 2020-08-14 | 2022-04-15 | 海思智财控股有限公司 | 叠合虚拟影像于即时影像的系统与方法 |
WO2022051688A1 (en) | 2020-09-03 | 2022-03-10 | Hes Ip Holdings, Llc | Systems and methods for improving binocular vision |
US11351457B2 (en) * | 2020-09-11 | 2022-06-07 | Riot Games, Inc. | Selecting an anchored offset targeting position |
KR20230117639A (ko) | 2020-09-25 | 2023-08-08 | 애플 인크. | 사용자 인터페이스와 연관된 몰입을 조정 및/또는 제어하기위한 방법 |
CN112507799B (zh) * | 2020-11-13 | 2023-11-24 | 幻蝎科技(武汉)有限公司 | 基于眼动注视点引导的图像识别方法、mr眼镜及介质 |
US11995230B2 (en) | 2021-02-11 | 2024-05-28 | Apple Inc. | Methods for presenting and sharing content in an environment |
US12111962B2 (en) * | 2021-02-19 | 2024-10-08 | Apple Inc. | User interfaces and device settings based on user identification |
CN112966983B (zh) * | 2021-04-12 | 2021-09-21 | 广东视明科技发展有限公司 | 基于vr空间的视觉功能加工时效能力评估系统及方法 |
JP2024514614A (ja) * | 2021-04-13 | 2024-04-02 | アップル インコーポレイテッド | 環境内で没入型体験を提供するための方法 |
US11716456B2 (en) * | 2021-05-21 | 2023-08-01 | Microsoft Technology Licensing, Llc | Autocalibrated near-eye display |
CN113507599B (zh) * | 2021-07-08 | 2022-07-08 | 四川纵横六合科技股份有限公司 | 基于大数据分析的教育云服务平台 |
US20230056472A1 (en) * | 2021-08-19 | 2023-02-23 | Raytheon Company | Firing cutout rapid generation aided by machine learning |
US11691072B2 (en) * | 2021-08-24 | 2023-07-04 | Sony Interactive Entertainment LLC | Aiming display automation for head mounted display applications |
US20230171395A1 (en) * | 2021-11-23 | 2023-06-01 | Isabella H. Schwartz | System and method for smart tv anywhere |
CN114373064B (zh) * | 2021-12-14 | 2024-07-16 | 聚好看科技股份有限公司 | 一种vrar内容编辑方法、装置、设备及介质 |
US12039676B1 (en) * | 2022-04-27 | 2024-07-16 | National Technology & Engineering Solutions Of Sandia, Llc | Augmented reality for reflective particle tag alignment |
US20240012472A1 (en) * | 2022-07-08 | 2024-01-11 | Tencent America LLC | Vergence based gaze matching for mixed-mode immersive telepresence application |
IL295191A (en) * | 2022-07-28 | 2024-02-01 | Immersix Ltd | Method and system for determining gaze direction |
US12112011B2 (en) | 2022-09-16 | 2024-10-08 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
US12099653B2 (en) | 2022-09-22 | 2024-09-24 | Apple Inc. | User interface response based on gaze-holding event assessment |
US12108012B2 (en) | 2023-02-27 | 2024-10-01 | Apple Inc. | System and method of managing spatial states and display modes in multi-user communication sessions |
GB202304577D0 (en) * | 2023-03-29 | 2023-05-10 | King S College London | Automatic gaze estimation |
US12118200B1 (en) | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
US12113948B1 (en) | 2023-06-04 | 2024-10-08 | Apple Inc. | Systems and methods of managing spatial groups in multi-user communication sessions |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017031089A1 (en) * | 2015-08-15 | 2017-02-23 | Eyefluence, Inc. | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
Family Cites Families (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
US6943754B2 (en) * | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
US7667700B1 (en) * | 2004-03-05 | 2010-02-23 | Hrl Laboratories, Llc | System and method for navigating operating in a virtual environment |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
WO2006017771A1 (en) | 2004-08-06 | 2006-02-16 | University Of Washington | Variable fixation viewing distance scanned light displays |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
GB0625912D0 (en) | 2006-12-22 | 2007-02-07 | Bid Instr Ltd | Method for visual field testing |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
CA2822978C (en) | 2010-12-24 | 2019-02-19 | Hong Hua | An ergonomic head mounted display device and optical system |
JP6316186B2 (ja) | 2011-05-06 | 2018-04-25 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 広範囲同時遠隔ディジタル提示世界 |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
RU2017115669A (ru) | 2011-10-28 | 2019-01-28 | Мэджик Лип, Инк. | Система и способ для дополненной и виртуальной реальности |
KR102116697B1 (ko) | 2011-11-23 | 2020-05-29 | 매직 립, 인코포레이티드 | 3차원 가상 및 증강 현실 디스플레이 시스템 |
KR102028732B1 (ko) | 2012-04-05 | 2019-10-04 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
WO2013167864A1 (en) | 2012-05-11 | 2013-11-14 | Milan Momcilo Popovich | Apparatus for eye tracking |
US20150103096A1 (en) | 2012-05-30 | 2015-04-16 | Pioneer Corporation | Display device, head mount display, calibration method, calibration program and recording medium |
US9310559B2 (en) | 2012-06-11 | 2016-04-12 | Magic Leap, Inc. | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
AU2013315607A1 (en) | 2012-09-11 | 2015-04-02 | Magic Leap, Inc | Ergonomic head mounted display device and optical system |
US20140218281A1 (en) * | 2012-12-06 | 2014-08-07 | Eyefluence, Inc. | Systems and methods for eye gaze determination |
IL293789B2 (en) | 2013-01-15 | 2023-08-01 | Magic Leap Inc | A system for scanning electromagnetic imaging radiation |
CN105188516B (zh) | 2013-03-11 | 2017-12-22 | 奇跃公司 | 用于增强和虚拟现实的系统与方法 |
KR102458124B1 (ko) | 2013-03-15 | 2022-10-21 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US9239460B2 (en) * | 2013-05-10 | 2016-01-19 | Microsoft Technology Licensing, Llc | Calibration of eye location |
US9874749B2 (en) * | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
US10073518B2 (en) * | 2013-08-19 | 2018-09-11 | Qualcomm Incorporated | Automatic calibration of eye tracking for optical see-through head mounted display |
US10089786B2 (en) * | 2013-08-19 | 2018-10-02 | Qualcomm Incorporated | Automatic customization of graphical user interface for optical see-through head mounted display with user interaction tracking |
US10914951B2 (en) * | 2013-08-19 | 2021-02-09 | Qualcomm Incorporated | Visual, audible, and/or haptic feedback for optical see-through head mounted display with user interaction tracking |
IL302408B2 (en) | 2013-10-16 | 2024-09-01 | Magic Leap Inc | An augmented or virtual reality head device with intrapupillary distance adjustment |
CN110542938B (zh) | 2013-11-27 | 2023-04-18 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
WO2015081334A1 (en) * | 2013-12-01 | 2015-06-04 | Athey James Leighton | Systems and methods for providing a virtual menu |
EP2886041A1 (en) * | 2013-12-17 | 2015-06-24 | ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) | Method for calibrating a head-mounted eye tracking device |
WO2015103444A1 (en) * | 2013-12-31 | 2015-07-09 | Eyefluence, Inc. | Systems and methods for gaze-based media selection and editing |
NZ722903A (en) | 2014-01-31 | 2020-05-29 | Magic Leap Inc | Multi-focal display system and method |
CN106461955B (zh) | 2014-01-31 | 2019-08-13 | 奇跃公司 | 显示增强现实的方法 |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US10564714B2 (en) * | 2014-05-09 | 2020-02-18 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
WO2016018488A2 (en) | 2014-05-09 | 2016-02-04 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
US9727136B2 (en) * | 2014-05-19 | 2017-08-08 | Microsoft Technology Licensing, Llc | Gaze detection calibration |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
CN113253476B (zh) | 2014-05-30 | 2022-12-27 | 奇跃公司 | 采用虚拟或增强现实装置生成虚拟内容显示的方法和系统 |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
CN112651288B (zh) | 2014-06-14 | 2022-09-20 | 奇跃公司 | 用于产生虚拟和增强现实的方法和系统 |
US10070120B2 (en) | 2014-09-17 | 2018-09-04 | Qualcomm Incorporated | Optical see-through display calibration |
CN107003752B (zh) | 2014-12-17 | 2020-04-10 | 索尼公司 | 信息处理装置、信息处理方法以及程序 |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
US9888843B2 (en) * | 2015-06-03 | 2018-02-13 | Microsoft Technology Licensing, Llc | Capacitive sensors for determining eye gaze direction |
US10810362B2 (en) * | 2015-07-17 | 2020-10-20 | Sap Se | Page-based incident correlation for network applications |
US10630965B2 (en) | 2015-10-02 | 2020-04-21 | Microsoft Technology Licensing, Llc | Calibrating a near-eye display |
KR101712350B1 (ko) | 2015-10-15 | 2017-03-07 | 한국과학기술연구원 | 시선 및 손 정보를 이용하여 가상 객체를 선택하기 위한 니어 아이 디스플레이 장치, 상기 장치를 이용하여 가상 객체를 선택하는 방법 및 그 방법을 수행하기 위한 기록 매체 |
AU2016341196B2 (en) | 2015-10-20 | 2021-09-16 | Magic Leap, Inc. | Selecting virtual objects in a three-dimensional space |
WO2017127366A1 (en) | 2016-01-19 | 2017-07-27 | Magic Leap, Inc. | Eye image collection, selection, and combination |
USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
US10671160B2 (en) | 2017-05-31 | 2020-06-02 | Magic Leap, Inc. | Eye tracking calibration techniques |
-
2018
- 2018-05-30 US US15/993,371 patent/US10671160B2/en active Active
- 2018-05-30 EP EP18810231.3A patent/EP3631567B1/en active Active
- 2018-05-30 JP JP2019565507A patent/JP7239493B2/ja active Active
- 2018-05-30 KR KR1020197038485A patent/KR102670987B1/ko active IP Right Grant
- 2018-05-30 CN CN201880048398.2A patent/CN110945405B/zh active Active
- 2018-05-30 CA CA3065131A patent/CA3065131A1/en active Pending
- 2018-05-30 KR KR1020247017413A patent/KR20240093921A/ko not_active Application Discontinuation
- 2018-05-30 EP EP22195895.2A patent/EP4123425B1/en active Active
- 2018-05-30 WO PCT/US2018/035190 patent/WO2018222753A1/en active Application Filing
- 2018-05-30 AU AU2018277842A patent/AU2018277842A1/en not_active Abandoned
- 2018-05-30 CN CN202311834134.9A patent/CN117762256A/zh active Pending
-
2019
- 2019-11-25 IL IL270893A patent/IL270893B/en unknown
-
2020
- 2020-04-22 US US16/855,270 patent/US11068055B2/en active Active
-
2021
- 2021-06-18 US US17/351,660 patent/US11379036B2/en active Active
-
2022
- 2022-03-27 IL IL291716A patent/IL291716A/en unknown
- 2022-09-20 JP JP2022148944A patent/JP7486276B2/ja active Active
-
2023
- 2023-03-02 JP JP2023031759A patent/JP7543466B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017031089A1 (en) * | 2015-08-15 | 2017-02-23 | Eyefluence, Inc. | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
Also Published As
Publication number | Publication date |
---|---|
US10671160B2 (en) | 2020-06-02 |
US20200249755A1 (en) | 2020-08-06 |
KR102670987B1 (ko) | 2024-05-30 |
JP2022173312A (ja) | 2022-11-18 |
IL270893B (en) | 2022-05-01 |
EP4123425B1 (en) | 2024-10-09 |
IL270893A (en) | 2020-01-30 |
US20180348861A1 (en) | 2018-12-06 |
EP4123425A1 (en) | 2023-01-25 |
US20220011859A1 (en) | 2022-01-13 |
CN110945405A (zh) | 2020-03-31 |
US11068055B2 (en) | 2021-07-20 |
KR20200014824A (ko) | 2020-02-11 |
AU2018277842A1 (en) | 2019-12-19 |
CN110945405B (zh) | 2024-01-02 |
IL291716A (en) | 2022-05-01 |
WO2018222753A1 (en) | 2018-12-06 |
EP3631567A1 (en) | 2020-04-08 |
EP3631567A4 (en) | 2020-12-16 |
JP7239493B2 (ja) | 2023-03-14 |
EP3631567B1 (en) | 2022-09-21 |
JP2023060088A (ja) | 2023-04-27 |
CN117762256A (zh) | 2024-03-26 |
KR20240093921A (ko) | 2024-06-24 |
JP7543466B2 (ja) | 2024-09-02 |
US11379036B2 (en) | 2022-07-05 |
CA3065131A1 (en) | 2018-12-06 |
JP7486276B2 (ja) | 2024-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7486276B2 (ja) | 眼追跡較正技術 | |
JP7480218B2 (ja) | 拡張現実システムのための仮想レチクル | |
JP7502292B2 (ja) | アバタ移動のためのマルチモードの手の場所および配向 | |
CN109196447B (zh) | 使用姿势和多dof控制器与3d虚拟对象的交互 | |
US20240027794A1 (en) | Virtual object movement speed curve for virtual and augmented reality display systems | |
NZ786547A (en) | Interactions with 3d virtual objects using poses and multiple-dof controllers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210526 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220601 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220617 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7239493 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |