JP2020522795A - 眼追跡較正技術 - Google Patents
眼追跡較正技術 Download PDFInfo
- Publication number
- JP2020522795A JP2020522795A JP2019565507A JP2019565507A JP2020522795A JP 2020522795 A JP2020522795 A JP 2020522795A JP 2019565507 A JP2019565507 A JP 2019565507A JP 2019565507 A JP2019565507 A JP 2019565507A JP 2020522795 A JP2020522795 A JP 2020522795A
- Authority
- JP
- Japan
- Prior art keywords
- user
- eye
- virtual
- target
- reticle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/211—Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/212—Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/22—Setup operations, e.g. calibration, key configuration or button assignment
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—Three-dimensional [3D] image rendering
- G06T15/06—Ray-tracing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating three-dimensional [3D] models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8082—Virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computer Graphics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Cardiology (AREA)
- Heart & Thoracic Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- Eye Examination Apparatus (AREA)
- Radar Systems Or Details Thereof (AREA)
- Fertilizing (AREA)
Abstract
Description
本願は、米国仮出願第62/512,954号, 出願日2017年5月31日,発明の名称 “EYE TRACKING CALIBRATION TECHNIQUES”に対する35 U.S.C. § 119(e)のもとでの優先権の利益を主張するものであり、その開示は、全体が参照により本明細書中に援用される。
ウェアラブルデバイスは、仮想コンテンツを双方向VR/AR/MR環境内に提示することができる。仮想コンテンツは、例えば、頭部姿勢、眼視線、または身体姿勢等の種々の姿勢を通して、ユーザによって相互作用され得る、データ要素を備えてもよい。眼視線を使用したユーザ相互作用のコンテキストでは、ウェアラブルデバイスは、眼画像等の眼データを収集することができる(例えば、ウェアラブルデバイスの内向きに向いた結像システム内の眼カメラを介して)。ウェアラブルシステムは、ユーザの眼視線と視線ベクトル(ユーザの視線方向を示すことができる)との間の関連付けを提供する、マッピング行列に基づいて、ユーザの眼視線方向を計算することができる。ユーザ体験を改良するために、ウェアラブルデバイスは、マッピング行列を較正し、各人物の眼の一意性、装着されたときのユーザに対するウェアラブルデバイスの特定の配向、現在の環境条件(例えば、照明条件、温度等)、それらの組み合わせ、または同等物を考慮し得る、眼追跡較正プロセスを実施することができる。
ウェアラブルシステム(本明細書では、拡張現実(AR)システムとも称される)は、2次元(2D)または3次元(3D)仮想画像をユーザに提示するために構成されることができる。画像は、組み合わせまたは同等物における、静止画像、ビデオのフレーム、またはビデオであってもよい。ウェアラブルシステムは、ユーザ相互作用のために、単独で、または組み合わせて、VR、AR、またはMR環境を提示し得る、ウェアラブルデバイスを含むことができる。ウェアラブルデバイスは、ARデバイス(ARD)と同義的に使用され、ウェアラブルデバイスは、頭部搭載型デバイス(HMD)であることができる。
図4は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ウェアラブルシステム400は、複数の導波管432b、434b、436b、438b、4400bを使用して、3次元知覚を眼/脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ480を含む。いくつかの実施形態では、ウェアラブルシステム400は、図2のウェアラブルシステム200に対応してもよく、図4は、ウェアラブルシステム200のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ480は、図2のディスプレイ220の中に統合されてもよい。
多くの実装では、ウェアラブルシステムは、上記に説明されるウェアラブルシステムのコンポーネントに加えて、またはその代替として、他のコンポーネントを含んでもよい。ウェアラブルシステムは、例えば、1つ以上の触知デバイスまたはコンポーネントを含んでもよい。触知デバイスまたはコンポーネントは、触覚をユーザに提供するように動作可能であってもよい。例えば、触知デバイスまたはコンポーネントは、仮想コンテンツ(例えば、仮想オブジェクト、仮想ツール、他の仮想構造)に触れると、圧力および/またはテクスチャの感覚を提供してもよい。触覚は、仮想オブジェクトが表す物理的オブジェクトの感覚を再現してもよい、または仮想コンテンツが表す想像上のオブジェクトまたはキャラクタ(例えば、ドラゴン)の感覚を再現してもよい。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって装着されてもよい(例えば、ユーザウェアラブルグローブ)。いくつかの実装では、触知デバイスまたはコンポーネントは、ユーザによって保持されてもよい。
ウェアラブルシステムは、高被写界深度をレンダリングされたライトフィールド内で達成するために、種々のマッピング関連技法を採用してもよい。仮想世界をマッピングする際、実世界内の全ての特徴および点を把握し、仮想オブジェクトを実世界に関連して正確に描くことが有利である。この目的を達成するために、ウェアラブルシステムのユーザから捕捉されたFOV画像が、実世界の種々の点および特徴についての情報を伝達する新しい写真を含むことによって、世界モデルに追加されることができる。例えば、ウェアラブルシステムは、マップ点(2D点または3D点等)のセットを収集し、新しいマップ点を見出し、世界モデルのより正確なバージョンをレンダリングすることができる。第1のユーザの世界モデルは、第2のユーザが第1のユーザを囲繞する世界を体験し得るように、(例えば、クラウドネットワーク等のネットワークを経由して)第2のユーザに通信されることができる。
本明細書に説明されるように、ユーザは、ユーザの眼が向けられている方向を含み得る、眼視線を使用して、ウェアラブルデバイスと相互作用することができる。眼視線(時として、本明細書では、眼姿勢とも称される)は、基準方向(典型的には、ユーザの眼が自然に向く前方方向)から測定されてもよく、多くの場合、2つの角度(例えば、基準方向に対する仰角および方位角)または3つの角度(例えば、仰角、方位角、および加えて、ロール角度)を用いて測定される。眼視線を使用してユーザの環境内のオブジェクトとの現実的かつ直感的相互作用を提供するために、ウェアラブルシステムは、眼追跡較正を使用して、ウェアラブルデバイスを較正し、ユーザの眼特徴の一意性および眼測定に何らかの影響を及ぼし得る他の条件を組み込むことができる。
ウェアラブルシステムは、図12Aおよび12Bを参照して説明される眼追跡較正プロセスの間、眼画像を入手することができるが、眼追跡較正プロセスにおける1つの課題は、ユーザが、予期される通りに標的を見ていない場合があることである。例えば、ウェアラブルシステムが、標的(例えば、仮想蝶1205または標的1202a−iのうちの1つ)をリグ空間内にレンダリングするとき、ユーザは、グラフィックの代わりに、別の方向標的を見ている場合がある。例えば、1つの実験室ベースの実験では、ユーザの10パーセントが、実験室試験条件下でさえ、較正の間、標的のうちのいくつかを見ていなかった。較正プロトコルとのユーザコンプライアンスは、ユーザが自宅またはオフィス環境内に一人でいるとき、実質的により低くなり得る。その結果、ウェアラブルシステムは、正確な眼追跡結果を較正から得られ得ず、その結果、ウェアラブルシステムを用いたユーザの視覚的体験は、影響され得る。
眼視線検証を伴う、眼追跡較正の例示的プロセス
レチクルは、例えば、色、形状、サイズ、グラフィック等の種々の外観を有することができる。レチクルの外観は、眼追跡較正プロセスの際に関わるパラメータに依存する。レチクルの外観は、コンテキスト情報に基づいて、動的に調節されてもよい。コンテキスト情報は、標的の特性(例えば、標的のサイズまたは場所)、ユーザと関連付けられた情報(例えば、ユーザの位置)、または眼追跡較正プロセスのために要求される整合精度を含んでもよい。例えば、ウェアラブルシステムは、標的が大きい場合、より大きいレチクルを使用する一方、標的が小さい場合、より小さいレチクルを使用してもよい。いくつかの実施形態では、ウェアラブルシステムは、標的がユーザの比較的に近傍に位置付けられる場合、比較的に大きいレチクルを使用してもよく、標的がユーザから比較的に遠く離れて位置付けられる場合、比較的に小さいレチクルを使用してもよい。
上記に述べられたように、レチクルの外観は、種々の異なる色、形状、サイズ、グラフィック等のいずれかをとってもよい。例えば、レチクルの形状は、標的の形状に類似してもよい。これは、レチクルおよび標的が相互に適正に整合されていると決定される、比較的に少ない頭部姿勢が存在するであろうため、標的がレチクル内に入るであろう可能性を低下させる役割を果たし得る(整合の正確度を増加させ得る)。図16Aおよび16Bは、形状が類似する、レチクルおよび標的の実施例を図示する。図16Aおよび16Bでは、ユーザは、ディスプレイ220を介して、ドア1610等の実世界オブジェクトと、場面1600a内の標的1630およびレチクル1620等の仮想オブジェクトとを知覚することができる。標的1630は、ユーザの3D空間内の場所に固定されることができる一方、レチクル1620は、リグ空間内の場所にレンダリングされることができる。
レチクルおよび標的を用いた眼視線検証プロセスは、ゲームの一部として組み込まれ、双方向かつ向上されたユーザ体験を提供してもよい。眼視線較正を娯楽化することによって、ユーザは、較正プロセス要件に準拠し、較正プロシージャを完了する可能性がより高くなる。較正プロシージャの開始時、ウェアラブルディスプレイシステムは、そこからユーザが選定し得る、一連の較正ゲームオプションを提示してもよい。
ユーザ研究が、本明細書に説明される技法の実施形態から取得された眼較正データ品質と従来の方法を使用して取得されたデータを比較するために実施された。研究は、18名のユーザを含み、外部の注意散漫材料が存在しない、実験室ベースの設定において実施された。研究は、本明細書に説明される較正技法が従来の眼較正技法と同一またはより良好な性能を発揮したことを見出した。18名中11名のユーザが、新しい較正技法を使用して、従来の技法より優れた結果を示した。システムは、x、y、およびz方向に沿って、ユーザの各眼の瞳孔位置を測定した。研究は、18名中7名のユーザに関して、正規化された瞳孔位置の標準偏差が有意に改良されたことを見出した。いずれのユーザも、新しい相互作用シーケンスを使用して、有意な性能の悪化を認めなかった。研究結果の概要は、2017年5月31日に出願された米国仮特許出願第62/512,594号(参照することによってその全体として本明細書に組み込まれる)に付録Aとして含まれる。概要に示される結果は、18名のユーザの左および右瞳孔のx、y、z軸に沿った瞳孔位置の正規化された測定の標準偏差の変化および統計的確率値(p−値)を含む。p−値が0.05の有意性値未満である測定値は、ハイライトされる。
第1の側面では、眼追跡較正のためのウェアラブルシステムであって、ウェアラブルディスプレイシステムのユーザから眼画像(片眼または両眼)を捕捉するように構成される、画像捕捉デバイスと、眼画像を記憶するように構成される、非一過性メモリと、それを通してユーザがユーザの環境内の眼較正標的および仮想レチクルを知覚し得る、ディスプレイシステムと、ユーザの頭部姿勢を追跡するように構成される、姿勢センサと、非一過性メモリおよびディスプレイシステムと通信する、ハードウェアプロセッサであって、眼較正標的をディスプレイシステムを介して知覚可能にさせ、仮想レチクルをディスプレイシステムを介してレンダリング可能にさせ、姿勢センサから入手されたデータに基づいて、ユーザの頭部姿勢を識別し、ユーザの頭部姿勢に基づいて、仮想レチクルの位置を計算し、少なくとも部分的に、仮想レチクルおよび眼較正標的の位置に基づいて、仮想レチクルが眼較正標的と整合するかどうかを決定し、仮想レチクルが眼較正標的と整合することの決定に応答して、画像捕捉デバイスに、眼画像を捕捉し、非一過性メモリの中への眼画像の記憶を開始するように命令するようにプログラムされる、ハードウェアプロセッサとを備える、ウェアラブルシステム。
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
Claims (34)
- 眼追跡較正のためのウェアラブルシステムであって、
画像捕捉デバイスであって、前記画像捕捉デバイスは、前記ウェアラブルシステムのユーザの片眼または両眼の眼画像を捕捉するように構成される、画像捕捉デバイスと、
非一過性メモリであって、前記非一過性メモリは、前記眼画像を記憶するように構成される、非一過性メモリと、
ディスプレイシステムであって、前記ディスプレイシステムは、それを通して前記ユーザが前記ユーザの環境内の眼較正標的および仮想レチクルを知覚し得る、ディスプレイシステムと、
姿勢センサであって、前記姿勢センサは、前記ユーザの頭部姿勢を追跡するように構成される、姿勢センサと、
前記非一過性メモリおよび前記ディスプレイシステムと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記眼較正標的を前記ディスプレイシステムを介して知覚可能にすることと、
前記仮想レチクルを前記ディスプレイシステムを介してレンダリングされるようにすることと、
前記姿勢センサから入手されたデータに基づいて、前記ユーザの頭部姿勢を識別することと、
前記ユーザの頭部姿勢に基づいて、前記仮想レチクルの位置を計算することと、
少なくとも部分的に、前記仮想レチクルおよび前記眼較正標的の位置に基づいて、前記仮想レチクルが前記眼較正標的と整合するかどうかを決定することと、
前記仮想レチクルが前記眼較正標的と整合することの決定に応答して、前記画像捕捉デバイスに、前記眼画像を捕捉し、前記非一過性メモリの中への前記眼画像の記憶を開始するように命令することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、ウェアラブルシステム。 - 前記画像捕捉デバイスは、前記ユーザの眼領域を結像するように構成される眼カメラを備える、請求項1に記載のウェアラブルシステム。
- 前記姿勢センサは、慣性測定ユニットを備える、請求項1に記載のウェアラブルシステム。
- 前記眼較正標的は、世界空間内のオブジェクトであり、前記仮想レチクルは、リグ空間内にある、請求項1に記載のウェアラブルシステム。
- 前記世界空間は、前記ユーザの環境を基準とする3次元(3D)座標系を備え、前記リグ空間は、前記ディスプレイシステムを基準とする座標系を備える、請求項4に記載のウェアラブルシステム。
- 前記仮想レチクルが前記眼較正標的と整合するかどうかを決定するために、前記ハードウェアプロセッサは、
前記リグ空間と前記世界空間との間のオフセットを決定することと、
前記リグ空間内の前記仮想レチクルの第1の座標値および前記世界空間内の前記眼較正標的の第2の座標値を計算することと、
前記第1の座標値、前記第2の座標値、および前記オフセットに基づいて、整合を計算することと
を行うようにプログラムされる、請求項5に記載のウェアラブルシステム。 - 前記整合を計算するために、前記ハードウェアプロセッサは、前記オフセットに基づいて、前記リグ空間内の第1の座標値を前記世界空間内の第3の座標値に変換し、前記第3の座標値および前記第2の座標値が閾値範囲内にあるかどうかを決定するようにプログラムされる、請求項6に記載のウェアラブルシステム。
- 前記ユーザの頭部姿勢は、前記ユーザの頭部の位置、配向、または前記位置および配向の組み合わせを備える、請求項1に記載のウェアラブルシステム。
- 前記仮想レチクルが前記眼較正標的と整合するかどうかを決定するために、前記ハードウェアプロセッサは、
前記仮想レチクルの位置に基づいて、レイキャスティングを実施することと、
前記レイキャスティングにおける光線の一部が前記眼較正標的と交差するかどうかを決定することと
を行うようにプログラムされる、請求項1に記載のウェアラブルシステム。 - 仮想レチクルが前記眼較正標的と整合するかどうかを決定するために、前記ハードウェアプロセッサは、
標的頭部姿勢にアクセスすることであって、前記標的頭部姿勢は、前記仮想レチクルが眼較正標的と整合するとき、前記ユーザがとる姿勢である、ことと、
前記ユーザの頭部姿勢が前記標的頭部姿勢にあるかどうかを決定することと
を行うようにプログラムされる、請求項1に記載のウェアラブルシステム。 - 前記仮想レチクルが前記眼較正標的と整合することの決定に応答して、前記ハードウェアプロセッサはさらに、前記仮想レチクルが前記眼較正標的と整合されることを示す視覚的、聴覚的、または触知的効果を提供するようにプログラムされる、請求項1に記載のウェアラブルシステム。
- 前記仮想レチクルが前記眼較正標的と整合することの決定に応答して、前記ハードウェアプロセッサはさらに、前記ディスプレイシステムに、別の仮想レチクルを提示するように命令するようにプログラムされる、請求項1に記載のウェアラブルシステム。
- 前記ハードウェアプロセッサはさらに、少なくとも部分的に、前記眼較正標的のサイズ、前記眼較正標的の色、または前記眼追跡較正と関連付けられた要求される精度のうちの少なくとも1つを備えるコンテキスト情報に基づいて、前記仮想レチクルの外観を動的に更新するようにプログラムされる、請求項1に記載のウェアラブルシステム。
- 前記仮想レチクルの外観は、前記眼較正標的の外観に類似する、請求項13に記載のウェアラブルシステム。
- 前記ハードウェアプロセッサは、高要求精度または小眼較正標的に応答して、前記レチクルのサイズを低減させるようにプログラムされる、請求項13に記載のウェアラブルシステム。
- 眼追跡較正のための方法であって、
ハードウェアプロセッサの制御下で、
ユーザの環境と関連付けられた世界空間内の眼較正標的を識別することと、
前記ユーザのウェアラブルデバイスに、仮想レチクルを前記ユーザのウェアラブルデバイスと関連付けられたリグ空間内にレンダリングするように命令することと、
前記ユーザの頭部姿勢データを取得することと、
前記取得された頭部姿勢データに基づいて、前記ユーザの現在の頭部姿勢を決定することと、
少なくとも部分的に、前記ユーザの現在の頭部姿勢に基づいて、前記眼較正標的に対する前記仮想レチクルの相対的位置を決定することと、
少なくとも部分的に、前記眼較正標的に対する前記仮想レチクルの相対的位置に基づいて、仮想レチクルが前記眼較正標的と整合するかどうかを決定することと、
前記仮想レチクルが前記眼較正標的と整合することの決定に応答して、前記ウェアラブルデバイスの内向きに向いた結像システムに、眼較正データを入手するように命令することと
を含む、方法。 - 前記頭部姿勢データは、前記ウェアラブルデバイスの外向きに向いた結像システム、前記ウェアラブルデバイスの慣性測定ユニット、または前記ユーザの環境内のカメラのうちの少なくとも1つから取得される、請求項16に記載の方法。
- 前記眼較正データは、前記ユーザの片眼または両眼の画像を備える、請求項16に記載の方法。
- 前記眼較正標的は、前記世界空間内の固定場所にある、または前記仮想レチクルは、前記リグ空間内の固定場所にレンダリングされる、請求項18に記載の方法。
- 前記仮想レチクルが前記眼較正標的と整合することの決定に応答して、前記ウェアラブルデバイスに、前記仮想レチクルを前記リグ空間内の異なる場所にレンダリングするように命令することをさらに含む、請求項19に記載の方法。
- 前記仮想レチクルは、前記ユーザの視野の中心またはその近傍にレンダリングされ、前記視野は、前記ユーザが所与の時間に知覚し得る前記ユーザの環境の一部を備える、請求項16に記載の方法。
- 前記取得された頭部姿勢データに基づいて、前記ユーザの現在の頭部姿勢を決定することは、前記頭部姿勢データに基づいて、前記ユーザの頭部の位置または配向を計算することを含む、請求項16に記載の方法。
- 頭部姿勢の範囲にアクセスすることをさらに含み、仮想レチクルが前記眼較正標的と整合するかどうかを決定することは、前記現在の頭部姿勢が頭部姿勢の範囲内であるかどうかを決定することを含む、請求項16に記載の方法。
- 前記眼較正標的は、前記ユーザの環境内の物理的オブジェクトである、請求項16に記載の方法。
- 前記眼較正標的は、ゲームアプリケーション内の仮想オブジェクトであり、前記眼追跡較正のための方法は、前記ゲームアプリケーションの一部として実施される、請求項16に記載の方法。
- 眼追跡較正のための方法であって、
ハードウェアプロセッサの制御下で、
ユーザの環境内の標的領域を識別することと、
前記ユーザのウェアラブルデバイスと関連付けられたリグ空間内の位置における仮想レチクルを識別することと、
前記ユーザの頭部姿勢データを取得することと、
前記取得された頭部姿勢データに基づいて、前記ユーザの現在の頭部姿勢を決定することと、
少なくとも部分的に、前記ユーザの現在の頭部姿勢に基づいて、前記標的領域に対する前記仮想レチクルの位置を更新することと、
前記仮想レチクルが前記標的領域と整合するかどうかを決定することと、
前記仮想レチクルが前記標的領域と整合することの決定に応答して、整合が達成されたことのインジケーションを提供することと
を含む、方法。 - 前記標的領域は、少なくとも仮想オブジェクトを備え、前記仮想レチクルが前記標的領域と整合するかどうかを決定することは、前記仮想レチクルが前記仮想オブジェクトと整合するかどうかを決定することを含む、請求項26に記載の方法。
- 前記標的領域は、物理的オブジェクトの少なくとも一部を備え、前記仮想レチクルが前記標的領域と整合するかどうかを決定することは、前記仮想レチクルが前記物理的オブジェクトの一部と整合するかどうかを決定することを含む、請求項26に記載の方法。
- 前記眼較正データは、容量ベースまたは電極ベースの眼追跡システムによって収集される、請求項26に記載の方法。
- 前記仮想レチクルが前記眼較正標的と整合することの決定に応答して、前記方法はさらに、前記ウェアラブルデバイスの眼カメラに、眼画像の収集を開始させることを含む、請求項26に記載の方法。
- 前記仮想レチクルが前記標的領域と整合するかどうかを決定することは、
少なくとも部分的に、前記ユーザの現在の頭部姿勢に基づいて、少なくとも1つの仮想光線を投射することと、
前記少なくとも1つの仮想光線が前記標的領域と交差するかどうかを決定することと
を含む、請求項26に記載の方法。 - 少なくとも部分的に、前記ユーザの現在の頭部姿勢に基づいて、少なくとも1つの仮想光線を投射することは、
少なくとも1つの仮想光線を前記ユーザまたは前記ウェアラブルデバイス上の場所から前記仮想レチクルの位置を通して投射すること
を含む、請求項31に記載の方法。 - 少なくとも部分的に、前記ユーザの現在の頭部姿勢に基づいて、少なくとも1つの仮想光線を投射することは、
仮想幾何学的円錐を前記仮想レチクルの場所を通して投射すること
を含む、請求項31に記載の方法。 - 前記仮想レチクルの形状は、前記仮想レチクルの場所における前記仮想幾何学的円錐の断面形状に対応する、請求項33に記載の方法。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2022148944A JP7486276B2 (ja) | 2017-05-31 | 2022-09-20 | 眼追跡較正技術 |
Applications Claiming Priority (3)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| US201762512954P | 2017-05-31 | 2017-05-31 | |
| US62/512,954 | 2017-05-31 | ||
| PCT/US2018/035190 WO2018222753A1 (en) | 2017-05-31 | 2018-05-30 | Eye tracking calibration techniques |
Related Child Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022148944A Division JP7486276B2 (ja) | 2017-05-31 | 2022-09-20 | 眼追跡較正技術 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2020522795A true JP2020522795A (ja) | 2020-07-30 |
| JP7239493B2 JP7239493B2 (ja) | 2023-03-14 |
Family
ID=64456215
Family Applications (3)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2019565507A Active JP7239493B2 (ja) | 2017-05-31 | 2018-05-30 | 眼追跡較正技術 |
| JP2022148944A Active JP7486276B2 (ja) | 2017-05-31 | 2022-09-20 | 眼追跡較正技術 |
| JP2023031759A Active JP7543466B2 (ja) | 2017-05-31 | 2023-03-02 | 眼追跡較正技術 |
Family Applications After (2)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2022148944A Active JP7486276B2 (ja) | 2017-05-31 | 2022-09-20 | 眼追跡較正技術 |
| JP2023031759A Active JP7543466B2 (ja) | 2017-05-31 | 2023-03-02 | 眼追跡較正技術 |
Country Status (9)
| Country | Link |
|---|---|
| US (3) | US10671160B2 (ja) |
| EP (3) | EP4465261A3 (ja) |
| JP (3) | JP7239493B2 (ja) |
| KR (2) | KR102799682B1 (ja) |
| CN (2) | CN110945405B (ja) |
| AU (1) | AU2018277842A1 (ja) |
| CA (1) | CA3065131A1 (ja) |
| IL (2) | IL270893B (ja) |
| WO (1) | WO2018222753A1 (ja) |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2023110678A (ja) * | 2022-01-28 | 2023-08-09 | 三菱プレシジョン株式会社 | 模擬運転装置 |
| JP2025506420A (ja) * | 2022-07-08 | 2025-03-11 | テンセント・アメリカ・エルエルシー | 混合モードの没入型テレプレゼンスアプリケーションのための輻輳に基づく注視一致 |
| JP2025515605A (ja) * | 2022-04-26 | 2025-05-20 | グーグル エルエルシー | スプリット計算アーキテクチャの周辺デバイス |
| US12430322B2 (en) | 2021-10-27 | 2025-09-30 | Mastercard International Incorporated | Method and system for pruning blocks from a blockchain |
Families Citing this family (102)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US11106273B2 (en) | 2015-10-30 | 2021-08-31 | Ostendo Technologies, Inc. | System and methods for on-body gestural interfaces and projection displays |
| US10496808B2 (en) | 2016-10-25 | 2019-12-03 | Apple Inc. | User interface for managing access to credentials for use in an operation |
| JP2018142857A (ja) * | 2017-02-28 | 2018-09-13 | セイコーエプソン株式会社 | 頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法 |
| EP4465261A3 (en) | 2017-05-31 | 2025-02-19 | Magic Leap, Inc. | Eye tracking calibration techniques |
| WO2019074868A1 (en) * | 2017-10-10 | 2019-04-18 | Xiaochun Nie | SYSTEMS AND METHODS FOR CALIBRATING AN EYE MONITORING SYSTEM |
| DE102017221488A1 (de) * | 2017-11-30 | 2019-06-06 | Volkswagen Aktiengesellschaft | Verfahren zur Anzeige des Verlaufs einer Trajektorie vor einem Fahrzeug oder einem Objekt mit einer Anzeigeeinheit, Vorrichtung zur Durchführung des Verfahrens sowie Kraftfahrzeug und Computerprogramm |
| KR102460665B1 (ko) * | 2017-12-14 | 2022-10-31 | 삼성전자주식회사 | 응시 거리를 결정하는 방법 및 디바이스 |
| CN111788623B (zh) | 2018-01-06 | 2023-02-28 | 凯尔Os公司 | 智能镜系统及其使用方法 |
| CN110554511B (zh) * | 2018-05-30 | 2022-05-03 | 托比股份公司 | 用于校准头戴式显示器的方法和装置 |
| US11269402B1 (en) * | 2018-08-03 | 2022-03-08 | Snap Inc. | User interface interaction paradigms for eyewear device with limited field of view |
| US20210318796A1 (en) * | 2018-08-17 | 2021-10-14 | Matrix Analytics Corporation | System and Method for Fabricating Decorative Surfaces |
| WO2020059263A1 (ja) * | 2018-09-21 | 2020-03-26 | 富士フイルム株式会社 | 画像提案装置、画像提案方法及び画像提案プログラム |
| US11816927B2 (en) * | 2018-09-26 | 2023-11-14 | Nec Corporation | Information providing device, information providing method, and storage medium |
| US11275778B2 (en) * | 2018-12-04 | 2022-03-15 | International Business Machines Corporation | Content marshaling using biometric data |
| CN111991800B (zh) * | 2019-02-22 | 2024-06-21 | 网易(杭州)网络有限公司 | 游戏角色控制方法、装置、设备和存储介质 |
| EP3906669B1 (en) | 2019-03-13 | 2024-06-05 | Hewlett-Packard Development Company, L.P. | Detecting eye tracking calibration errors |
| EP3940507A4 (en) * | 2019-03-15 | 2022-04-20 | Sony Group Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD AND COMPUTER READABLE RECORDING MEDIA |
| CN109976528B (zh) * | 2019-03-22 | 2023-01-24 | 北京七鑫易维信息技术有限公司 | 一种基于头动调整注视区域的方法以及终端设备 |
| CN117590582A (zh) * | 2019-04-11 | 2024-02-23 | 三星电子株式会社 | 头戴式显示设备及其操作方法 |
| CN110058693B (zh) * | 2019-04-23 | 2022-07-15 | 北京七鑫易维科技有限公司 | 数据采集方法、装置、电子设备及存储介质 |
| WO2020225756A1 (en) * | 2019-05-06 | 2020-11-12 | CareOS | Smart mirror system and methods of use thereof |
| US10698701B1 (en) | 2019-06-01 | 2020-06-30 | Apple Inc. | User interface for accessing an account |
| US10819898B1 (en) * | 2019-06-21 | 2020-10-27 | Facebook Technologies, Llc | Imaging device with field-of-view shift control |
| WO2021011420A1 (en) * | 2019-07-12 | 2021-01-21 | Magic Leap, Inc. | Eyeball camera system and methods for display system calibration |
| EP3771967A3 (en) * | 2019-08-02 | 2021-06-02 | Canon Kabushiki Kaisha | Electronic device, control method, and computer readable medium |
| CN110837294B (zh) * | 2019-10-14 | 2023-12-12 | 成都西山居世游科技有限公司 | 一种基于眼球追踪的面部表情控制方法及系统 |
| WO2021092314A1 (en) | 2019-11-06 | 2021-05-14 | Hes Ip Holdings, Llc | System and method for displaying an object with depths |
| WO2021119212A1 (en) | 2019-12-09 | 2021-06-17 | Magic Leap, Inc. | Systems and methods for operating a head-mounted display system based on user identity |
| CN113116291B (zh) * | 2019-12-31 | 2024-09-10 | Oppo广东移动通信有限公司 | 眼球追踪的标定校准方法、装置、移动终端及存储介质 |
| US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
| CN115398894A (zh) * | 2020-02-14 | 2022-11-25 | 奇跃公司 | 用于虚拟和增强现实显示系统的虚拟对象运动速度曲线 |
| US11341936B2 (en) * | 2020-05-20 | 2022-05-24 | Magic Leap, Inc. | Piecewise progressive and continuous calibration with coherent context |
| CN111610861A (zh) * | 2020-05-25 | 2020-09-01 | 歌尔科技有限公司 | 跨平台交互方法、ar装置及服务器和vr装置及服务器 |
| WO2021242008A1 (en) * | 2020-05-28 | 2021-12-02 | Samsung Electronics Co., Ltd. | Electronic device and operating method thereof |
| US11382713B2 (en) * | 2020-06-16 | 2022-07-12 | Globus Medical, Inc. | Navigated surgical system with eye to XR headset display calibration |
| KR102801280B1 (ko) * | 2020-06-18 | 2025-04-30 | 삼성전자주식회사 | 증강 현실 글라스 및 그 동작 방법 |
| CN116113912A (zh) * | 2020-06-22 | 2023-05-12 | 苹果公司 | 3d图形环境中的事件路由 |
| CN113839908B (zh) * | 2020-06-23 | 2023-07-11 | 华为技术有限公司 | 视频传输方法、装置、系统及计算机可读存储介质 |
| CN111862338B (zh) * | 2020-06-23 | 2024-06-18 | 深圳市新镜介网络有限公司 | 模拟眼镜佩戴图像的显示方法及装置 |
| TWI851916B (zh) | 2020-08-14 | 2024-08-11 | 美商海思智財控股有限公司 | 疊合虛擬影像於即時影像的系統與方法 |
| EP4073572A4 (en) | 2020-09-03 | 2024-09-04 | HES IP Holdings, LLC | Systems and methods for improving binocular vision |
| US11351457B2 (en) * | 2020-09-11 | 2022-06-07 | Riot Games, Inc. | Selecting an anchored offset targeting position |
| JP7784422B2 (ja) | 2020-09-25 | 2025-12-11 | アップル インコーポレイテッド | ユーザインタフェースをナビゲートする方法 |
| EP4636558A3 (en) | 2020-09-25 | 2025-12-24 | Apple Inc. | Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments |
| CN116438505A (zh) | 2020-09-25 | 2023-07-14 | 苹果公司 | 用于操纵环境中的对象的方法 |
| KR20230117639A (ko) | 2020-09-25 | 2023-08-08 | 애플 인크. | 사용자 인터페이스와 연관된 몰입을 조정 및/또는 제어하기위한 방법 |
| CN112507799B (zh) * | 2020-11-13 | 2023-11-24 | 幻蝎科技(武汉)有限公司 | 基于眼动注视点引导的图像识别方法、mr眼镜及介质 |
| CN116670627A (zh) | 2020-12-31 | 2023-08-29 | 苹果公司 | 对环境中的用户界面进行分组的方法 |
| US11995230B2 (en) | 2021-02-11 | 2024-05-28 | Apple Inc. | Methods for presenting and sharing content in an environment |
| US12111962B2 (en) * | 2021-02-19 | 2024-10-08 | Apple Inc. | User interfaces and device settings based on user identification |
| CN112966983B (zh) * | 2021-04-12 | 2021-09-21 | 广东视明科技发展有限公司 | 基于vr空间的视觉功能加工时效能力评估系统及方法 |
| AU2022258962B2 (en) * | 2021-04-13 | 2025-07-10 | Apple Inc. | Methods for providing an immersive experience in an environment |
| US11716456B2 (en) * | 2021-05-21 | 2023-08-01 | Microsoft Technology Licensing, Llc | Autocalibrated near-eye display |
| CN113507599B (zh) * | 2021-07-08 | 2022-07-08 | 四川纵横六合科技股份有限公司 | 基于大数据分析的教育云服务平台 |
| US20230056472A1 (en) * | 2021-08-19 | 2023-02-23 | Raytheon Company | Firing cutout rapid generation aided by machine learning |
| US11691072B2 (en) * | 2021-08-24 | 2023-07-04 | Sony Interactive Entertainment LLC | Aiming display automation for head mounted display applications |
| CN119960596A (zh) | 2021-09-23 | 2025-05-09 | 苹果公司 | 用于内容应用的设备、方法和图形用户界面 |
| CN118215903A (zh) | 2021-09-25 | 2024-06-18 | 苹果公司 | 用于在虚拟环境中呈现虚拟对象的设备、方法和图形用户界面 |
| US12456271B1 (en) | 2021-11-19 | 2025-10-28 | Apple Inc. | System and method of three-dimensional object cleanup and text annotation |
| US12284327B2 (en) * | 2021-11-23 | 2025-04-22 | Isabella H. Schwartz | System and method for smart TV anywhere |
| CN114373064B (zh) * | 2021-12-14 | 2024-07-16 | 聚好看科技股份有限公司 | 一种vrar内容编辑方法、装置、设备及介质 |
| WO2023137402A1 (en) | 2022-01-12 | 2023-07-20 | Apple Inc. | Methods for displaying, selecting and moving objects and containers in an environment |
| WO2023141535A1 (en) | 2022-01-19 | 2023-07-27 | Apple Inc. | Methods for displaying and repositioning objects in an environment |
| US12541280B2 (en) | 2022-02-28 | 2026-02-03 | Apple Inc. | System and method of three-dimensional placement and refinement in multi-user communication sessions |
| US12272005B2 (en) | 2022-02-28 | 2025-04-08 | Apple Inc. | System and method of three-dimensional immersive applications in multi-user communication sessions |
| US11886646B2 (en) * | 2022-04-01 | 2024-01-30 | Snap Inc. | Personalized calibration of user interfaces |
| WO2023196258A1 (en) | 2022-04-04 | 2023-10-12 | Apple Inc. | Methods for quick message response and dictation in a three-dimensional environment |
| CN119987551A (zh) | 2022-04-21 | 2025-05-13 | 苹果公司 | 消息在三维环境中的表示 |
| US12039676B1 (en) * | 2022-04-27 | 2024-07-16 | National Technology & Engineering Solutions Of Sandia, Llc | Augmented reality for reflective particle tag alignment |
| JP2025518517A (ja) * | 2022-05-26 | 2025-06-17 | アップル インコーポレイテッド | ユーザ認証及びデバイス管理のためのデバイス、方法、及びグラフィカルユーザインタフェース |
| CN115129154B (zh) * | 2022-06-23 | 2025-09-12 | 东南大学 | 基于眼动平滑追踪和引导力场的机器人辅助手眼协调训练系统 |
| US12394167B1 (en) | 2022-06-30 | 2025-08-19 | Apple Inc. | Window resizing and virtual object rearrangement in 3D environments |
| CN115272466A (zh) * | 2022-07-22 | 2022-11-01 | 奕目(上海)科技有限公司 | 手眼标定方法、视觉机器人、手眼标定设备和存储介质 |
| US11717969B1 (en) | 2022-07-28 | 2023-08-08 | Altec Industries, Inc. | Cooperative high-capacity and high-dexterity manipulators |
| US11997429B2 (en) * | 2022-07-28 | 2024-05-28 | Altec Industries, nc. | Reducing latency in head-mounted display for the remote operation of machinery |
| IL295191A (en) * | 2022-07-28 | 2024-02-01 | Immersix Ltd | Method and system for determining gaze direction |
| US12112011B2 (en) | 2022-09-16 | 2024-10-08 | Apple Inc. | System and method of application-based three-dimensional refinement in multi-user communication sessions |
| US12148078B2 (en) | 2022-09-16 | 2024-11-19 | Apple Inc. | System and method of spatial groups in multi-user communication sessions |
| US12099653B2 (en) | 2022-09-22 | 2024-09-24 | Apple Inc. | User interface response based on gaze-holding event assessment |
| US12405704B1 (en) | 2022-09-23 | 2025-09-02 | Apple Inc. | Interpreting user movement as direct touch user interface interactions |
| KR20250075620A (ko) | 2022-09-24 | 2025-05-28 | 애플 인크. | 3차원 환경을 제어하고 그와 상호작용하기 위한 방법들 |
| WO2024064950A1 (en) | 2022-09-24 | 2024-03-28 | Apple Inc. | Methods for time of day adjustments for environments and environment presentation during communication sessions |
| US12340627B2 (en) | 2022-09-26 | 2025-06-24 | Pison Technology, Inc. | System and methods for gesture inference using computer vision |
| US12366920B2 (en) | 2022-09-26 | 2025-07-22 | Pison Technology, Inc. | Systems and methods for gesture inference using transformations |
| US12366923B2 (en) | 2022-09-26 | 2025-07-22 | Pison Technology, Inc. | Systems and methods for gesture inference using ML model selection |
| EP4609724A1 (en) | 2022-10-28 | 2025-09-03 | San-Ei Gen F.F.I., INC. | Acid-resistant gardenia blue preparation |
| CN116170572A (zh) * | 2022-12-21 | 2023-05-26 | 精电(河源)显示技术有限公司 | 一种机车仪表裸眼3d显示方法及装置 |
| US12524142B2 (en) | 2023-01-30 | 2026-01-13 | Apple Inc. | Devices, methods, and graphical user interfaces for displaying sets of controls in response to gaze and/or gesture inputs |
| CN116185194B (zh) * | 2023-02-22 | 2026-03-17 | 北京航空航天大学 | 一种增强现实中眼手协同三维操控方法 |
| US12108012B2 (en) | 2023-02-27 | 2024-10-01 | Apple Inc. | System and method of managing spatial states and display modes in multi-user communication sessions |
| GB202304577D0 (en) * | 2023-03-29 | 2023-05-10 | King S College London | Automatic gaze estimation |
| US12443286B2 (en) | 2023-06-02 | 2025-10-14 | Apple Inc. | Input recognition based on distinguishing direct and indirect user interactions |
| US12118200B1 (en) | 2023-06-02 | 2024-10-15 | Apple Inc. | Fuzzy hit testing |
| KR20260017447A (ko) | 2023-06-04 | 2026-02-05 | 애플 인크. | 중첩하는 윈도우들을 관리하고 시각적 효과들을 적용하기 위한 방법들 |
| US12113948B1 (en) | 2023-06-04 | 2024-10-08 | Apple Inc. | Systems and methods of managing spatial groups in multi-user communication sessions |
| US12511763B2 (en) * | 2023-09-28 | 2025-12-30 | Htc Corporation | Coordinate system offset calculating apparatus, method, and non-transitory computer readable storage medium thereof |
| US12502110B2 (en) | 2023-10-24 | 2025-12-23 | Pison Technology, Inc. | Systems and methods for determining physiological state based on surface biopotentials |
| US20250239040A1 (en) * | 2024-01-22 | 2025-07-24 | Microsoft Technology Licensing, Llc | Automatically determining whether an object of interest is in the center of focus |
| US20250341891A1 (en) * | 2024-05-03 | 2025-11-06 | Google Llc | Realtime background eye-tracking calibration |
| CN119126973A (zh) * | 2024-08-21 | 2024-12-13 | 上海联影智元医疗科技有限公司 | 眼动校正方法、装置、系统和计算机设备 |
| US12563172B1 (en) * | 2025-04-28 | 2026-02-24 | DISTANCE TECHNOLOGIES Oy | On-the-fly automated calibration of multiscopic displays |
| CN120572538B (zh) * | 2025-07-22 | 2025-12-09 | 华南理工大学 | 基于高斯世界模型的机械臂自纠正方法、存储介质及计算机设备 |
Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017031089A1 (en) * | 2015-08-15 | 2017-02-23 | Eyefluence, Inc. | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
Family Cites Families (61)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
| US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
| US6943754B2 (en) * | 2002-09-27 | 2005-09-13 | The Boeing Company | Gaze tracking system, eye-tracking assembly and an associated method of calibration |
| US7646394B1 (en) * | 2004-03-05 | 2010-01-12 | Hrl Laboratories, Llc | System and method for operating in a virtual environment |
| USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
| EP1784988A1 (en) | 2004-08-06 | 2007-05-16 | University of Washington | Variable fixation viewing distance scanned light displays |
| US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
| US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
| US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
| GB0625912D0 (en) | 2006-12-22 | 2007-02-07 | Bid Instr Ltd | Method for visual field testing |
| US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
| US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
| CN103688208B (zh) | 2010-12-24 | 2017-06-06 | 奇跃公司 | 人体工程学头戴式显示设备和光学系统 |
| CN107656615B (zh) | 2011-05-06 | 2021-09-14 | 奇跃公司 | 大量同时远程数字呈现世界 |
| EP2760363A4 (en) | 2011-09-29 | 2015-06-24 | Magic Leap Inc | TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION |
| KR101944846B1 (ko) | 2011-10-28 | 2019-02-01 | 매직 립, 인코포레이티드 | 증강 및 가상 현실을 위한 시스템 및 방법 |
| EP4036862A1 (en) | 2011-11-23 | 2022-08-03 | Magic Leap, Inc. | Three dimensional virtual and augmented reality display system |
| EP3608717B1 (en) | 2012-04-05 | 2023-09-27 | Magic Leap, Inc. | Wide-field of view (fov) imaging devices with active foveation capability |
| WO2013167864A1 (en) | 2012-05-11 | 2013-11-14 | Milan Momcilo Popovich | Apparatus for eye tracking |
| US20150103096A1 (en) | 2012-05-30 | 2015-04-16 | Pioneer Corporation | Display device, head mount display, calibration method, calibration program and recording medium |
| US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
| US9310559B2 (en) | 2012-06-11 | 2016-04-12 | Magic Leap, Inc. | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
| EP2895910A4 (en) | 2012-09-11 | 2016-04-20 | Magic Leap Inc | ERGONOMIC HEAD-MOUNTED DISPLAY DEVICE AND OPTICAL SYSTEM |
| US10025379B2 (en) * | 2012-12-06 | 2018-07-17 | Google Llc | Eye tracking wearable devices and methods for use |
| IL283193B (en) | 2013-01-15 | 2022-08-01 | Magic Leap Inc | A system for scanning electromagnetic imaging radiation |
| CA3157218A1 (en) | 2013-03-11 | 2014-10-09 | Magic Leap, Inc. | System and method for augmented and virtual reality |
| NZ735755A (en) | 2013-03-15 | 2019-04-26 | Magic Leap Inc | Display system and method |
| US9239460B2 (en) * | 2013-05-10 | 2016-01-19 | Microsoft Technology Licensing, Llc | Calibration of eye location |
| US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
| US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
| US10073518B2 (en) * | 2013-08-19 | 2018-09-11 | Qualcomm Incorporated | Automatic calibration of eye tracking for optical see-through head mounted display |
| US10914951B2 (en) * | 2013-08-19 | 2021-02-09 | Qualcomm Incorporated | Visual, audible, and/or haptic feedback for optical see-through head mounted display with user interaction tracking |
| US10089786B2 (en) * | 2013-08-19 | 2018-10-02 | Qualcomm Incorporated | Automatic customization of graphical user interface for optical see-through head mounted display with user interaction tracking |
| KR102341870B1 (ko) | 2013-10-16 | 2021-12-20 | 매직 립, 인코포레이티드 | 조절가능한 동공간 거리를 가지는 가상 또는 증강 현실 헤드셋들 |
| KR102268462B1 (ko) | 2013-11-27 | 2021-06-22 | 매직 립, 인코포레이티드 | 가상 및 증강 현실 시스템들 및 방법들 |
| US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
| US20150153826A1 (en) * | 2013-12-01 | 2015-06-04 | Apx Labs, Llc | Systems and methods for providing a virtual menu |
| EP2886041A1 (en) * | 2013-12-17 | 2015-06-24 | ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) | Method for calibrating a head-mounted eye tracking device |
| US9870060B2 (en) * | 2013-12-31 | 2018-01-16 | Google Llc | Systems and methods for gaze-based media selection and editing |
| US10386636B2 (en) | 2014-01-31 | 2019-08-20 | Magic Leap, Inc. | Multi-focal display system and method |
| WO2015117043A1 (en) | 2014-01-31 | 2015-08-06 | Magic Leap, Inc. | Multi-focal display system and method |
| US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
| WO2016018488A2 (en) | 2014-05-09 | 2016-02-04 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
| US10564714B2 (en) * | 2014-05-09 | 2020-02-18 | Google Llc | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
| US9727136B2 (en) | 2014-05-19 | 2017-08-08 | Microsoft Technology Licensing, Llc | Gaze detection calibration |
| USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
| NZ727350A (en) | 2014-05-30 | 2020-08-28 | Magic Leap Inc | Methods and systems for generating virtual content display with a virtual or augmented reality apparatus |
| USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
| WO2015192117A1 (en) | 2014-06-14 | 2015-12-17 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
| US10070120B2 (en) | 2014-09-17 | 2018-09-04 | Qualcomm Incorporated | Optical see-through display calibration |
| KR102469507B1 (ko) | 2014-12-17 | 2022-11-22 | 소니그룹주식회사 | 정보 처리 장치, 정보 처리 방법 및 프로그램 |
| USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
| US9888843B2 (en) * | 2015-06-03 | 2018-02-13 | Microsoft Technology Licensing, Llc | Capacitive sensors for determining eye gaze direction |
| US10810362B2 (en) * | 2015-07-17 | 2020-10-20 | Sap Se | Page-based incident correlation for network applications |
| US10630965B2 (en) | 2015-10-02 | 2020-04-21 | Microsoft Technology Licensing, Llc | Calibrating a near-eye display |
| KR101712350B1 (ko) | 2015-10-15 | 2017-03-07 | 한국과학기술연구원 | 시선 및 손 정보를 이용하여 가상 객체를 선택하기 위한 니어 아이 디스플레이 장치, 상기 장치를 이용하여 가상 객체를 선택하는 방법 및 그 방법을 수행하기 위한 기록 매체 |
| IL293873B2 (en) * | 2015-10-20 | 2024-03-01 | Magic Leap Inc | Selecting virtual objects in a three-dimensional space |
| US10831264B2 (en) | 2016-01-19 | 2020-11-10 | Magic Leap, Inc. | Eye image combination |
| USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
| USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
| EP4465261A3 (en) | 2017-05-31 | 2025-02-19 | Magic Leap, Inc. | Eye tracking calibration techniques |
-
2018
- 2018-05-30 EP EP24204898.1A patent/EP4465261A3/en active Pending
- 2018-05-30 WO PCT/US2018/035190 patent/WO2018222753A1/en not_active Ceased
- 2018-05-30 CA CA3065131A patent/CA3065131A1/en active Pending
- 2018-05-30 KR KR1020247017413A patent/KR102799682B1/ko active Active
- 2018-05-30 US US15/993,371 patent/US10671160B2/en active Active
- 2018-05-30 EP EP22195895.2A patent/EP4123425B1/en active Active
- 2018-05-30 JP JP2019565507A patent/JP7239493B2/ja active Active
- 2018-05-30 CN CN201880048398.2A patent/CN110945405B/zh active Active
- 2018-05-30 AU AU2018277842A patent/AU2018277842A1/en not_active Abandoned
- 2018-05-30 EP EP18810231.3A patent/EP3631567B1/en active Active
- 2018-05-30 KR KR1020197038485A patent/KR102670987B1/ko active Active
- 2018-05-30 CN CN202311834134.9A patent/CN117762256A/zh active Pending
-
2019
- 2019-11-25 IL IL270893A patent/IL270893B/en unknown
-
2020
- 2020-04-22 US US16/855,270 patent/US11068055B2/en active Active
-
2021
- 2021-06-18 US US17/351,660 patent/US11379036B2/en active Active
-
2022
- 2022-03-27 IL IL291716A patent/IL291716A/en unknown
- 2022-09-20 JP JP2022148944A patent/JP7486276B2/ja active Active
-
2023
- 2023-03-02 JP JP2023031759A patent/JP7543466B2/ja active Active
Patent Citations (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2017031089A1 (en) * | 2015-08-15 | 2017-02-23 | Eyefluence, Inc. | Systems and methods for biomechanically-based eye signals for interacting with real and virtual objects |
Cited By (6)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US12430322B2 (en) | 2021-10-27 | 2025-09-30 | Mastercard International Incorporated | Method and system for pruning blocks from a blockchain |
| JP2023110678A (ja) * | 2022-01-28 | 2023-08-09 | 三菱プレシジョン株式会社 | 模擬運転装置 |
| JP7821617B2 (ja) | 2022-01-28 | 2026-02-27 | 三菱プレシジョン株式会社 | 模擬運転装置 |
| JP2025515605A (ja) * | 2022-04-26 | 2025-05-20 | グーグル エルエルシー | スプリット計算アーキテクチャの周辺デバイス |
| JP2025506420A (ja) * | 2022-07-08 | 2025-03-11 | テンセント・アメリカ・エルエルシー | 混合モードの没入型テレプレゼンスアプリケーションのための輻輳に基づく注視一致 |
| JP7778950B2 (ja) | 2022-07-08 | 2025-12-02 | テンセント・アメリカ・エルエルシー | 混合モードの没入型テレプレゼンスアプリケーションのための輻輳に基づく注視一致 |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2018222753A1 (en) | 2018-12-06 |
| US20200249755A1 (en) | 2020-08-06 |
| JP2022173312A (ja) | 2022-11-18 |
| US20220011859A1 (en) | 2022-01-13 |
| EP4123425A1 (en) | 2023-01-25 |
| EP3631567A4 (en) | 2020-12-16 |
| JP7543466B2 (ja) | 2024-09-02 |
| CN110945405A (zh) | 2020-03-31 |
| CN117762256A (zh) | 2024-03-26 |
| KR102670987B1 (ko) | 2024-05-30 |
| JP7486276B2 (ja) | 2024-05-17 |
| US20180348861A1 (en) | 2018-12-06 |
| KR102799682B1 (ko) | 2025-04-23 |
| EP4465261A3 (en) | 2025-02-19 |
| US11068055B2 (en) | 2021-07-20 |
| EP4465261A2 (en) | 2024-11-20 |
| KR20240093921A (ko) | 2024-06-24 |
| JP2023060088A (ja) | 2023-04-27 |
| US11379036B2 (en) | 2022-07-05 |
| KR20200014824A (ko) | 2020-02-11 |
| AU2018277842A1 (en) | 2019-12-19 |
| CA3065131A1 (en) | 2018-12-06 |
| IL291716A (en) | 2022-05-01 |
| IL270893B (en) | 2022-05-01 |
| US10671160B2 (en) | 2020-06-02 |
| EP4123425B1 (en) | 2024-10-09 |
| JP7239493B2 (ja) | 2023-03-14 |
| IL270893A (en) | 2020-01-30 |
| EP3631567A1 (en) | 2020-04-08 |
| EP3631567B1 (en) | 2022-09-21 |
| CN110945405B (zh) | 2024-01-02 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| JP7543466B2 (ja) | 眼追跡較正技術 | |
| JP7656753B2 (ja) | 拡張現実システムのための仮想レチクル | |
| JP7502292B2 (ja) | アバタ移動のためのマルチモードの手の場所および配向 | |
| CN109196447B (zh) | 使用姿势和多dof控制器与3d虚拟对象的交互 | |
| JP7712279B2 (ja) | 仮想および拡張現実ディスプレイシステムのための仮想オブジェクト移動速度曲線 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210526 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220601 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220617 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220920 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230131 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230302 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7239493 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |