JP7436600B2 - 眼追跡のための個人化されたニューラルネットワーク - Google Patents

眼追跡のための個人化されたニューラルネットワーク Download PDF

Info

Publication number
JP7436600B2
JP7436600B2 JP2022166262A JP2022166262A JP7436600B2 JP 7436600 B2 JP7436600 B2 JP 7436600B2 JP 2022166262 A JP2022166262 A JP 2022166262A JP 2022166262 A JP2022166262 A JP 2022166262A JP 7436600 B2 JP7436600 B2 JP 7436600B2
Authority
JP
Japan
Prior art keywords
eye
user
retraining
neural network
user interface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022166262A
Other languages
English (en)
Other versions
JP2023011664A (ja
Inventor
ケーラー エイドリアン
リー ダグラス
バドリナラヤナン ヴィジャイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2023011664A publication Critical patent/JP2023011664A/ja
Application granted granted Critical
Publication of JP7436600B2 publication Critical patent/JP7436600B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)
  • Medicines That Contain Protein Lipid Enzymes And Other Medicines (AREA)
  • Position Input By Displaying (AREA)

Description

(関連出願の相互参照)
本願は、その内容が参照することによってその全体として本明細書に組み込まれる、2017年9月20日に出願され、「PERSONALIZED NEURAL NETWORK FOR EYE TRACKING」と題された、米国仮出願第62/560,898号の優先権の利益を主張する。
本開示は、仮想現実および拡張現実結像および可視化システムに関し、特に、眼追跡のための個人化されたニューラルネットワークに関する。
深層ニューラルネットワーク(DNN)は、算出機械学習方法である。DNNは、人工ニューラルネットワーク(NN)の一種に属する。NNを用いることで、算出グラフが、構成され、これは、生物学的ニューラルネットワークの特徴を模倣するものである。生物学的ニューラルネットワークは、算出に顕著な特徴を含み、そうでなければ他の方法を通して捕捉することが困難であり得る、生物学系の能力の多くに関与する。いくつかの実装では、そのようなネットワークは、接続が一方向性である、シーケンシャル層化構造の中に配列される。例えば、特定の層の人工ニューロンの出力は、後続層の人工ニューロンの入力に接続されることができる。DNNは、多数の層(例えば、数十、数百、またはそれを上回る層)を伴う、NNであることができる。
異なるNNは、異なる視点において相互に異なる。例えば、異なるNNのトポロジまたはアーキテクチャ(例えば、層の数および層が相互接続される方法)および加重は、異なり得る。加重は、生物学系内のニューラル接続のシナプス強度に近似的に類似し得る。加重は、1つの層から別の層に伝搬される効果の強度に影響を及ぼす。人工ニューロンの出力は、その入力の加重和の非線形関数であることができる。NNの加重は、これらの総和内に現れる、加重であることができる。
一側面では、ウェアラブルディスプレイシステムが、開示される。本ウェアラブルディスプレイシステムは、ユーザの眼の複数の再訓練用眼画像を捕捉するように構成される、画像捕捉デバイスと、ディスプレイと、複数の再訓練用眼画像と、眼追跡のためのニューラルネットワークとを記憶するように構成される、非一過性コンピュータ可読記憶媒体と、画像捕捉デバイス、ディスプレイ、および非一過性コンピュータ可読記憶媒体と通信する、ハードウェアプロセッサであって、実行可能命令によって、画像捕捉デバイスによって捕捉された、および/または非一過性コンピュータ可読記憶媒体内に記憶されている(画像捕捉デバイスによって捕捉され得る)、複数の再訓練用眼画像を受信し、複数の再訓練用眼画像の再訓練用眼画像は、ディスプレイの表示場所においてユーザに示されるUIデバイスに対するユーザインターフェース(UI)イベントが生じると、画像捕捉デバイスによって捕捉され、再訓練用入力データおよび対応する再訓練用標的出力データを備える、再訓練セットを生成し、再訓練用入力データは、再訓練用眼画像を備え、対応する再訓練用標的出力データは、表示場所に関連する再訓練用眼画像内のユーザの眼の眼姿勢を備え、再訓練セットを使用して眼追跡のためのニューラルネットワークから再訓練される、再訓練されたニューラルネットワークを取得するようにプログラムされる、ハードウェアプロセッサとを備える。
別の側面では、眼追跡のためのニューラルネットワークを再訓練するためのシステムが、開示される。本システムは、実行可能命令を記憶する、コンピュータ可読メモリと、実行可能命令によって、少なくとも、ユーザの眼の複数の再訓練用眼画像を受信し、複数の再訓練用眼画像の再訓練用眼画像は、ユーザデバイスの表示場所においてユーザに示されるUIデバイスに対するユーザインターフェース(UI)イベントが生じると、捕捉され、再訓練用入力データおよび対応する再訓練用標的出力データを備える、再訓練セットを生成し、再訓練用入力データは、再訓練用眼画像を備え、対応する再訓練用標的出力データは、表示場所に関連する再訓練用眼画像内のユーザの眼の眼姿勢を備え、再訓練セットを使用して、眼追跡のためのニューラルネットワークを再訓練し、再訓練されたニューラルネットワークを生成するようにプログラムされる、1つ以上のプロセッサとを備える。
さらなる側面では、ニューラルネットワークを再訓練するための方法が、開示される。本方法は、ハードウェアプロセッサの制御下で、ユーザの眼の複数の再訓練用眼画像を受信するステップであって、複数の再訓練用眼画像の再訓練用眼画像は、表示場所においてユーザに示されるUIデバイスに対するユーザインターフェース(UI)イベントが生じると、捕捉される、ステップと、再訓練用入力データおよび対応する再訓練用標的出力データを備える、再訓練セットを生成するステップであって、再訓練用入力データは、再訓練用眼画像を備え、対応する再訓練用標的出力データは、表示場所に関連する再訓練用眼画像内のユーザの眼の眼姿勢を備える、ステップと、再訓練セットを使用して、ニューラルネットワークを再訓練し、再訓練されたニューラルネットワークを生成するステップとを含む。
本明細書に説明される主題の1つ以上の実装の詳細が、付随の図面および以下の説明に記載される。他の特徴、側面、および利点は、説明、図面、および請求項から明白となるであろう。本概要または以下の詳細な説明のいずれも、本開示の主題の範囲を定義または限定することを主張するものではない。
本発明は、例えば、以下を提供する。
(項目1)
ウェアラブルディスプレイシステムであって、前記ウェアラブルディスプレイシステムは、
画像捕捉デバイスであって、前記画像捕捉デバイスは、ユーザの眼の複数の再訓練用眼画像を捕捉するように構成される、画像捕捉デバイスと、
ディスプレイと、
非一過性コンピュータ可読記憶媒体であって、前記非一過性コンピュータ可読記憶媒体は、
前記複数の再訓練用眼画像と、
眼追跡のためのニューラルネットワークと
を記憶するように構成される、非一過性コンピュータ可読記憶媒体と、
ハードウェアプロセッサであって、前記ハードウェアプロセッサは、前記画像捕捉デバイス、前記ディスプレイ、および前記非一過性コンピュータ可読記憶媒体と通信し、前記ハードウェアプロセッサは、前記実行可能命令によって、
前記画像捕捉デバイスによって捕捉された前記複数の再訓練用眼画像を受信することであって、
前記複数の再訓練用眼画像の再訓練用眼画像は、前記ディスプレイの表示場所においてユーザに示されるUIデバイスに対するユーザインターフェース(UI)イベントが生じると、前記画像捕捉デバイスによって捕捉される、ことと、
再訓練用入力データおよび対応する再訓練用標的出力データを備える再訓練セットを生成することであって、
前記再訓練用入力データは、前記再訓練用眼画像を備え、
前記対応する再訓練用標的出力データは、前記表示場所に関連する前記再訓練用眼画像内の前記ユーザの眼の眼姿勢を備える、ことと、
前記再訓練セットを使用して眼追跡のためのニューラルネットワークから再訓練される再訓練されたニューラルネットワークを取得することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、ウェアラブルディスプレイシステム。
(項目2)
前記再訓練されたニューラルネットワークを取得するために、前記ハードウェアプロセッサは、少なくとも、
前記再訓練セットを使用して、前記眼追跡のためのニューラルネットワークを再訓練し、前記再訓練されたニューラルネットワークを生成する
ようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目3)
前記再訓練されたニューラルネットワークを取得するために、前記ハードウェアプロセッサは、少なくとも、
前記再訓練セットを遠隔システムに伝送することと、
前記再訓練されたニューラルネットワークを前記遠隔システムから受信することと
を行うようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。(項目4)
前記遠隔システムは、クラウドコンピューティングシステムを備える、項目3に記載のウェアラブルディスプレイシステム。
(項目5)
前記ユーザの複数の再訓練用眼画像を受信するために、前記ハードウェアプロセッサは、前記実行可能命令によって、少なくとも、
UIデバイスを前記ディスプレイ上の表示場所においてユーザに表示することと、
前記UIデバイスに対する前記UIイベントの発生を決定することと、
前記再訓練用眼画像を前記画像捕捉デバイスから受信することと
を行うようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目6)
前記ハードウェアプロセッサはさらに、前記実行可能命令によって、
前記表示場所を使用して、前記再訓練用眼画像内の前記眼の眼姿勢を決定する
ようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目7)
前記再訓練用画像内の前記眼の眼姿勢は、前記表示場所を備える、項目6に記載のウェアラブルディスプレイシステム。
(項目8)
前記ユーザの複数の再訓練用眼画像を受信するために、前記ハードウェアプロセッサは、前記実行可能命令によって、少なくとも、
前記再訓練用眼画像に基づいて、第2の複数の第2の再訓練用眼画像を生成することと、
前記表示場所および確率分布関数を使用して、前記第2の複数の第2の再訓練用眼画像の第2の再訓練用眼画像内の前記眼の眼姿勢を決定することと
を行うようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目9)
前記ユーザの複数の再訓練用眼画像を受信するために、前記ハードウェアプロセッサは、前記実行可能命令によって、少なくとも、
前記ユーザの眼の複数の眼画像を前記画像捕捉デバイスから受信することであって、
前記複数の眼画像の第1の眼画像は、前記ディスプレイの表示場所においてユーザに示される前記UIデバイスに対する前記UIイベントが生じると、前記ユーザデバイスによって捕捉される、ことと、
前記表示場所から、前記UIイベントに先立った前記ユーザの運動に沿って遡って、前記運動の開始まで、前記UIデバイスの投影された表示場所を決定することと、
前記投影された表示場所および前記運動の開始時に捕捉された前記複数の眼画像の第2の眼画像内の前記UIデバイスの第2の表示場所が閾値距離内にあることを決定することと、
前記第2の眼画像から前記第1の眼画像までの前記複数の眼画像の眼画像を備える前記再訓練用入力データを生成することであって、
前記対応する再訓練用標的出力データは、前記眼画像内の前記UIデバイスの表示場所に関連する前記眼画像の各眼画像内の前記ユーザの眼の眼姿勢を備える、ことと
を行うようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目10)
前記眼の眼姿勢は、前記表示場所である、項目1に記載のウェアラブルディスプレイシステム。
(項目11)
ハードウェアプロセッサはさらに、前記実行可能命令によって、少なくとも、前記UIデバイスの表示場所を使用して、前記眼の眼姿勢を決定するようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目12)
前記再訓練セットを生成するために、前記ハードウェアプロセッサは、前記実行可能命令によって、少なくとも、
前記再訓練用眼画像内の前記眼の眼姿勢が複数の眼姿勢領域の第1の眼姿勢領域内にあることを決定することと、
前記UIデバイスの分布確率が前記第1の眼姿勢領域内にあることを決定することと、
前記分布確率に関連する含有確率において前記再訓練用眼画像を備える前記再訓練用入力データを生成することと
を行うようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目13)
前記ハードウェアプロセッサはさらに、前記実行可能命令によって、少なくとも、
訓練用入力データおよび対応する訓練用標的出力データを備える訓練セットを使用して、前記眼追跡のためのニューラルネットワークを訓練することであって、
前記訓練用入力データは、複数のユーザの複数の訓練用眼画像を備え、
前記対応する訓練用標的出力データは、前記訓練用の複数の訓練用眼画像内の前記複数のユーザの眼の眼姿勢を備える、ことと
を行うようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目14)
前記再訓練セットの再訓練用入力データは、前記複数の訓練用眼画像の少なくとも1つの訓練用眼画像を備える、項目13に記載のウェアラブルディスプレイシステム。
(項目15)
前記再訓練セットの再訓練用入力データは、前記複数の訓練用眼画像の訓練用眼画像を備えない、項目13に記載のウェアラブルディスプレイシステム。
(項目16)
前記眼追跡のためのニューラルネットワークを再訓練するために、前記ハードウェアプロセッサは、前記実行可能命令によって、少なくとも、
前記再訓練されるニューラルネットワークの加重を前記ニューラルネットワークの加重で初期化する
ようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目17)
前記ハードウェアプロセッサは、前記実行可能命令によって、前記ユーザデバイスに、
前記ユーザの眼画像を前記画像捕捉デバイスから受信することと、
前記再訓練されたニューラルネットワークを使用して、前記眼画像内の前記ユーザの眼姿勢を決定することと
を行わせるようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目18)
眼追跡のためのニューラルネットワークを再訓練するためのシステムであって、前記システムは、
実行可能命令を記憶するコンピュータ可読メモリと、
1つ以上のプロセッサであって、前記1つ以上のプロセッサは、前記実行可能命令によって、少なくとも、
ユーザの眼の複数の再訓練用眼画像を受信することであって、
前記複数の再訓練用眼画像の再訓練用眼画像は、ユーザデバイスの表示場所においてユーザに示されるUIデバイスに対するユーザインターフェース(UI)イベントが生じると、捕捉される、ことと、
再訓練用入力データおよび対応する再訓練用標的出力データを備える再訓練セットを生成することであって、
前記再訓練用入力データは、前記再訓練用眼画像を備え、
前記対応する再訓練用標的出力データは、前記表示場所に関連する前記再訓練用眼画像内の前記ユーザの眼の眼姿勢を備える、ことと、
前記再訓練セットを使用して、眼追跡のためのニューラルネットワークを再訓練し、再訓練されたニューラルネットワークを生成することと
を行うようにプログラムされる、1つ以上のプロセッサと
を備える、システム。
(項目19)
前記ユーザの複数の再訓練用眼画像を受信するために、前記1つ以上のプロセッサは、前記実行可能命令によって、少なくとも、前記ユーザデバイスに、
ディスプレイを使用して、UIデバイスを前記表示場所においてユーザに表示することと、
前記UIデバイスに対する前記UIイベントの発生を決定することと、
結像システムを使用して、前記再訓練用眼画像を捕捉することと、
前記再訓練用眼画像を前記システムに伝送することと
を行わせるようにプログラムされる、項目18に記載のシステム。
(項目20)
前記ユーザの複数の再訓練用眼画像を受信するために、前記1つ以上のプロセッサはさらに、前記実行可能命令によって、少なくとも、
前記表示場所を使用して、前記再訓練用眼画像内の前記眼の眼姿勢を決定する
ようにプログラムされる、項目19に記載のシステム。
(項目21)
前記再訓練用画像内の前記眼の眼姿勢は、前記表示場所を備える、項目20に記載のシステム。
(項目22)
前記ユーザの複数の再訓練用眼画像を受信するために、前記1つ以上のプロセッサは、前記実行可能命令によって、少なくとも、
前記再訓練用眼画像に基づいて、第2の複数の第2の再訓練用眼画像を生成することと、
前記表示場所および確率分布関数を使用して、前記第2の複数の第2の再訓練用眼画像の第2の再訓練用眼画像内の前記眼の眼姿勢を決定することと
を行うようにプログラムされる、項目19に記載のシステム。
(項目23)
前記ユーザの複数の再訓練用眼画像を受信するために、前記1つ以上のプロセッサは、前記実行可能命令によって、少なくとも、
前記ユーザの眼の複数の眼画像を受信することであって、
前記複数の眼画像の第1の眼画像は、前記ユーザデバイスの表示場所においてユーザに示される前記UIデバイスに対する前記UIイベントが生じると、前記ユーザデバイスによって捕捉される、ことと、
前記表示場所から、前記UIイベントに先立った前記ユーザの運動に沿って遡って、前記運動の開始まで、前記UIデバイスの投影された表示場所を決定することと、
前記投影された表示場所および前記運動の開始時に捕捉された前記複数の眼画像の第2の眼画像内の前記UIデバイスの第2の表示場所が閾値距離内にあることを決定することと、
前記第2の眼画像から前記第1の眼画像までの前記複数の眼画像の眼画像を備える前記再訓練用入力データを生成することであって、
前記対応する再訓練用標的出力データは、前記眼画像内の前記UIデバイスの表示場所に関連する前記眼画像の各眼画像内の前記ユーザの眼の眼姿勢を備える、ことと
を行うようにプログラムされる、項目18に記載のシステム。
(項目24)
前記眼の眼姿勢は、前記表示場所である、項目18に記載のシステム。
(項目25)
前記1つ以上のプロセッサはさらに、前記実行可能命令によって、少なくとも、前記UIデバイスの表示場所を使用して、前記眼の眼姿勢を決定するようにプログラムされる、項目18に記載のシステム。
(項目26)
前記再訓練セットを生成するために、前記1つ以上のプロセッサは、前記実行可能命令
によって、少なくとも、
前記再訓練用眼画像内の前記眼の眼姿勢が複数の眼姿勢領域の第1の眼姿勢領域内にあることを決定することと、
前記UIデバイスの分布確率が前記第1の眼姿勢領域内にあることを決定することと、
前記分布確率に関連する含有確率において前記再訓練用眼画像を備える前記再訓練用入力データを生成することと
を行うようにプログラムされる、項目18に記載のシステム。
(項目27)
前記1つ以上のプロセッサはさらに、前記実行可能命令によって、少なくとも、
訓練用入力データおよび対応する訓練用標的出力データを備える訓練セットを使用して、前記眼追跡のためのニューラルネットワークを訓練することであって、
前記訓練用入力データは、複数のユーザの複数の訓練用眼画像を備え、
前記対応する訓練用標的出力データは、前記訓練用の複数の訓練用眼画像内の前記複数のユーザの眼の眼姿勢を備える、こと
を行うようにプログラムされる、項目18に記載のシステム。
(項目28)
前記再訓練セットの再訓練用入力データは、前記複数の訓練用眼画像の少なくとも1つの訓練用眼画像を備える、項目27に記載のシステム。
(項目29)
前記再訓練セットの再訓練用入力データは、前記複数の訓練用眼画像の訓練用眼画像を備えない、項目27に記載のシステム。
(項目30)
前記眼追跡のためのニューラルネットワークを再訓練するために、前記1つ以上のプロセッサは、前記実行可能命令によって、少なくとも、
前記再訓練されるニューラルネットワークの加重を前記ニューラルネットワークの加重で初期化する
ようにプログラムされる、項目18に記載のシステム。
(項目31)
前記1つ以上のプロセッサは、前記実行可能命令によって、前記ユーザデバイスに、
前記ユーザの眼画像を捕捉することと、
前記再訓練されたニューラルネットワークを使用して、前記眼画像内の前記ユーザの眼姿勢を決定することと
を行わせるようにプログラムされる、項目18に記載のシステム。
(項目32)
ニューラルネットワークを再訓練するための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
ユーザの眼の複数の再訓練用眼画像を受信することであって、
前記複数の再訓練用眼画像の再訓練用眼画像は、表示場所においてユーザに示されるUIデバイスに対するユーザインターフェース(UI)イベントが生じると、捕捉される、ことと、
再訓練用入力データおよび対応する再訓練用標的出力データを備える再訓練セットを生成することであって、
前記再訓練用入力データは、前記再訓練用眼画像を備え、
前記対応する再訓練用標的出力データは、前記表示場所に関連する前記再訓練用眼画像内の前記ユーザの眼の眼姿勢を備える、ことと、
前記再訓練セットを使用して、ニューラルネットワークを再訓練し、再訓練されたニューラルネットワークを生成することと
を含む、方法。
(項目33)
前記ユーザの複数の再訓練用眼画像を受信することは、
ディスプレイを使用して、前記UIデバイスを前記表示場所においてユーザに表示することと、
前記UIデバイスに対する前記UIイベントの発生を決定することと、
結像システムを使用して、前記再訓練用眼画像を捕捉することと
を含む、項目32に記載の方法。
(項目34)
前記ユーザの複数の再訓練用眼画像を受信することはさらに、
前記再訓練用眼画像に基づいて、第2の複数の第2の再訓練用眼画像を生成することと、
前記表示場所および確率分布関数を使用して、前記第2の複数の第2の再訓練用眼画像の第2の再訓練用眼画像内の前記眼の眼姿勢を決定することと
を含む、項目33に記載の方法。
(項目35)
前記確率分布関数は、前記UIデバイスの所定の確率分布を備える、項目34に記載の方法。
(項目36)
前記UIデバイスは、第1のコンポーネントおよび第2のコンポーネントを備え、前記確率分布関数は、前記第1のコンポーネントに対する分布確率の分布関数および前記第2のコンポーネントに対する第2の確率分布関数の組み合わせられた確率分布を備える、項目34に記載の方法。
(項目37)
前記UIデバイスの第1のコンポーネントは、グラフィカルUIデバイスを備え、前記UIデバイスの第2のコンポーネントは、前記グラフィカルUIデバイスのテキスト説明を備える、項目36に記載の方法。
(項目38)
前記ユーザの複数の再訓練用眼画像を受信することは、
前記ユーザの眼の複数の眼画像を受信することであって、
前記複数の眼画像の第1の眼画像は、前記表示場所において、前記ユーザに示されるUIデバイスに対する前記UIイベントが生じると、捕捉される、ことと、
前記表示場所から、前記UIイベントに先立った運動に沿って遡って、前記運動の開始まで、前記UIデバイスの投影された表示場所を決定することと、
前記投影された表示場所および前記運動の開始時に捕捉された前記複数の眼画像の第2の眼画像内の前記UIデバイスの第2の表示場所が閾値距離内にあることを決定することと、
前記第2の眼画像から前記第1の眼画像までの前記複数の眼画像の眼画像を備える前記再訓練用入力データを生成することであって、
前記対応する再訓練用標的出力データは、前記眼画像内の前記UIデバイスの表示場所に関連する前記眼画像の各眼画像内の前記ユーザの眼の眼姿勢を備える、ことと
を含む、項目32に記載の方法。
(項目39)
前記運動は、角運動を備える、項目38に記載の方法。
(項目40)
前記運動は、均一運動を備える、項目38に記載の方法。
(項目41)
前記UIイベントに先立った前記運動の存在を決定することをさらに含む、項目38に記載の方法。
(項目42)
前記第2の眼画像から前記第1の眼画像までの前記眼画像内の運動に伴って前記ユーザの眼が平滑に移動することを決定することをさらに含む、項目38に記載の方法。
(項目43)
前記眼が平滑に移動することを決定することは、
前記ニューラルネットワークを使用して、前記眼画像内で前記運動に伴って前記ユーザの眼が平滑に移動することを決定すること
を含む、項目42に記載の方法。
(項目44)
前記眼が平滑に移動することを決定することは、
前記眼画像内の前記ユーザの眼の眼姿勢が前記運動に伴って平滑に移動することを決定すること
を含む、項目42に記載の方法。
(項目45)
前記眼の眼姿勢は、前記表示場所である、項目32に記載の方法。
(項目46)
前記UIデバイスの表示場所を使用して、前記眼の眼姿勢を決定することをさらに含む、項目32に記載の方法。
(項目47)
前記眼の眼姿勢を決定することは、前記UIデバイスの表示場所、前記眼の場所、またはそれらの組み合わせを使用して、前記眼の眼姿勢を決定することを含む、項目46に記載の方法。
(項目48)
前記再訓練セットを生成することは、
前記再訓練用眼画像内の前記眼の眼姿勢が複数の眼姿勢領域の第1の眼姿勢領域内にあることを決定することと、
前記UIデバイスの分布確率が前記第1の眼姿勢領域内にあることを決定することと、
前記分布確率に関連する含有確率において前記再訓練用眼画像を備える前記再訓練用入力データを生成することと
を含む、項目32に記載の方法。
(項目49)
前記含有確率は、前記分布確率に反比例する、項目48に記載の方法。
(項目50)
前記第1の眼姿勢領域は、第1の天頂範囲および第1の方位角範囲内にある、項目48に記載の方法。
(項目51)
前記眼の眼姿勢が前記第1の眼姿勢領域内にあることを決定することは、
前記再訓練用眼画像内の前記眼の眼姿勢が、前記複数の眼姿勢領域の第1の眼姿勢領域または第2の眼姿勢領域内にあることを決定すること
を含む、項目48に記載の方法。
(項目52)
前記第1の眼姿勢領域は、第1の天頂範囲および第1の方位角範囲内にあり、
前記第2の眼姿勢領域は、第2の天頂範囲および第2の方位角範囲内にあり、
前記第1の天頂範囲内の数および前記第2の天頂範囲内の数の和はゼロである、前記第1の方位角範囲内の数および前記第2の方位角範囲内の数の和はゼロである、またはそれらの組み合わせである、項目51に記載の方法。
(項目53)
前記UIデバイスの分布確率が前記第1の眼姿勢領域内にあることを決定することは、前記複数の再訓練用眼画像の再訓練用眼画像が捕捉されるときにユーザに示されるUIデバイスの表示場所の分布が、前記複数の眼姿勢領域の眼姿勢領域内にあることを決定することを含み、
前記UIデバイスの分布確率が前記第1の眼姿勢領域内にあることを決定することは、UIデバイスの表示場所の分布を使用して、前記UIデバイスの分布確率が前記第1の眼姿勢領域内にあることを決定することを含む、項目48に記載の方法。
(項目54)
訓練用入力データおよび対応する訓練用標的出力データを備える訓練セットを使用して、前記ニューラルネットワークを訓練することをさらに含み、
前記訓練用入力データは、複数のユーザの複数の訓練用眼画像を備え、
前記対応する訓練用標的出力データは、前記訓練用の複数の訓練用眼画像内の前記複数のユーザの眼の眼姿勢を備える、項目32に記載の方法。
(項目55)
前記複数のユーザは、多数のユーザを備える、項目54に記載の方法。
(項目56)
前記眼の眼姿勢は、前記眼の多様な眼姿勢を備える、項目54に記載の方法。
(項目57)
前記再訓練セットの再訓練用入力データは、前記複数の訓練用眼画像の少なくとも1つの訓練用眼画像を備える、項目54に記載の方法。
(項目58)
前記再訓練セットの再訓練用入力データは、前記複数の訓練用眼画像の訓練用眼画像を備えない、項目32に記載の方法。
(項目59)
前記ニューラルネットワークを再訓練することは、前記再訓練セットを使用して、前記ニューラルネットワークを再訓練し、眼追跡のための再訓練されたニューラルネットワークを生成することを含む、項目32に記載の方法。
(項目60)
前記ニューラルネットワークを再訓練することは、前記再訓練セットを使用して、前記ニューラルネットワークを再訓練し、バイオメトリック用途のための再訓練されたニューラルネットワークを生成することを含む、項目32に記載の方法。
(項目61)
前記バイオメトリック用途は、虹彩識別を備える、項目60に記載の方法。
(項目62)
前記ニューラルネットワークを再訓練することは、前記再訓練されるニューラルネットワークの加重を前記ニューラルネットワークの加重で初期化することを含む、項目32に記載の方法。
(項目63)
前記ユーザの眼画像を受信することと、
前記再訓練されたニューラルネットワークを使用して、前記眼画像内の前記ユーザの眼姿勢を決定することと
をさらに含む、項目32に記載の方法。
(項目64)
前記UIイベントは、前記UIデバイスの複数の状態のうちの状態に対応する、項目32に記載の方法。
(項目65)
前記複数の状態は、前記UIデバイスのアクティブ化または非アクティブ化を備える、項目64に記載の方法。
(項目66)
前記UIデバイスは、ArUco、ボタン、アップダウン、スピナー、ピッカー、ラジオボタン、ラジオボタンリスト、チェックボックス、ピクチャボックス、チェックボックスリスト、ドロップダウンリスト、ドロップダウンメニュー、選択リスト、リストボックス、コンボボックス、テキストボックス、スライダ、リンク、キーボードキー、スイッチ、スライダ、タッチ表面、またはそれらの組み合わせを備える、項目32に記載の方法。
(項目67)
前記UIイベントは、前記UIデバイスおよびポインタに対して生じる、項目32に記載の方法。
(項目68)
前記ポインタは、ユーザと関連付けられたオブジェクトまたは前記ユーザの一部を備える、項目67に記載の方法。
(項目69)
前記ユーザと関連付けられたオブジェクトは、ポインタ、ペン、鉛筆、マーカ、ハイライター、またはそれらの組み合わせを備え、前記ユーザの一部は、前記ユーザの指を備える、項目68に記載の方法。
図1は、眼画像を捕捉し、眼追跡のためのニューラルネットワークを再訓練するために眼画像を使用する一実施形態を図式的に図示する。
図2は、眼の実施例を図式的に図示する。図2Aは、眼の眼姿勢を測定するための例示的座標系を図式的に図示する。
図3は、眼画像を収集し、収集された眼画像を使用してニューラルネットワークを再訓練する、例証的方法のフロー図を示す。
図4は、眼追跡のためのニューラルネットワークを再訓練するために、異なる眼姿勢を伴う眼画像を生成する、実施例を図示する。
図5は、テキスト説明とともに表示される仮想UIデバイスに関する異なる指示方向を伴う眼画像を生成するための確率分布を算出する、実施例を図示する。
図6は、異なる眼姿勢領域に対応するディスプレイのいくつかの領域を伴う、拡張現実デバイスの例示的ディスプレイを図示する。仮想UIデバイスは、異なる確率を伴う異なる眼姿勢領域に対応するディスプレイの異なる領域に表示されることができる。
図7は、ニューラルネットワークを再訓練するための眼画像を収集するときに観察されるUIイベントの密度正規化を実施する、例証的方法のフロー図を示す。
図8は、仮想UIデバイスに対する眼視線の逆追跡の例示的例証を示す。
図9は、仮想UIデバイスに対する眼視線の逆追跡の例証的方法のフロー図を示す。
図10は、一実施形態による、人物によって視認される、ある仮想現実オブジェクトおよびある実際の現実オブジェクトを伴う拡張現実シナリオの例証を描写する。
図11は、一実施形態による、ウェアラブルディスプレイシステムの実施例を図示する。
図12は、一実施形態による、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図示する。
図13は、一実施形態による、画像情報をユーザに出力するための導波管スタックの実施例を図示する。
図14は、一実施形態による、導波管によって出力され得る、例示的出射ビームを示す。
図15は、一実施形態による、ディスプレイシステムを示す、概略図である。
図面全体を通して、参照番号は、参照される要素間の対応を示すために再使用され得る。図面は、本明細書に説明される例示的実施形態を図示するために提供され、本開示の範囲を限定することを意図するものではない。
(概要)
ニューラルネットワーク(NN)を訓練するプロセスは、ネットワークに入力データおよび対応する標的出力データの両方を提示するステップを伴う。例示的入力および標的出力の両方を含む、本データは、訓練セットと称され得る。訓練プロセスを通して、ネットワークの加重は、ネットワークの出力が、訓練セットからの特定の入力データを前提として、その特定の入力データに対応する標的出力に合致するようになる(例えば、可能な限り、望ましい限り、または実践的である限り、近似的に)ように、漸次的または反復的に適合され得る。
NNを訓練するための訓練セットを構築することは、課題を提示し得る。訓練セットの構築は、NNを訓練するため、したがって、NNの正常動作のために重要であり得る。いくつかの実施形態では、ネットワークのために必要とされるデータの量は、数十、数百~数千、数百万、またはそれを上回る正しい挙動例等、非常に膨大であり得る。ネットワークは、訓練セットを使用して学習し、その学習を正しく一般化し、入力(例えば、オリジナル訓練セット内に存在し得ない、新規入力)に関する適切な出力を予測することができる。
本明細書に開示されるのは、眼追跡の(例えば、眼姿勢および眼視線方向を決定する)ために訓練されたNNを再訓練する、向上させる、精緻化させる、または個人化するために、訓練データ(例えば、眼画像)を収集し、訓練データを含む、訓練セットを生成し、
訓練セットを使用するためのシステムおよび方法である。いくつかの実装では、深層ニューラルネットワーク(DNN)等のNNは、最初に、大規模母集団(例えば、ヒト母集団を含む、動物母集団)からの眼画像を含む、訓練セットを使用して、眼追跡の(例えば、眼移動を追跡する、または視線方向を追跡する)ために訓練されることができる。訓練セットは、数百人、数千人、またはそれを上回る個人から収集された訓練データを含むことができる。
NNは、続いて、単一個人(または50人、10人、5人、またはより少ない個人等の少数の個人)からの再訓練するためのデータを使用して、再訓練、向上、精緻化、または個人化されることができる。再訓練されたNNは、個人(または少数の個人)に関して眼追跡のための訓練されたNNより改良された性能を有することができる。いくつかの実装では、訓練プロセスの開始時、再訓練されるNNの加重は、訓練されたNNの加重に設定されることができる。
図1は、眼画像を収集し、眼追跡のためのニューラルネットワークを再訓練するために収集された眼画像を使用する一実施形態を図式的に図示する。再訓練するためのデータを収集するために、図11におけるウェアラブルディスプレイシステム1100等の頭部搭載可能拡張現実デバイス(ARD)104のディスプレイ上に表示される仮想ユーザインターフェース(UI)デバイスとのユーザの相互作用が、監視されることができる。例えば、仮想遠隔制御の仮想ボタンのユーザのアクティブ化(例えば、「押下」)またはアクティブ化解除(例えば、「解放」)等のUIイベントが、監視されることができる。仮想UIデバイスとのユーザの相互作用(本明細書では、ユーザ相互作用とも称される)は、本明細書では、UIイベントと称される。仮想UIデバイスは、ウィンドウ、アイコン、メニュー、ポインタ(WIMP)UIデバイスのスタイルまたは実装に基づくことができる。仮想UIデバイスとのユーザ相互作用を決定するプロセスは、ポインタ(例えば、指、指先、またはスタイラス)の場所の算出と、ポインタと仮想UIデバイスの相互作用の決定とを含むことができる。いくつかの実施形態では、ARD104は、眼追跡のためのNN108を含むことができる。
仮想UIデバイスに対するUIイベント時のユーザの片眼または両眼の眼画像112が、ARD104の内向きに向いた結像システム(例えば、図13における内向きに向いた結像システム1352)等のカメラを使用して捕捉されることができる。例えば、ARD104上のユーザの片眼または両眼の近傍に設置された1つ以上のカメラが、NN108を再訓練し、再訓練されたNN124を生成するために、眼画像112を捕捉することができる。再訓練セットのためのデータは、眼画像112と、ARD104のディスプレイ上の仮想UIデバイス116の場所(または仮想UIデバイスの場所を使用して決定された片眼または両眼の眼姿勢)とを含むことができる。いくつかの実施形態では、再訓練セットのデータは、既存の訓練されたNNから独立して取得されることができる。例えば、再訓練セットは、仮想UIデバイスに対するUIイベント時に収集された眼画像112と、仮想UIデバイスが表示される前にARD104によって決定され得る、ARD104のディスプレイ上の仮想UIデバイス116の場所とを含むことができる。
ARDは、NN再訓練システム120に、ネットワーク(例えば、インターネット)を経由して、UIイベントが生じたときに捕捉されたユーザの眼画像112と、UIイベントが生じたときにARD104のディスプレイ上に表示される仮想UIデバイス116の場所とを送信することができる。NN再訓練システム120は、捕捉された眼画像112と、眼画像112の捕捉時の仮想UIデバイスの対応する表示場所116とを使用して、NN108を再訓練し、再訓練されたNN124を生成することができる。いくつかの実施形態では、複数のシステムが、NN108を再訓練する際に関わることができる。例えば、ARD104は、部分的または全体的に、ローカルで(例えば、図11におけるロー
カル処理モジュール1124を使用して)、NN108を再訓練することができる。別の実施例として、遠隔処理モジュール(例えば、図11における遠隔処理モジュール1128)およびNN再訓練システム120の一方または両方が、NN108を再訓練する際に関わることができる。再訓練の速さを改良するために、再訓練されるNN124の加重は、いくつかの実装では、有利には、再訓練プロセスの開始時の訓練されたNN108の加重に設定されることができる。
ARD104は、NN再訓練システム120からネットワークを経由して受信された眼追跡のためのそのような再訓練されたNN124を実装することができる。ARD104上のユーザの片眼または両眼の近傍に設置された1つ以上のカメラ(例えば、図13における内向きに向いた結像システム1352)は、眼画像を捕捉および提供することができ、そこから、ユーザの眼姿勢または視線方向が、再訓練されたNN124を使用して決定されることができる。再訓練されたNN124は、ユーザに関する眼追跡のための訓練されたNN108より改良された性能を有することができる。本明細書に説明されるある実施例は、ARD104を参照するが、これは、例証のみのためのものであって、限定ではない。他の実施例では、複合現実ディスプレイ(MRD)または仮想現実ディスプレイ(VRD)等の他のタイプのディスプレイが、ARDの代わりに使用されることができる。
NN108および再訓練されたNN124は、いくつかの実装では、トリプレットネットワークアーキテクチャを有することができる。眼画像112の再訓練セットは、1つ以上のユーザデバイス(例えば、ARD)から「クラウドに」送信され、そのユーザを実際に認知する、トリプレットネットワークを再訓練するために使用されることができる(但し、本再訓練では、共通データセットを使用する)。いったん訓練されると、本再訓練されたネットワーク124は、ユーザに返信されることができる。多くのそのようなサブミットを伴う、いくつかの実施形態では、1つの普遍的ネットワーク124が、有利には、全てまたは多数のユーザからのデータの全てを用いて再訓練され、再訓練されたNN124がユーザデバイスに返信されることができる。
(眼画像の実施例)
図2は、眼瞼204、強膜208(眼の「白眼」)、虹彩212、および瞳孔216を伴う、眼200の画像を図示する。例えば、図1におけるARD104の内向きに向いた結像システムを使用して捕捉された眼画像が、NN108を再訓練するために使用され、再訓練されたNN124を生成することができる。眼画像は、任意の適切なプロセスを使用して、例えば、画像を1つ以上のシーケンシャルフレームから抽出し得る、ビデオ処理アルゴリズムを使用して、ビデオから取得されることができる。いくつかの実施形態では、再訓練されたNN124は、再訓練されたNN108を使用して、眼画像内の眼200の眼姿勢を決定するために使用されることができる。
曲線216aは、瞳孔216と虹彩212との間の瞳孔境界を示し、曲線212aは、虹彩212と強膜208との間の辺縁境界を示す。眼瞼204は、上側眼瞼204aと、下側眼瞼204bとを含む。眼200は、自然静置姿勢(例えば、ユーザの顔および視線の両方が、ユーザの真正面の遠距離オブジェクトに向くであろうように配向される)に図示される。眼200の自然静置姿勢は、眼200が自然静置姿勢にあるときの眼200の表面に直交する方向(例えば、図2に示される眼200に関して一直線の面外)にあって、本実施例では、瞳孔216内に心合される、自然静置方向220によって示されることができる。
眼200が、異なるオブジェクトに眼を向けるように移動するにつれて、眼姿勢は、自然静置方向220に対して変化するであろう。現在の眼姿勢は、眼の表面に直交する(かつ瞳孔216内に心合される)方向であるが、眼が現在指向されているオブジェクトに向
かって配向される、眼姿勢方向220を参照して決定されることができる。図2Aに示される例示的座標系を参照すると、眼200の姿勢は、両方とも眼の自然静置方向220に対する、眼の眼姿勢方向224の方位角偏向および天頂偏向を示す、2つの角度パラメータとして表され得る。例証目的のために、これらの角度パラメータは、θ(基点方位角から決定される、方位角偏向)およびφ(時として、極性偏向とも称される、天頂偏向)として表され得る。いくつかの実装では、眼姿勢方向224の周囲の眼の角度ロールが、眼姿勢の決定内に含まれることができる。他の実装では、眼姿勢を決定するための他の技法、例えば、ピッチ、ヨー、および随意に、ロール系が、使用されることができる。
(眼画像を収集し、眼画像を使用して、眼追跡のためのNNを再訓練する、実施例)
図1は、眼追跡のためのニューラルネットワークを再訓練するために、眼画像を収集する一実施形態を図式的に図示する。いくつかの実施形態では、NN108は、最初に、あるクラスとして、全般的ユーザの眼移動を追跡するように訓練されることができる。例えば、NN108は、最初に、ARD製造業者によって、多くの方向を見ている多くの個人を含む、訓練セット上で訓練されることができる。本明細書に開示されるシステムおよび方法は、NN108を再訓練し、再訓練されたNN124を生成することによって、特定のユーザ(または5人または10人のユーザ等のユーザのグループ)の場合に関するNN108の性能を改良することができる。例えば、NN108を含む、ARD104の製造業者は、いったん製造および流通されると、ARD104を購入するであろう人物について把握し得ない。
代替信号(例えば、UIイベントの発生)は、ユーザの片眼または両眼が既知の標的(例えば、仮想UIデバイス)を注視していることが観察され得る、特定の状況存在することを示すことができる。代替信号は、NN104を再訓練し、再訓練されたNN124(本明細書では、精緻化されたNN、向上されたNN、または個人化されたNNとも称される)を生成するために、再訓練セット(本明細書では、第2の訓練セット、精緻化されたセット、または個人化されたセットとも称される)を生成するために使用されることができる。代替として、または加えて、品質メトリックが、再訓練セットが再訓練するための十分な網羅範囲を有することを決定するために使用されることができる。
いったん収集されると、NN108は、再訓練、精緻化、向上、または個人化されることができる。例えば、ARD104は、UIイベントが生じると、1人以上のユーザの眼画像112を捕捉することができる。ARD104は、眼画像112および仮想UIデバイス116の場所をネットワーク(例えば、インターネット)を経由してNN再訓練システム120に伝送することができる。NN再訓練システム120は、NN108を再訓練し、再訓練されたNN124を生成するために、再訓練セットを生成することができる。再訓練セットは、特定の数のデータ点を含むことができる。いくつかの実装では、NN108を再訓練することは、再訓練されたNN124をオリジナル訓練セット(例えば、精緻化または個人化されていない訓練セット)から学習された加重で初期化し、次いで、再訓練セットのみまたは再訓練セットおよびオリジナル訓練セットの集合要素の一部または全部の組み合わせを使用して、訓練プロセスを繰り返すことを含むことができる。
有利には、再訓練されたNN124は、より一般的程度からユーザの特定のインスタンスに対して部分的に特殊な程度へと適合されることができる。再訓練プロセスが完了した後のNN124は、再訓練されたNN124、精緻化されたNN124、向上されたNN124、または個人化されたNN124と称され得る。別の実施例として、いったんARD104が、単一ユーザ(またはその識別が、例えば、バイオメトリックシグネチャまたはログイン識別子(ID)によってランタイム時に区別可能であり得る、複数のユーザ)の所有物となると、再訓練されたセットは、UIイベントの間、眼の画像を捕捉し、それらの画像を関連付けられた仮想UIデバイスの場所に割り当てることによって、そのユー
ザのために構成されることができる。いったん再訓練セットの十分な数のデータ点が収集されると、NN108は、次いで、再訓練セットを使用して、再訓練または精緻化されることができる。本プロセスは、繰り返される場合とそうではない場合がある。
再訓練されたNN124は、改良された性能(例えば、より高い正確度)を伴って、ユーザの片眼または両眼(例えば、ユーザの眼の指示方向)の眼姿勢(例えば、視線方向)を決定するために使用されることができ、これは、より良好なユーザ体験をもたらし得る。再訓練されたNN124は、再訓練されたNN124をNN再訓練システム120から受信し得る、ディスプレイ(ARD104、VRD、MRD、または別のデバイス等)によって実装されることができる。例えば、視線追跡は、コンピュータ、タブレット、またはモバイルデバイス(例えば、携帯電話)のユーザのために再訓練されたNN124を使用して実施され、ユーザが見ているコンピュータ画面の場所を決定することができる。NN124の他の使用は、ユーザ体験(UX)研究、UIインターフェース制御、またはセキュリティ特徴を含む。NN124は、各眼の視線方向を決定するために、ユーザの眼のデジタルカメラ画像を受信する。各眼の視線方向は、ユーザの視線の輻輳・開散運動を決定する、またはユーザの両眼の両方が向いている3次元(3D)空間内の点を位置特定するために使用されることができる。
ARD104のコンテキストにおける視線追跡に関して、再訓練されたNN124の使用は、代替信号の特定の選択肢(例えば、スタイラスを使用した仮想ボタンの押下等のUIイベントの発生)を要求し得る。ディスプレイであることに加え、ARD104(またはMRDまたはVRD)は、入力デバイスでもあることができる。そのようなデバイスのための非限定的例示的入力モードは、ジェスチャ(例えば、手のジェスチャ)、またはポインタ、スタイラス、または別の物理的オブジェクトを利用する運動を含む。手のジェスチャは、手をある方向に向ける等のユーザの手の運動を伴うことができる。運動は、タッチ、押下、解放、上/下または左/右への摺動、軌道に沿った移動、または3D空間内の他のタイプの移動を含むことができる。いくつかの実装では、仮想ボタンまたはスライダ等の仮想ユーザインターフェース(UI)デバイスは、ユーザによって知覚される仮想環境内に現れることができる。これらの仮想UIデバイスは、2次元(2D)または3次元(3D)ウィンドウ、アイコン、メニュー、ポインタ(WIMP)UIデバイス(例えば、Windows(登録商標)、iOSTM、またはAndroidTMオペレーティングシステム内に現れるもの)に類似することができる。これらの仮想UIデバイスの実施例は、仮想ボタン、アップダウン、スピナー、ピッカー、ラジオボタン、ラジオボタンリスト、チェックボックス、ピクチャボックス、チェックボックスリスト、ドロップダウンリスト、ドロップダウンメニュー、選択リスト、リストボックス、コンボボックス、テキストボックス、スライダ、リンク、キーボードキー、スイッチ、スライダ、タッチ表面、またはそれらの組み合わせを含む。
そのようなWIMPインターフェースの特徴は、ポインタとUIデバイスを整合させる際に関わる視覚運動課題を含む。ポインタは、指またはスタイラスであることができる。ポインタは、マウス、トラックボール、ジョイスティック、ゲームコントローラ(例えば、5方向D-パッド)、ワンド、またはトーテムの別個の運動を使用して移動されることができる。ユーザは、UIデバイスと相互作用(例えば、マウス「クリック」)する直前およびその間、その視線をUIデバイス上に固定し得る。同様に、ARD104のユーザは、仮想UIデバイスと相互作用する(例えば、仮想ボタンをクリックする)直前およびその間、その視線を仮想UIデバイス上に固定し得る。UIイベントは、ユーザと仮想UIデバイス(例えば、WIMP状UIデバイス)との間の相互作用を含むことができ、これは、代替信号として使用されることができる。再訓練セットの集合要素は、UIイベントに関連することができる。例えば、集合要素は、ユーザの眼の画像と、仮想UIデバイスの場所(例えば、ARD104のディスプレイ上の仮想UIデバイスの表示場所)とを
含有することができる。別の実施例として、再訓練セットの集合要素は、ユーザの各眼の画像と、仮想UIデバイスの1つ以上の場所(例えば、ARD104は、2つのディスプレイを含むことができ、仮想UIデバイスは、ディスプレイ上の2つの異なる場所に表示されることができる)とを含有することができる。集合要素は、加えて、UIイベント(例えば、WIMP「クリック」イベント)の正確な場所等の補助情報を含むことができる。UIイベントの場所は、仮想UIデバイスの場所と明確に異なり得る。UIイベントの場所は、UIイベントが生じるときに仮想UIデバイス上に位置するポインタ(例えば、指またはスタイラス)の場所であることができ、これは、仮想UIデバイスの場所と明確に異なり得る。
再訓練されたNN124は、視線追跡のために使用されることができる。いくつかの実施形態では、再訓練されたNN124は、カテゴリ別のデータの再訓練セットを使用して再訓練されることができる。カテゴリデータは、イベントの複数のサブクラス(例えば、仮想ボタンのアクティブ化)を表すが、それらのサブクラスが区別され得ない、データであることができる。これらのサブクラス自体は、より小さいカテゴリまたは個々のもの(例えば、仮想ボタンのクリックまたは仮想ボタンのタッチ)のカテゴリであることができる。ARD104は、保定されたNN124を実装することができる。例えば、カメラが、ユーザの眼の画像を捕捉するように、ARD104上に位置することができる。再訓練されたNN104は、ユーザの眼が合焦される、3次元空間内の点(例えば、輻輳・開散運動点)を決定するために使用されることができる。
いくつかの実施形態では、眼画像112は、ユーザがシステムに対する既知の場所を伴う任意の物理的または仮想オブジェクトと相互作用すると、捕捉されることができる。例えば、UIイベントは、ユーザがモバイルデバイス(例えば、携帯電話またはタブレットコンピュータ)上に表示されるUIデバイス(例えば、ボタン、またはArUcoパターン)をアクティブ化する(例えば、クリックまたはタッチする)と、生じることができる。モバイルデバイスの座標系内のUIデバイスの場所は、UIデバイスがその場所に表示されることに先立って、モバイルデバイスによって決定されることができる。モバイルデバイスは、ユーザがUIデバイスをアクティブ化するときのUIデバイスの場所と、アクティブ化のタイミングとを、ARD104に伝送することができる。ARD104は、ARD104の外向きに向いた結像システム(図13を参照して説明される外向きに向いた結像システム1354等)によって捕捉されたユーザの環境の画像を使用して決定され得る、ユーザの世界座標系内のモバイルデバイスの場所を決定することができる。世界座標系内のUIデバイスの場所は、ユーザの世界座標系内のモバイルデバイスの場所と、モバイルデバイスの座標系内のUIデバイスの場所とを使用して、決定されることができる。そのようなアクティブ化が生じるときのユーザの眼画像は、アクティブ化のタイミングを使用して、ARD104の画像バッファから読み出されることができる。ARD104は、世界座標系内のUIデバイスの場所を使用して、ユーザの眼の視線方向を決定することができる。
再訓練セットまたは精緻化されたセットは、バイオメトリックまたは虹彩識別等の他の用途を有することができる。例えば、虹彩合致等のバイオメトリック識別のためのNN(例えば、DNN)は、バイオメトリック識別のために再訓練されたNNを生成するように再訓練されることができる。NNは、虹彩のベクトル空間表現の構築のために、トリプレットネットワークアーキテクチャを有することができる。訓練セットは、多くの虹彩画像を含むことができるが、必ずしも、ARD104を使用しているユーザの眼の虹彩任意の画像ではない。再訓練セットは、ユーザがARD104を使用しているときに生成されることができる。再訓練用眼画像または虹彩画像は、UIイベントが生じると、捕捉されることができる。加えて、または代替として、再訓練用眼画像または虹彩画像は、パスワードまたはPINの打ち込み等の他の種類の識別イベントに伴って捕捉されることができる
。いくつかの実施形態では、セッションの間のユーザの一部または全部の眼画像(またはユーザに関連する他のデータ)が、再訓練セットに追加されることができる。セッションは、識別(ID)検証(例えば、虹彩識別による)またはある他のイベント(例えば、パスワードまたは個人識別番号(PIN)の打ち込み)とARD104が任意の信頼性がある手段によってARD104がユーザから除去されたことを検出した瞬間との間の時間周期を指し得る。再訓練セットは、セッション内で捕捉された眼の画像の一部または全部またはセッション開始時に捕捉された眼画像を含むことができる。
(眼画像を収集し、眼追跡のためのニューラルネットワークを再訓練する、例示的方法)
図3は、眼画像を収集または捕捉し、収集された眼画像を使用して、ニューラルネットワークを再訓練する、例証的方法300のフロー図を示す。ARDは、UIイベントが生じると、ユーザの眼画像を捕捉することができる。例えば、図1におけるARD104は、ユーザインターフェース(UI)イベントが生じると、ユーザの図1における眼画像112または図2における眼200の画像を捕捉することができる。システムは、捕捉された眼画像と、UIイベントが生じるときの仮想UIデバイスの場所とを使用して、NNを再訓練し、再訓練されたNNを生成することができる。例えば、図1におけるNN再訓練システム120は、捕捉された眼画像112と、UIイベントが生じ、眼画像112が捕捉されたときの仮想UIデバイス116の場所とを使用して、NN108を再訓練し、再訓練されたNN124を生成することができる。
ブロック304では、眼追跡のためのニューラルネットワークは、随意に、訓練用入力データと、対応する訓練用標的出力データとを含む、訓練セットを使用して、訓練されることができる。ARDの製造業者は、NNを訓練することができる。訓練用入力データは、複数のユーザの複数の訓練用眼画像を含むことができる。対応する訓練用標的出力データは、複数のユーザの眼の眼姿勢を複数の訓練用眼画像内に含むことができる。複数のユーザは、多数のユーザを含むことができる。例えば、眼の眼姿勢は、眼の多様な眼姿勢を含むことができる。NNを訓練するプロセスは、ネットワークに、訓練セットの入力データおよび対応する標的出力データの両方を提示することを伴う。訓練プロセスを通して、ネットワークの加重は、ネットワークの出力が、訓練セットからの特定の入力データを前提として、その特定の入力データに対応する標的出力に合致するようになる(例えば、可能な限り、望ましい限り、または実践的である限り、近似して)ように、漸次的または反復的に適合されることができる。いくつかの実施形態では、眼追跡のためのニューラルネットワークは、ニューラルネットワークが訓練された後、受信される。
ブロック308では、ユーザの眼の複数の再訓練用眼画像が、受信されることができる。ARDの内向きに向いた結像システム(例えば、図13における内向きに向いた結像システム1352)が、ユーザの眼の複数の再訓練用眼画像を捕捉することができる。ARDは、複数の再訓練用眼画像をNN再訓練システム(例えば、図1におけるNN再訓練システム120)に伝送することができる。複数の再訓練用眼画像の再訓練用眼画像は、ある表示場所においてユーザに示される仮想UIデバイス(例えば、仮想ボタン)に対するUIイベント(例えば、アクティブ化または非アクティブ化)が生じると、捕捉されることができる。いくつかの実装では、ユーザの複数の再訓練用眼画像を受信するステップは、ディスプレイ(例えば、図11におけるウェアラブルディスプレイシステム1100のディスプレイ1108)を使用して、仮想UIデバイスをその表示場所においてユーザに表示するステップを含むことができる。仮想UIデバイスを表示後、仮想UIデバイスに対するUIイベントの発生が、決定されることができ、再訓練用眼画像が、結像システム(例えば、図13における内向きに向いた結像システム1352)を使用して、捕捉されることができる。
いくつかの実施形態では、ユーザの複数の再訓練用眼画像を受信するステップはさらに
、再訓練用眼画像内の眼の眼姿勢を決定するステップを含むことができる。例えば、再訓練用眼画像内の眼の眼姿勢は、仮想UIデバイスの表示場所であることができる、または仮想UIデバイスの表示場所を使用して決定されることができる。眼の眼姿勢を決定するステップは、仮想UIデバイスの表示場所、眼の場所、またはそれらの組み合わせを使用して、眼の眼姿勢を決定するステップを含むことができる。例えば、眼の眼姿勢は、仮想UIデバイスの表示場所と眼の場所との間に形成されるベクトルによって表されることができる。
UIイベントは、仮想UIデバイスの複数の状態のうちのある状態に対応し得る。複数の状態は、仮想UIデバイスのアクティブ化、非アクティブ化、またはそれらの組み合わせ(例えば、非アクティブ化からアクティブ化への遷移、アクティブ化から非アクティブ化への遷移、またはアクティブ化解除)を備えることができる。アクティブ化は、タッチ、押下、解放、上/下または左/右への摺動、軌道に沿った移動、または3D空間内の他のタイプの移動を含むことができる。仮想UIデバイスは、ArUco、ボタン、アップダウン、スピナー、ピッカー、ラジオボタン、ラジオボタンリスト、チェックボックス、ピクチャボックス、チェックボックスリスト、ドロップダウンリスト、ドロップダウンメニュー、選択リスト、リストボックス、コンボボックス、テキストボックス、スライダ、リンク、キーボードキー、スイッチ、スライダ、タッチ表面、またはそれらの組み合わせを含むことができる。いくつかの実施形態では、UIイベントは、仮想UIデバイスおよびポインタに対して生じる。ポインタは、ユーザと関連付けられたオブジェクト(例えば、ポインタ、ペン、鉛筆、マーカ、ハイライター)またはユーザの一部(例えば、ユーザの指または指先)を含むことができる。
ブロック312では、再訓練用入力データと、対応する再訓練用標的出力データとを含む、再訓練セットが、生成されることができる。例えば、図1におけるARD104またはNN再訓練システム120が、再訓練セットを生成することができる。再訓練用入力データは、再訓練用眼画像を含むことができる。対応する再訓練用標的出力データは、表示場所に関連する再訓練用眼画像内のユーザの眼の眼姿勢を含むことができる。再訓練セットの再訓練用入力データは、図3におけるブロック304を参照して説明される、複数の訓練用眼画像の0枚、1枚、またはそれを上回る訓練用眼画像を含むことができる。
ブロック316では、眼追跡のためのニューラルネットワークは、再訓練セットを使用して再訓練され、再訓練されたニューラルネットワークを生成することができる。例えば、NN再訓練システム120が、NNを再訓練することができる。NNを再訓練するプロセスは、NNに、再訓練セットの再訓練用入力データおよび対応する再訓練用標的出力データの両方を提示することを伴う。再訓練プロセスを通して、ネットワークの加重は、NNの出力が、再訓練セットからの特定の入力データを前提として、その特定の再訓練用入力データに対応する再訓練用標的出力に合致するようになる(例えば、可能な限り、実践的である限り、または望ましい限り、近似して)ように、漸次的または反復的に適合されることができる。いくつかの実施形態では、眼追跡のためのニューラルネットワークを再訓練するステップは、図3におけるブロック304を参照して説明される、再訓練されるニューラルネットワークの加重をオリジナルニューラルネットワークの加重で初期化するステップを含むことができ、これは、有利には、減少された訓練時間および再訓練されたNNの改良された性能(例えば、正確度、誤検出レート、または未検出レート)をもたらすことができる。
ブロック320では、ユーザの眼画像が、随意に、受信されることができる。例えば、図13におけるウェアラブルディスプレイシステム13の内向きに向いた結像システム1352が、ユーザの眼画像を捕捉することができる。ブロック324では、眼画像内のユーザの眼姿勢が、随意に、再訓練されたニューラルネットワークを使用して決定されるこ
とができる。例えば、図11におけるウェアラブルディスプレイ1100のローカル処理モジュール1124または遠隔処理モジュール1128は、再訓練されたNNを実装することができ、再訓練されたNNを使用して、内向きに向いた結像システムによって捕捉された眼画像内のユーザの眼姿勢を決定することができる。
(異なる眼姿勢を伴う、例示的眼画像)
ユーザが、その眼をユーザインターフェース(UI)デバイスに向けるとき、眼は、デバイス上のある特定の場所に正確に向いていない場合がある。例えば、一部のユーザは、その眼を仮想UIデバイスの正確な中心に向け得る。別の実施例として、他のユーザは、その眼を仮想UIデバイスの角(例えば、最も近い角)に向け得る。さらに別の実施例として、一部のユーザは、その眼を仮想UIデバイスのある予測不能領域(例えば、ボタン上のテキスト内の文字の一部)等の仮想UIデバイスのある他の部分上に固定させ得る。本明細書に開示されるシステムおよび方法は、中心指示をとらずに生成される再訓練セットを用いて、NNを再訓練することができる。
図4は、異なる眼姿勢を伴う眼画像を生成する、実施例を図示する。ARD104は、UIイベントが仮想UIデバイス412に対して生じると、内向きに向いたカメラシステムを使用して、眼404の片眼画像400aを捕捉することができる。ARD104は、仮想UIデバイス412をディスプレイ416の特定の場所に示すことができる。例えば、仮想UIデバイス412は、ディスプレイ416上の中心に位置することができる。眼404は、図4に図示されるように、指示方向408aを有することができる。しかしながら、ユーザは、その眼を仮想UIデバイス412の正確な中心または他の場所に向け得る。
図1におけるARD104およびNN再訓練システム120の一方または両方が、眼画像400aから、訓練用眼画像400b-400dのセットを自動的に生成することができる。訓練用眼画像のセットの眼画像400b-400dは、異なる指示方向408b-408dと、仮想UIデバイス412上の対応する異なる指示場所とを有することができる。いくつかの実施形態では、自動的に生成された眼画像400b-400dおよびこれらの眼画像400b-400dを生成するために使用される捕捉された眼画像400aは、同じであることができる。捕捉および生成された眼画像400a-400dは、指示方向408a-408dと関連付けられることができる。訓練用眼画像のセットは、捕捉された眼画像400aと、生成された眼画像400b-400dとを含むことができる。指示場所、したがって、指示方向408b-408dは、既知または算出された確率分布関数からランダムに生成されることができる。確率分布関数の一実施例は、仮想UIデバイス412の中心点の周囲のガウス分布である。他の分布も、可能性として考えられる。例えば、分布は、経験、観察、または実験から学習されることができる。
図5は、テキスト説明とともに表示される仮想UIデバイスに関する異なる指示方向を伴う眼画像を生成するための確率分布を算出する、実施例を図示する。仮想UIデバイス500は、2つ以上のコンポーネントを含むことができる。例えば、仮想UIデバイス500は、グラフィカルコンポーネント504aと、グラフィカルコンポーネント504aを説明する、テキストコンポーネント504bとを含むことができる。2つのコンポーネント504a、504bは、重複することができる。グラフィカルコンポーネント504aは、第1の確率分布関数508aと関連付けられることができる。テキストコンポーネント504bは、第2の確率分布関数508bと関連付けられることができる。例えば、仮想UIデバイス内または上のテキストは、テキスト自体を横断してある確率およびある分布を伴って、視線を引き付け得る。仮想UIデバイス500は、2つの確率分布関数508a、508bの算出または組み合わせられた確率分布関数と関連付けられることができる。例えば、全体としてのボタンに関する確率分布関数は、ボタンのグラフィカルおよ
びテキストコンポーネントの確率分布関数をまとめることによって決定されることができる。
(例示的密度正規化)
ARDのディスプレイは、異なる眼姿勢領域に対応する、複数の領域を含むことができる。例えば、ディスプレイ(例えば、図11における頭部搭載型ディスプレイシステム1100のディスプレイ1108)は、いくつかの眼姿勢領域(例えば、2、3、4、5、6、9、12、18、24、36、49、64、128、256、1,000、またはそれを上回る)と関連付けられることができる。図6は、異なる眼姿勢領域に対応するディスプレイのいくつかの領域を伴う、拡張現実デバイスの例示的ディスプレイ600を図示する。ディスプレイ600は、25の領域604r11-604r55を含む。ディスプレイ600および眼姿勢領域は、同一または異なるサイズまたは形状(長方形、正方形、円形、三角形、卵形、または菱形等)を有することができる。眼姿勢領域は、その眼姿勢領域を装着者の眼姿勢の角度空間の観点から規定する、2次元実座標空間

または2次元正整数座標空間

の接続されたサブセットと見なされ得る。例えば、眼姿勢領域は、方位角偏向(基点方位角から測定される)における特定のθminと特定のθmaxとの間および天頂偏向(極性偏向とも称される)における特定のφminと特定のφmaxとの間にあることができる。
仮想UIデバイスは、ディスプレイ600を中心として均一に分散されなくてもよい。例えば、ディスプレイ600の周縁(例えば、極縁)(例えば、ディスプレイ領域604r11-604r15、604r21、604r25、604r31、604r35、604r41、604r45、または604r51-604r55)におけるUI要素は、稀であり得る。仮想UIデバイスが、ディスプレイ600の縁に現れるとき、ユーザは、ARDのコンテキストでは、UIデバイスと相互作用する前に、その頭部を回転させ、仮想UIデバイスを中心(例えば、ディスプレイ領域604r33)にもたらし得る。密度における本相違のため、再訓練セットは、ディスプレイ600の中心領域(例えば、ディスプレイ領域604r22-604r24、604r32-604r34、または604r42-604r44)における追跡を改良することができる場合でも、周縁の近傍の追跡性能もさらに、改良されることができる。
本明細書に開示されるシステムおよび方法は、再訓練セットの集合要素の密度を角度空間内でより均一にするような様式において、再訓練セットを生成することができる。より高い密度領域内の点は、再訓練セットを角度空間内でより均一にするように、より低い確率で再訓練セットの中に意図的に含まれることができる。例えば、UIイベントが生じるときの仮想UIデバイスの場所が、収集されることができ、そのような仮想UIデバイスの密度分布が、決定されることができる。これは、例えば、天頂および方位角が、有限数のビンに「ビニング」され、イベントが、各ビン内でカウントされる、角度空間内のヒストグラムの生成によって行われることができる。ビンは、対称化されることができる(例えば、ディスプレイ領域は、角度空間の1/2または1/4のみに投影されることができる)。例えば、ディスプレイ領域604r51-604r55は、ディスプレイ領域604r11-604r15の中に投影されることができる。別の実施例として、ディスプレイ領域604r15、604r51、604r55は、ディスプレイ領域604r11の
中に投影されることができる。
いったん本ヒストグラムが算出されると、UIイベントが生じるときに捕捉された眼画像が、確率pを用いて、精緻化されたセットの中に追加されることができる。例えば、確率pは、下記の方程式[1]を使用して決定されることができる。

式中、q(θ,φ)は、方位角(θ)および天頂角度(φ)と関連付けられたビン内の任意の仮想UIデバイス(または特定の仮想UIデバイスまたは特定のタイプの仮想UIデバイス)の正規化された確率を示す。
(密度正規化の例示的方法)
図7は、ニューラルネットワークを再訓練するための眼画像を収集するときに観察される、UIイベントの密度正規化を実施する、例証的方法のフロー図を示す。ARDは、ユーザインターフェース(UI)イベントが生じると、ユーザの眼画像を捕捉することができる。例えば、図1におけるARD104は、ユーザインターフェースイベントが生じると、ユーザの眼画像112または図2における眼200の画像を捕捉することができる。再訓練セットが、ある表示場所における仮想UIデバイスに対するUIイベントが生じるときに捕捉された眼画像を含むかどうかは、ディスプレイの異なる領域または異なる眼姿勢領域内のUIデバイスの分布を使用して決定されることができる。図1におけるARD104またはNN再訓練システム120は、ディスプレイの異なる領域または眼姿勢領域内のUIデバイスの分布を使用して、再訓練セットを生成することができる。
ブロック704では、ユーザの複数の第1の再訓練用眼画像が、随意に、受信される。各眼画像は、第1の表示場所においてユーザに示される第1の仮想UIデバイスに対する第1のUIイベントが生じると、例えば、ARDの内向きに向いた結像システムを使用して捕捉されることができる。例えば、眼画像は、ユーザが表示場所604r33に表示される仮想ボタンをアクティブ化すると、捕捉されることができる。異なるUIイベントと関連付けられた仮想UIデバイスは、ディスプレイ600の異なるディスプレイ領域604r11-604r55に表示されることができる。仮想UIデバイスのインスタンスは、ディスプレイ600の異なる領域604r11-604r55に表示されることができる。
ブロック708では、種々の眼姿勢またはディスプレイ領域内の第1のUIデバイスの第1の表示場所の分布が、随意に、決定されることができる。例えば、分布を決定するステップは、眼姿勢領域またはディスプレイ領域内の第1の複数の再訓練用眼画像が捕捉されるときにユーザに示されるUIデバイスの第1の表示場所の分布を決定するステップを含むことができる。UIデバイスの分布確率が第1の眼姿勢領域内にあることを決定するステップは、UIデバイスの表示場所の分布を使用して、UIデバイスの分布確率が第1の眼姿勢領域内にあることを決定するステップを含むことができる。分布は、1つのUIデバイスに対して決定されることができ、1つの分布は、1つ、2つ、またはそれを上回るUIデバイスに関して決定されることができる。いくつかの実施形態では、種々の眼姿勢またはディスプレイ領域内の第1のUIデバイスの第1の表示場所の分布が、受信されることができる。
ブロック712では、ユーザの第2の再訓練用眼画像が、受信されることができる。ユーザの第2の再訓練用眼画像は、第2の表示場所においてユーザに示される第2のUIデバイスに対する第2のUIイベントが生じると、捕捉されることができる。第1のUIデ
バイスおよび第2のUIデバイスは、同一または異なることができる(例えば、ボタンまたはスライダ)。第1のUIイベントおよび第2のUIイベントは、同一タイプまたは異なるタイプのUIイベント(例えば、クリックまたはタッチ)であることができる。
ブロック716では、第2のUIデバイスの第2の表示場所が眼姿勢領域またはディスプレイ領域内にある含有確率が、決定されることができる。例えば、第2のUIデバイスは、ディスプレイの周縁におけるディスプレイ領域(例えば、図6におけるディスプレイ領域604r11)に表示されることができる。第2のUIデバイスがディスプレイの周縁にある確率は、低くあり得る。
ブロック716では、再訓練セットの再訓練用入力データが、生成されることができる。再訓練セットは、ある含有確率において、再訓練用眼画像を含むことができる。含有確率は、分布確率に関連することができる。例えば、含有確率および分布確率は、反比例し得る。いくつかの実施形態では、ディスプレイ領域または眼姿勢領域は、対称化されることができる(例えば、ディスプレイ領域は、角度空間の1/2または1/4の中に投影されることができる)。例えば、ディスプレイ領域604r51-604r55は、ディスプレイ領域604r11-604r15の中に投影されることができる。別の実施例として、ディスプレイ領域604r15、604r51、604r55は、ディスプレイ領域604r11の中に投影されることができる。さらに別の実施例として、ディスプレイ600の片側上のディスプレイ領域604r15、604r14は、ディスプレイ600の他側上のディスプレイ領域604r11、604r12の中に投影されることができる。
(眼視線の例示的逆追跡)
ディスプレイエリアの縁の近傍のイベントは、稀であることが予期され得る。例えば、ARDのユーザは、物理的デバイスとの相互作用と同様に、仮想UIデバイスと相互作用する前に、その頭部をそれに向かって方向転換させる傾向にあり得る。UIイベントの時点で、仮想UIデバイスは、中心に位置することができる。しかしながら、ユーザは、本種類の頭部旋回の前およびその間、中心に位置しない仮想UIデバイスを固視する傾向を有し得る。本明細書に開示されるシステムおよび方法は、そのような頭部旋回をUIイベントから遡って追跡することによって、再訓練セットを生成することができる。
図8は、UIデバイスに対する眼姿勢(例えば、眼視線)の逆追跡の例示的例証を示す。ARD(例えば、図1におけるARD104)は、画像と、「頭部旋回」を捕捉するために十分な時間量(例えば、1秒)にわたって継続する、ARD運動とを記憶する、バッファを含むことができる。ディスプレイのある表示場所に示される仮想UIデバイス804に対するUIイベントが、生じ得る(例えば、時間=0において)。例えば、仮想UIデバイス804は、UIイベントが生じるとき、場所808aの中心に位置することができる。バッファが、運動(例えば、均一角運動)に関してチェックされることができる。例えば、ARDは、外向きに向いたカメラ(例えば、図13を参照して説明される外向きに向いた結像システム1354)を使用して捕捉されたユーザの環境の画像812a、812bをバッファ内に記憶することができる。図8に示されるように、ユーザの頭部は、左から右に旋回し、これは、ユーザの環境の画像812a、812b内の山816の相対的位置によって反映される。
均一角運動等の均一運動(または十分に均一な運動)が検出される場合、UIデバイス804は、その均一角運動に沿って遡って投影され、より早い時間(例えば、時間=-N)におけるUIデバイス804の投影された表示場所808pを決定することができる。投影された表示場所808pは、随意に、UIデバイス804が運動の開始時に視野内にあったことを検証するために使用されることができる。例えば、仮想UIデバイス804の投影された場所808pおよび場所808bが、比較されることができる。均一運動が
、検出され、視野内のデバイスから生じた可能性がある場合、検証が、NN(例えば、眼追跡のための訓練されたNN108)を使用して行われ、運動の間、ユーザの眼が運動に伴って平滑に掃引されていた(例えば、旋回の間、絶えず固視が何らかのもの上に存在しているかのように)ことを検証することができる。例えば、眼画像820a、820b内のユーザの眼824の運動が、訓練されたNNを使用して決定されることができる。そのような平滑掃引が決定される場合、ユーザは、最終的にアクティブ化または作動させる、仮想UIデバイスを固視していたと見なされ得る。再訓練セットは、再訓練用入力データと、対応する再訓練用標的出力データとを含むことができる。再訓練用入力データは、眼画像820a、820bを含むことができる。対応する再訓練用標的出力データは、UIイベント時の仮想UIデバイス804の場所と、仮想UIデバイスの投影された場所(例えば、投影された場所808p)とを含むことができる。
(眼視線の逆追跡の例示的方法)
図9は、UIデバイスに対する眼視線の逆追跡の例証的方法のフロー図を示す。ARD(例えば、図1におけるARD104)は、眼視線の逆追跡のための方法900を実施することができる。ブロック904では、ユーザの眼の複数の眼画像が、受信されることができる。例えば、図8におけるユーザの眼824の眼画像820a、820bが、受信されることができる。複数の眼画像の第1の眼画像が、第1の表示場所においてユーザに示されるUIデバイスに対するUIイベントが生じると、捕捉されることができる。例えば、図8に示されるように、眼画像820aは、表示場所808aにおける仮想UIデバイス804に対するUIイベントが生じると、捕捉される。
ブロック908では、UIデバイスの投影された表示場所が、決定されることができる。投影された表示場所は、第1の表示場所から、UIイベントに先立った運動に沿って遡って、運動の開始まで、決定されることができる。例えば、図8は、UIデバイス804の投影された表示場所808pが決定されることができることを示す。UIデバイス804の投影された表示場所808pは、時間=0における表示場所808aから、UIイベントに先立った運動に沿って遡って、時間=-Nにおける運動の開始まで、決定されることができる。運動は、角運動、均一運動、またはそれらの組み合わせを含むことができる。
ブロック912では、仮想UIデバイスの投影された表示場所808pおよび運動の開始時に捕捉された複数の眼画像の第2の眼画像内の仮想UIデバイスの第2の表示場所が閾値距離内にあるかどうかが、決定されることができる。図8は、投影された場所808pおよび時間=-Nにおける仮想UIデバイス804の運動の開始時の場所808bが、閾値内にあり得ることを図示する。閾値は、ピクセルの数(例えば、20、10、5、2、またはより少ないピクセル)、ARDのディスプレイのサイズのパーセンテージ(例えば、20%、15%、10%、5%、2%、またはそれより低い)、仮想UIデバイスのサイズのパーセンテージ(例えば、20%、15%、10%、5%、2%、またはそれより低い)、またはそれらの組み合わせであることができる。
ブロック916では、ユーザの眼が第2の眼画像から第1の眼画像までの複数の眼画像の眼画像内で運動に伴って平滑に移動したかどうかが、随意に、決定されることができる。眼824が、時間=-Nにおける運動の開始時に捕捉された眼画像820bおよび時間=0においてUIイベントが生じたときに捕捉された眼画像820aからの眼画像において、平滑に移動したかどうかが、決定されることができる。例えば、眼画像820bから眼画像820aまでの眼画像内の眼824の視線方向が、眼追跡のための訓練されたNNを使用して決定されることができる。
ブロック920では、第2の眼画像から第1の眼画像までの眼画像を含む、再訓練セッ
トが、生成されることができる。各眼画像は、UIデバイスの表示場所と関連付けられることができる。例えば、再訓練セットは、再訓練用入力データとして、時間=-Nにおける運動の開始時に捕捉された眼画像820bから時間=0においてUIイベントが生じたときに捕捉された眼画像820aまでの眼画像を含むことができる。再訓練セットは、対応する再訓練用標的出力データとして、表示場所808a、投影された場所808p、および表示場所808aと投影された場所808pとの間の投影された場所を含むことができる。
(例示的NN)
深層ニューラルネットワーク(DNN)等のニューラルネットワーク(NN)の層は、線形または非線形変換をその入力に適用し、その出力を生成することができる。深層ニューラルネットワーク層は、正規化層、畳み込み層、ソフトサイン層、正規化線形層、連結層、プーリング層、再帰層、インセプション様層、または任意のそれらの組み合わせであることができる。正規化層は、例えば、L2正規化を用いて、その入力の明度を正規化し、その出力を生成することができる。正規化層は、例えば、相互に対して一度に複数の画像の明度を正規化し、複数の正規化された画像をその出力として生成することができる。明度を正規化するための非限定的例示的方法は、ローカルコントラスト正規化(LCN)またはローカル応答正規化(LRN)を含む。ローカルコントラスト正規化は、平均値ゼロおよび分散1(または他の値の平均値および分散)を有するようにピクセル毎に画像のローカル領域を正規化することによって、画像のコントラストを非線形に正規化することができる。ローカル応答正規化は、平均値ゼロおよび分散1(または他の値の平均値および分散)を有するように、画像をローカル入力領域にわたって正規化することができる。正規化層は、訓練プロセスを加速させ得る。
畳み込み層は、その入力を畳み込み、その出力を生成する、カーネルのセットに適用されることができる。ソフトサイン層は、ソフトサイン関数をその入力に適用することができる。ソフトサイン関数(softsign(x))は、例えば、(x/(1+|x|))であることができる。ソフトサイン層は、要素毎誤対応の影響を無視し得る。正規化線形層は、正規化線形層単位(ReLU)またはパラメータ化された正規化線形層単位(PReLU)であることができる。ReLU層は、ReLU関数をその入力に適用し、その出力を生成することができる。ReLU関数ReLU(x)は、例えば、max(0,x)であることができる。PReLU層は、PReLU関数をその入力に適用し、その出力を生成することができる。PReLU関数PReLU(x)は、例えば、x≧0の場合はxおよびx<0の場合はaxであることができ、aは、正の数である。連結層は、その入力を連結し、その出力を生成することができる。例えば、連結層は、4つの5×5画像を連結し、1つの20×20画像を生成することができる。プーリング層は、その入力をダウンサンプリングし、その出力を生成する、プーリング関数を適用することができる。例えば、プーリング層は、20×20画像を10×10画像にダウンサンプリングすることができる。プーリング関数の非限定的実施例は、最大プーリング、平均プーリング、または最小プーリングを含む。
時間点tでは、再帰層は、隠蔽された状態s(t)を算出することができ、再帰接続は、時間tにおける隠蔽された状態s(t)を再帰層に後続時間点t+1における入力として提供することができる。再帰層は、時間tにおける隠蔽された状態s(t)に基づいて、時間t+1においてその出力を算出することができる。例えば、再帰層は、ソフトサイン関数を時間tにおいて隠蔽された状態s(t)に適用し、時間t+1におけるその出力を算出することができる。時間t+1における再帰層の隠蔽された状態は、その入力として、時間tにおける再帰層の隠蔽された状態s(t)を有する。再帰層は、例えば、ReLU関数をその入力に適用することによって、隠蔽された状態s(t+1)を算出することができる。インセプション様層は、正規化層、畳み込み層、ソフトサイン層、ReLU
層およびPReLU層等の正規化線形層、連結層、プーリング層、または任意のそれらの組み合わせのうちの1つ以上のものを含むことができる。
NN内の層の数は、異なる実装では異なり得る。例えば、DNN内の層の数は、50、100、200、またはそれを上回り得る。深層ニューラルネットワーク層の入力タイプは、異なる実装では異なり得る。例えば、層は、いくつかの層の出力をその入力として受信することができる。層の入力は、5つの層の出力を含むことができる。別の実施例として、層の入力は、NNの層の1%を含むことができる。層の出力は、いくつかの層の入力であることができる。例えば、層の出力は、5つの層の入力として使用されることができる。別の実施例として、層の出力は、NNの層の1%の入力として使用されることができる。
層の入力サイズまたは出力サイズは、非常に大きくあることができる。層の入力サイズまたは出力サイズは、n×mであることができ、nは、入力または出力の幅を示し、mは、高さを示す。例えば、nまたはmは、11、21、31、またはそれを上回ることができる。層の入力または出力のチャネルサイズは、異なる実装では異なり得る。例えば、層の入力または出力のチャネルサイズは、4、16、32、64、128、またはそれを上回ることができる。層のカーネルサイズは、異なる実装では異なり得る。例えば、カーネルサイズは、n×mであることができ、nは、カーネルの幅を示し、mは、高さを示す。例えば、nまたはmは、5、7、9、またはそれを上回ることができる。層のストライドサイズは、異なる実装では異なり得る。例えば、深層ニューラルネットワーク層のストライドサイズは、3、5、7、またはそれを上回ることができる。
いくつかの実施形態では、NNは、NNの出力をともに算出する、複数のNNを指し得る。複数のNNの異なるNNは、異なる、類似する、または同一タスクに関して訓練されることができる。例えば、複数のNNの異なるNNは、眼追跡のための異なる眼画像を使用して訓練されることができる。複数のNNの異なるNNを使用して決定された眼画像内の眼の眼姿勢(例えば、視線方向)は、異なり得る。NNの出力は、複数のNNの異なるNNを使用して決定された眼姿勢の平均である、眼の眼姿勢であることができる。別の実施例として、複数のNNの異なるNNは、UIイベントが異なる表示場所におけるUIデバイスに対して生じるときに捕捉された眼画像内の眼の眼姿勢を決定するために使用されることができる(例えば、UIデバイスが中心に位置するときの1つのNNおよびUIデバイスがARDのディスプレイの周縁にあるときの1つのNN)。
(例示的拡張現実シナリオ)
現代のコンピューティングおよびディスプレイ技術は、いわゆる「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部が、それらが現実であるように見える、またはそのように知覚され得る様式において、ユーザに提示される。仮想現実「VR」シナリオは、典型的には、他の実際の実世界視覚的入力に対して透明性を伴わずに、デジタルまたは仮想画像情報の提示を伴う、拡張現実「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてデジタルまたは仮想画像情報の提示を伴う、または複合現実「MR」シナリオは、典型的には、実および仮想世界の融合を伴い、新しい環境を生成し、物理的および仮想オブジェクトが、共存し、リアルタイムで相互作用する。結論からいうと、ヒトの視知覚系は、非常に複雑であって、他の仮想または実世界画像要素間における仮想画像要素の快適で、自然のような感覚で、かつ豊かな提示を促進する、VR、AR、またはMRの生成は、困難である。本明細書に開示される、システムおよび方法は、VR、AR、およびMR技術に関連する種々の課題に対処する。
図10は、人物によって視認される、ある仮想現実オブジェクトおよびある実際の現実
オブジェクトを伴う、拡張現実シナリオの例証を描写する。図10は、拡張現実場面1000を描写し、AR技術のユーザには、人々、木々、背景における建物、およびコンクリートプラットフォーム1020を特徴とする、実世界公園状設定1010が見える。これらのアイテムに加え、AR技術のユーザはまた、実世界プラットフォーム1020上に立っているロボット像1030と、マルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタ1040(例えば、マルハナバチ)とが「見える」と知覚するが、これらの要素は、実世界には存在しない。
3次元(3D)ディスプレイが、深度の真の感覚、より具体的には、表面深度のシミュレートされた感覚を生成するために、ディスプレイの視野内の点毎に、その仮想深度に対応する遠近調節応答を生成することが望ましい。ディスプレイ点に対する遠近調節応答が、収束および立体視の両眼深度キューによって決定されるようなその点の仮想深度に対応しない場合、ヒトの眼は、遠近調節衝突を体験し、不安定な結像、有害な眼精疲労、頭痛、および遠近調節情報の不在下では、表面深度のほぼ完全な欠如をもたらし得る。
VR、AR、およびMR体験は、複数の深度平面に対応する画像が視認者に提供されるディスプレイを有する、ディスプレイシステムによって提供されることができる。画像は、深度平面毎に異なってもよく(例えば、場面またはオブジェクトの若干異なる提示を提供する)、視認者の眼によって別個に集束され、それによって、異なる深度平面上に位置する場面に関する異なる画像特徴に合焦させるために要求される眼の遠近調節に基づいて、および/または合焦からずれている異なる深度平面上の異なる画像特徴を観察することに基づいて、ユーザに深度キューを提供することに役立ち得る。本明細書のいずれかに議論されるように、そのような深度キューは、深度の真実味のある知覚を提供する。VR、AR、およびMR体験を生成または向上させるために、ディスプレイシステムは、バイオメトリック情報を使用して、それらの体験を向上させることができる。
(例示的ウェアラブルディスプレイシステム)
図11は、VR、AR、またはMR体験をディスプレイシステム装着者または視認者1104に提示するために使用され得る、ウェアラブルディスプレイシステム1100の実施例を図示する。ウェアラブルディスプレイシステム1100は、本明細書に説明される用途または実施例のいずれかを実施するようにプログラムされてもよい。ディスプレイシステム1100は、ディスプレイ1108と、ディスプレイ1108の機能をサポートするための種々の機械的および電子的モジュールおよびシステムとを含む。ディスプレイ1108は、ディスプレイシステムユーザ、装着者、または視認者1104によって装着可能であって、ディスプレイ1108を装着者1104の眼の正面に位置付けるように構成される、フレーム1112に結合されてもよい。ディスプレイ1108は、ライトフィールドディスプレイであってもよい。いくつかの実施形態では、スピーカ1116が、フレーム1112に結合され、ユーザの外耳道に隣接して位置付けられる。いくつかの実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音制御を提供する。ディスプレイ1108は、有線導線または無線コネクティビティ等によって、フレーム1112に固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホンに内蔵される、または別様にユーザ1104に除去可能に取り付けられる(例えば、リュック式構成において、ベルト結合式構成において)等、種々の構成において搭載され得る、ローカルデータ処理モジュール1124に動作可能に結合される1120。
フレーム1112は、フレーム1112に取り付けられ、または搭載され、装着者の眼の画像を得る、1つ以上のカメラを有することができる。一実施形態では、カメラは、眼が直接結像され得るように、装着者の眼の正面においてフレーム1112に搭載されてもよい。他の実施形態では、カメラは、フレーム1112の支えに沿って(例えば、装着者
の耳の近傍に)搭載されることができる。そのような実施形態では、ディスプレイ1108は、光を装着者の眼からカメラに向かって反射させる、材料でコーティングされてもよい。光は、虹彩特徴が赤外線画像内で顕著であるため、赤外線光であってもよい。
ローカル処理およびデータモジュール1124は、ハードウェアプロセッサおよび不揮発性メモリ(例えば、フラッシュメモリ)等の非一過性デジタルメモリを備えてもよく、その両方とも、データの処理、キャッシュ、および記憶を補助するために利用され得る。データは、(a)センサ(例えば、フレーム1112に動作可能に結合される、または別様にユーザ1104に取り付けられ得る)、例えば、画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープから捕捉される、および/または(b)可能性として、処理または読出後にディスプレイ1108への通過のために、遠隔処理モジュール1128および/または遠隔データリポジトリ1132を使用して入手および/または処理されるデータを含んでもよい。ローカル処理およびデータモジュール1124は、これらの遠隔モジュール1128、1132が、ローカル処理およびデータモジュール1124へのリソースとして利用可能であるように、有線または無線通信リンク等を介して、通信リンク1136および/または1140によって、遠隔処理モジュール1128および/または遠隔データリポジトリ1132に動作可能に結合されてもよい。画像補足デバイスは、眼画像処理プロシージャにおいて使用される眼画像を捕捉するために使用されることができる。加えて、遠隔処理モジュール1128および遠隔データリポジトリ1132は、相互に動作可能に結合されてもよい。
いくつかの実施形態では、遠隔処理モジュール1128は、画像捕捉デバイスによって捕捉されたビデオ情報等のデータおよび/または画像情報を分析および処理するように構成される、1つまたはそれを上回るプロセッサを備えてもよい。ビデオデータは、ローカル処理およびデータモジュール1124および/または遠隔データリポジトリ1132内でローカルに記憶されてもよい。いくつかの実施形態では、遠隔データリポジトリ1132は、デジタルデータ記憶設備を備えてもよく、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。いくつかの実施形態では、全てのデータは、記憶され、全ての算出は、ローカル処理およびデータモジュール1124において実施され、任意の遠隔モジュールからの完全に自律的な使用を可能にする。
いくつかの実装では、ローカル処理およびデータモジュール1124および/または遠隔処理モジュール1128は、本明細書に説明されるシステムおよび方法の実施形態(例えば、図1-9を参照して説明されるようなニューラルネットワーク訓練または再訓練技法)を行うようにプログラムされる。画像捕捉デバイスは、特定の用途のためのビデオ(例えば、眼追跡用途のための装着者の眼のビデオまたはジェスチャ識別用途のための装着者の手または指のビデオ)を捕捉することができる。ビデオは、処理モジュール1124、1128の一方または両方によって、分析されることができる。ある場合には、虹彩コード生成の少なくともいくつかを遠隔処理モジュール(例えば、「クラウド」内の)にオフロードすることは、算出の効率または速度を改良し得る。本明細書に開示されるシステムおよび方法のパラメータは、データモジュール1124および/または1128内に記憶されることができる。
分析の結果は、付加的動作または処理のために、処理モジュール1124、1128の一方または両方によって使用されることができる。例えば、種々の用途では、バイオメトリック識別、眼追跡、認識、またはジェスチャ、オブジェクト、姿勢等の分類が、ウェアラブルディスプレイシステム1100によって使用されてもよい。例えば、ウェアラブルディスプレイシステム1100は、装着者1104の手の捕捉されたビデオを分析し、装
着者の手によるジェスチャ(例えば、実または仮想オブジェクトの取上、賛成または反対の信号伝達(例えば、「親指を上に向ける」または「親指を下に向ける」)等)、およびウェアラブルディスプレイシステムを認識してもよい。
いくつかの実施形態では、ローカル処理モジュール1124、遠隔処理モジュール1128、およびクラウド上のシステム(例えば、図1におけるNN再訓練システム120)は、本明細書に開示される方法の一部または全部を実施することができる。例えば、ローカル処理モジュール1124は、内向きに向いた結像システム(例えば、図13における内向きに向いた結像システム1352)によって捕捉されたユーザの眼画像を取得することができる。ローカル処理モジュール1124、遠隔処理モジュール1128、およびクラウド上のシステムは、再訓練セットを生成し、ニューラルネットワーク(NN)を再訓練し、特定のユーザに関する眼追跡のための再訓練されたNNを生成するプロセスを実施することができる。例えば、クラウド上のシステムは、ローカル処理モジュール1124によって生成された再訓練セットを用いて、NNを再訓練するプロセス全体を実施することができる。別の実施例として、遠隔処理モジュール1128は、確率分布関数を使用して片眼画像からの異なる眼姿勢を伴う眼画像を生成するプロセスを実施することができる。さらに別の実施例として、ローカル処理モジュール1128は、NNを再訓練するための眼画像を収集するときに観察されるUIイベントの密度正規化のために、図7を参照して上記に説明される方法700を実施することができる。
ヒト視覚系は、複雑であって、深度の現実的知覚を提供することは、困難である。理論によって限定されるわけではないが、オブジェクトの視認者は、輻輳・開散運動移動(vergence)と遠近調節(accmmodation)の組み合わせに起因して、オブジェクトを3次元として知覚し得ると考えられる。相互に対する2つの眼の輻輳・開散運動移動(例えば、瞳孔が、相互に向かって、またはそこから離れるように移動し、眼の視線を収束させ、オブジェクトを固視するような瞳孔の回転)は、眼の水晶体の合焦(または「遠近調節」)と緊密に関連付けられる。通常条件下、焦点を1つのオブジェクトから異なる距離における別のオブジェクトに変化させるための眼のレンズの焦点の変化または眼の遠近調節は、「遠近調節-輻輳・開散運動反射」として知られる関係下、輻輳・開散運動の整合変化を自動的に同一距離に生じさせるであろう。同様に、輻輳・開散運動の変化は、通常条件下、遠近調節の整合変化を誘起するであろう。遠近調節と輻輳・開散運動との間のより良好な整合を提供するディスプレイシステムは、3次元画像のより現実的かつ快適なシミュレーションを形成し得る。
図12は、複数の深度平面を使用して3次元画像をシミュレートするためのアプローチの側面を図示する。図12を参照すると、z-軸上の眼1202および1204からの種々の距離におけるオブジェクトは、それらのオブジェクトが合焦するように、眼1202および1204によって遠近調節される。眼1202および1204は、特定の遠近調節された状態をとり、オブジェクトをz-軸に沿った異なる距離に合焦させる。その結果、特定の遠近調節された状態は、特定の深度平面におけるオブジェクトまたはオブジェクトの一部が、眼がその深度平面に対して遠近調節された状態にあるとき、合焦するように、関連付けられた焦点距離を有する、深度平面1206のうちの特定の1つと関連付けられると言え得る。いくつかの実施形態では、3次元画像は、眼1202および1204毎に、画像の異なる提示を提供することによって、また、深度平面のそれぞれに対応する画像の異なる提示を提供することによって、シミュレートされてもよい。例証を明確にするために、別個であるように示されるが、眼1202および1204の視野は、例えば、z-軸に沿った距離が増加するにつれて、重複し得ることを理解されたい。加えて、例証を容易にするために、平坦であるように示されるが、深度平面の輪郭は、深度平面内の全ての特徴が特定の遠近調節された状態における眼と合焦するように、物理的空間内で湾曲され得ることを理解されたい。理論によって限定されるわけではないが、ヒトの眼は、典型的
には、有限数の深度平面を解釈し、深度知覚を提供することができると考えられる。その結果、知覚された深度の高度に真実味のあるシミュレーションが、眼にこれらの限定数の深度平面のそれぞれに対応する画像の異なる提示を提供することによって達成され得る。
(例示的導波管スタックアセンブリ)
図13は、画像情報をユーザに出力するための導波管スタックの実施例を図示する。ディスプレイシステム1300は、複数の導波管1320a-1320eを使用して、3次元知覚を眼1310または脳に提供するために利用され得る、導波管のスタックまたはスタックされた導波管アセンブリ1305を含む。いくつかの実施形態では、ディスプレイシステム1300は、図11のシステム1100に対応してもよく、図13は、そのシステム1100のいくつかの部分をより詳細に図式的に示す。例えば、いくつかの実施形態では、導波管アセンブリ1305は、図11のディスプレイ1108の中に統合されてもよい。
図13を継続して参照すると、導波管アセンブリ1305はまた、複数の特徴1330a-1330dを導波管の間に含んでもよい。いくつかの実施形態では、特徴1330a-1330dは、レンズであってもよい。いくつかの実施形態では、特徴1330a-1330dは、レンズではなくてもよい。むしろ、それらは、スペーサであってもよい(例えば、空気間隙を形成するためのクラッディング層および/または構造)。
導波管1320a-1320eおよび/または複数のレンズ1330a-1330dは、種々のレベルの波面曲率または光線発散を伴って、画像情報を眼に送信するように構成されてもよい。各導波管レベルは、特定の深度平面と関連付けられてもよく、その深度平面に対応する画像情報を出力するように構成されてもよい。画像投入デバイス1340a-1340eは、それぞれ、眼1310に向かって出力のために各個別の導波管を横断して入射光を分散させるように構成され得る、導波管1320a-1320eの中に画像情報を投入するために利用されてもよい。光は、画像投入デバイス1340a-1340eの出力表面から出射し、導波管1320a-1320eの対応する入力縁の中に投入される。いくつかの実施形態では、光の単一ビーム(例えば、コリメートされたビーム)が、各導波管の中に投入され、特定の導波管と関連付けられた深度平面に対応する特定の角度(および発散量)において眼1310に向かって指向される、クローン化されたコリメートビームの場全体を出力してもよい。
いくつかの実施形態では、画像投入デバイス1340a-1340eはそれぞれ、それぞれの対応する導波管1320a-1320eの中への投入のための画像情報を生成する、離散ディスプレイである。いくつかの他の実施形態では、画像投入デバイス1340a-1340eは、例えば、画像情報を1つ以上の光学導管(光ファイバケーブル等)を介して、画像投入デバイス1340a-1340eのそれぞれに送り得る、単一の多重化されたディスプレイの出力端である。
コントローラ1350が、スタックされた導波管アセンブリ1305および画像投入デバイス1340a-1340eの動作を制御する。いくつかの実施形態では、コントローラ1350は、導波管1320a-1320eへの画像情報のタイミングおよび提供を調整する、プログラミング(例えば、非一過性コンピュータ可読媒体内の命令)を含む。いくつかの実施形態では、コントローラ1350は、単一一体型デバイスまたは有線または無線通信チャネルによって接続される分散型システムであってもよい。コントローラ1350は、いくつかの実施形態では、処理モジュール1124および/または1128(図11に図示される)の一部であってもよい。いくつかの実施形態では、コントローラは、内向きに向いた結像システム1352(例えば、デジタルカメラ)、外向きに向いた結像システム1354(例えば、デジタルカメラ)、および/またはユーザ入力デバイス13
56と通信してもよい。内向きに向いた結像システム1352(例えば、デジタルカメラ)は、眼1310の画像を捕捉し、例えば、眼1310の瞳孔のサイズおよび/または配向を決定するために使用されることができる。外向きに向いた結像システム1354は、世界1358の一部を結像するために使用されることができる。ユーザは、ユーザ入力デバイス1356を介して、コマンドをコントローラ1350に入力し、ディスプレイシステム1300と相互作用することができる。
導波管1320a-1320eは、全内部反射(TIR)によって各個別の導波管内で光を伝搬するように構成されてもよい。導波管1320a-1320eはそれぞれ、主要な上部および底部表面およびそれらの主要上部表面と底部表面との間に延在する縁を伴う、平面である、または別の形状(例えば、湾曲)を有してもよい。図示される構成では、導波管1320a-1320eはそれぞれ、光を再指向させ、各個別の導波管内で伝搬させ、導波管から画像情報を眼1310に出力することによって、光を導波管から抽出するように構成される、光抽出光学要素1360a-1360eを含んでもよい。抽出された光はまた、外部結合光と称され得、光抽出光学要素はまた、外部結合光学要素と称され得る。抽出された光のビームは、導波管によって、導波管内で伝搬する光が光再指向要素に衝打する場所において出力される。光抽出光学要素1360a-1360eは、例えば、反射および/または回折光学特徴であってもよい。説明を容易にし、図面を明確にするために、導波管1320a-1320eの底部主要表面に配置されて図示されるが、いくつかの実施形態では、光抽出光学要素1360a-1360eは、上部および/または底部主要表面に配置されてもよく、および/または導波管1320a-1320eの容積内に直接配置されてもよい。いくつかの実施形態では、光抽出光学要素1360a-1360eは、透明基板に取り付けられ、導波管1320a-1320eを形成する、材料の層内に形成されてもよい。いくつかの他の実施形態では、導波管1320a-1320eは、モノリシック材料部品であってもよく、光抽出光学要素1360a-1360eは、その材料部品の表面上および/または内部に形成されてもよい。
図13を継続して参照すると、本明細書に議論されるように、各導波管1320a-1320eは、光を出力し、特定の深度平面に対応する画像を形成するように構成される。例えば、眼の最近傍の導波管1320aは、そのような導波管1320aの中に投入されるにつれて、コリメートされた光を眼1310に送達するように構成されてもよい。コリメートされた光は、光学無限遠焦点面を表し得る。次の上方の導波管1320bは、眼1310に到達し得る前に、第1のレンズ1330a(例えば、負のレンズ)を通して通過する、コリメートされた光を送出するように構成されてもよい。第1のレンズ1330aは、眼/脳が、その次の上方導波管1320bから生じる光を光学無限遠から眼1310に向かって内向きにより近い第1の焦点面から生じるように解釈するように、若干の凸面波面曲率を生成するように構成されてもよい。同様に、第3の上方の導波管1320cは、眼1310に到達する前に、その出力光を第1のレンズ1330aおよび第2のレンズ1330bの両方を通して通過させる。第1および第2のレンズ1330aおよび1330bの組み合わせられた屈折力は、眼/脳が、第3の上方の導波管1320cから生じる光が次の上方の導波管1320bからの光であった光学無限遠から人物に向かって内向きにさらに近い第2の焦点面から生じるように解釈するように、別の漸増量の波面曲率を生成するように構成されてもよい。
他の導波管層(例えば、導波管1320d、1320e)およびレンズ(例えば、レンズ1330c、1330d)も同様に構成され、スタック内の最高導波管1320eは、人物に最も近い焦点面を表す集約焦点力のために、その出力をそれと眼との間のレンズの全てを通して送出する。スタックされた導波管アセンブリ1305の他側の世界1358から生じる光を視認/解釈するとき、レンズ1330a-1330dのスタックを補償するために、補償レンズ層1330eが、スタックの上部に配置され、下方のレンズスタッ
ク1330a-1330dの集約力を補償してもよい。そのような構成は、利用可能な導波管/レンズ対と同じ数の知覚される焦点面を提供する。導波管1320a-1320eの光抽出光学要素1360a-1360eおよびレンズ1330a-1330dの集束側面は両方とも、静的であってもよい(例えば、動的または電気活性ではない)。いくつかの代替実施形態では、一方または両方とも、電気活性特徴を使用して動的であってもよい。
図13を継続して参照すると、光抽出光学要素1360a-1360eは、導波管と関連付けられた特定の深度平面のために、光をその個別の導波管から再指向し、かつ本光を適切な量の発散またはコリメーションを伴って出力するように構成されてもよい。その結果、異なる関連付けられた深度平面を有する導波管は、関連付けられた深度平面に応じて、異なる量の発散を伴う光を出力する、異なる構成の光抽出光学要素を有してもよい。いくつかの実施形態では、本明細書に議論されるように、光抽出光学要素1360a-1360eは、光を具体的角度で出力するように構成され得る、立体または表面特徴であってもよい。例えば、光抽出光学要素1360a-1360eは、立体ホログラム、表面ホログラム、および/または回折格子であってもよい。回折格子等の光抽出光学要素は、2015年6月25日に公開された米国特許公開第2015/0178939号(参照することによってその全体として本明細書に組み込まれる)に説明されている。いくつかの実施形態では、特徴1330a-1330eは、レンズではなくてもよい。むしろ、それらは、単に、スペーサであってもよい(例えば、クラッディング層および/または空隙を形成するための構造)。
いくつかの実施形態では、光抽出光学要素1360a-1360eは、回折パターンを形成する回折特徴または「回折光学要素」(本明細書では、「DOE」とも称される)である。好ましくは、DOEは、ビームの光の一部のみがDOEの各交差点を用いて眼1310に向かって偏向される一方、残りが、全内部反射を介して、導波管を通して移動し続けるように、比較的に低回折効率を有する。画像情報を搬送する光は、したがって、複数の場所において導波管から出射する、いくつかの関連出射ビームに分割され、その結果、導波管内でバウンスする本特定のコリメートされたビームに関して、眼1310に向かって非常に均一なパターンの出射放出となる。
いくつかの実施形態では、1つ以上のDOEは、能動的に回折する「オン」状態と有意に回折しない「オフ」状態との間で切替可能であってもよい。例えば、切替可能なDOEは、ポリマー分散液晶の層を備えてもよく、その中で微小液滴は、ホスト媒体中に回折パターンを備え、微小液滴の屈折率は、ホスト材料の屈折率に実質的に整合するように切り替えられることができる(その場合、パターンは、入射光を著しく回折させない)、または微小液滴は、ホスト媒体のものに整合しない屈折率に切り替えられることができる(その場合、パターンは、入射光を能動的に回折させる)。
いくつかの実施形態では、深度平面および/または被写界深度の数および分散は、視認者の眼の瞳孔サイズおよび/または配向に基づいて、動的に変動されてもよい。いくつかの実施形態では、内向きに向いた結像システム1352(例えば、デジタルカメラ)が、眼1310の画像を捕捉し、眼1310の瞳孔のサイズおよび/または配向を決定するために使用されてもよい。いくつかの実施形態では、内向きに向いた結像システム1352は、フレーム1112(図11に図示されるように)に取り付けられてもよく、内向きに向いた結像システム1352からの画像情報を処理し、例えば、ユーザ1104の瞳孔直径または眼の配向を決定し得る、処理モジュール1124および/または1128と電気通信してもよい。
いくつかの実施形態では、内向きに向いた結像システム1352(例えば、デジタルカ
メラ)は、眼移動および顔移動等、ユーザの移動を観察することができる。内向きに向いた結像システム1352は、眼1310の画像を捕捉し、眼1310の瞳孔のサイズおよび/または配向を決定するために使用されてもよい。内向きに向いた結像システム1352は、ユーザが見ている方向(例えば、眼姿勢)を決定する際に使用するため、またはユーザのバイオメトリック識別のため(例えば、虹彩識別を介して)の画像を得るために使用されることができる。内向きに向いた結像システム1352によって得られる画像は、ユーザに提示されるべきオーディオまたは視覚的コンテンツを決定するためにディスプレイシステム1300によって使用され得る、ユーザの眼姿勢および/または気分を決定するために分析されてもよい。ディスプレイシステム1300はまた、慣性測定ユニット(IMU)、加速度計、ジャイロスコープ等のセンサを使用して、頭部姿勢(例えば、頭部位置または頭部配向)を決定してもよい。頭部の姿勢は、単独で、または眼姿勢と組み合わせて、支え追跡と相互作用する、および/またはオーディオコンテンツを提示するために使用されてもよい。
いくつかの実施形態では、1つのカメラが、眼毎に利用され、各眼の瞳孔サイズおよび/または配向を別個に決定し、それによって、各眼への画像情報の提示がその眼に動的に調整されることを可能にしてもよい。いくつかの実施形態では、少なくとも1つのカメラが、眼毎に利用され、独立して、各眼の瞳孔サイズおよび/または眼姿勢を別個に決定し、それによって、各眼への画像情報の提示がその眼に動的に調整されることを可能にしてもよい。いくつかの他の実施形態では、片眼1310のみの瞳孔直径および/または配向(例えば、対の眼あたり単一カメラのみを使用して)が、決定され、視認者1104の両眼に対して類似すると仮定される。
例えば、被写界深度は、視認者の瞳孔サイズと反比例して変化してもよい。その結果、視認者の眼の瞳孔のサイズが減少するにつれて、被写界深度は、その平面の場所が眼の焦点深度を越えるため判別不能である1つの平面が、判別可能となり、瞳孔サイズの低減および被写界深度の相当する増加に伴って、より合焦して現れ得るように増加する。同様に、異なる画像を視認者に提示するために使用される、離間される深度平面の数は、減少された瞳孔サイズに伴って減少されてもよい。例えば、視認者は、一方の深度平面から他方の深度平面への眼の遠近調節を調節せずに、第1の深度平面および第2の深度平面の両方の詳細を1つの瞳孔サイズにおいて明確に知覚することが可能ではない場合がある。しかしながら、これらの2つの深度平面は、同時に、遠近調節を変化させずに、別の瞳孔サイズにおいてユーザに合焦するには十分であり得る。
いくつかの実施形態では、ディスプレイシステムは、瞳孔サイズおよび/または配向の決定に基づいて、または特定の瞳孔サイズおよび/または配向を示す電気信号の受信に応じて、画像情報を受信する導波管の数を変動させてもよい。例えば、ユーザの眼が、2つの導波管と関連付けられた2つの深度平面間を区別不能である場合、コントローラ1350は、これらの導波管のうちの1つへの画像情報の提供を停止するように構成またはプログラムされてもよい。有利には、これは、システムへの処理負担を低減させ、それによって、システムの応答性を増加させ得る。導波管のためのDOEがオンおよびオフ状態間で切替可能である実施形態では、DOEは、導波管が画像情報を受信するとき、オフ状態に切り替えられてもよい。
いくつかの実施形態では、出射ビームに視認者の眼の直径未満の直径を有するという条件を満たさせることが望ましくあり得る。しかしながら、本条件を満たすことは、視認者の瞳孔のサイズの変動性に照らして、困難であり得る。いくつかの実施形態では、本条件は、視認者の瞳孔のサイズの決定に応答して出射ビームのサイズを変動させることによって、広範囲の瞳孔サイズにわたって満たされる。例えば、瞳孔サイズが減少するにつれて、出射ビームのサイズもまた、減少し得る。いくつかの実施形態では、出射ビームサイズ
は、可変開口を使用して変動されてもよい。
ディスプレイシステム1300は、世界1358の一部を結像する、外向きに向いた結像システム1354(例えば、デジタルカメラ)を含むことができる。世界1358の本部分は、視野(FOV)と称され得、結像システム1354は、時として、FOVカメラとも称される。視認者1104による視認または結像のために利用可能な領域全体は、動眼視野(FOR)と称され得る。FORは、ディスプレイシステム1300を囲繞する4πステラジアンの立体角を含んでもよい。ディスプレイシステム1300のいくつかの実装では、FORは、ユーザ1104が、ユーザを囲繞するオブジェクトを見るためにその頭部および眼を移動させ得るため、ディスプレイシステム1300のユーザ1104の周囲の立体角の実質的に全てを含んでもよい(ユーザの正面、背面、上方、下方、または側面)。外向きに向いた結像システム1354から得られた画像は、ユーザによって行われるジェスチャ(例えば、手または指のジェスチャ)を追跡し、ユーザの正面における世界1358内のオブジェクトを検出する等のために、使用されることができる。
ディスプレイシステム1300は、ユーザが、コマンドをコントローラ1350に入力し、ディスプレイシステム400と相互作用し得る、ユーザ入力デバイス1356を含むことができる。例えば、ユーザ入力デバイス1356は、トラックパッド、タッチスクリーン、ジョイスティック、多自由度(DOF)コントローラ、容量感知デバイス、ゲームコントローラ、キーボード、マウス、指向性パッド(Dパッド)、ワンド、触知デバイス、トーテム(例えば、仮想ユーザ入力デバイスとして機能する)等を含むことができる。ある場合には、ユーザは、指(例えば、親指)を使用して、タッチセンサ式入力デバイスを押下またはその上でスワイプし、入力をディスプレイシステム1300に提供してもよい(例えば、ユーザ入力をディスプレイシステム1300によって提供されるユーザインターフェースに提供するために)。ユーザ入力デバイス1356は、ディスプレイシステム1300の使用の間、ユーザの手によって保持されてもよい。ユーザ入力デバイス1356は、ディスプレイシステム1300と有線または無線通信することができる。
図14は、導波管によって出力された出射ビームの実施例を示す。1つの導波管が図示されるが、導波管アセンブリ1305内の他の導波管も同様に機能し得、導波管アセンブリ1305は、複数の導波管を含むことを理解されたい。光1405が、導波管1320aの入力縁1410において導波管1320aの中に投入され、全内部反射(TIR)によって導波管1320a内を伝搬する。光1405が回折光学要素(DOE)1360aに衝突する点において、光の一部が、出射ビーム1415として導波管から出射する。出射ビーム1415は、略平行として図示されるが、それらはまた、導波管1320aと関連付けられた深度平面に応じて、ある角度で眼1310に伝搬するように再指向されてもよい(例えば、発散出射ビーム形成)。略平行出射ビームは、眼1310からの遠距離(例えば、光学無限遠)における深度平面に設定されるように現れる画像を形成するように光を外部結合する、光抽出光学要素を伴う導波管を示し得ることを理解されたい。他の導波管または他の光抽出光学要素のセットは、より発散する、出射ビームパターンを出力してもよく、眼1310がより近い距離に遠近調節し、網膜に合焦させることを要求し、光学無限遠より眼1310に近い距離からの光として脳によって解釈されるであろう。
図15は、導波管装置と、光を導波管装置へまたはそこから光学的に結合するための光学結合器サブシステムと、制御サブシステムとを含む、ディスプレイシステム1300の別の実施例を示す。ディスプレイシステム1300は、多焦点立体、画像、またはライトフィールドを生成するために使用されることができる。ディスプレイシステム1300は、1つ以上の一次平面導波管1504(1つのみのが図15に示される)と、一次導波管1504の少なくともいくつかのそれぞれと関連付けられた1つ以上のDOE1508とを含むことができる。平面導波管1504は、図13を参照して議論される導波管132
0a-1320eに類似することができる。光学システムは、分散導波管装置を採用し、光を第1の軸(図15の図では、垂直またはY-軸)に沿って中継し、第1の軸(例えば、Y-軸)に沿って光の有効射出瞳を拡張させてもよい。分散導波管装置は、例えば、分散平面導波管1512と、分散平面導波管1512と関連付けられた少なくとも1つのDOE1516(二重破線によって図示される)とを含んでもよい。分散平面導波管1512は、少なくともいくつかの点において、それと異なる配向を有する一次平面導波管1504と類似または同じであってもよい。同様に、少なくとも1つのDOE1516は、少なくともいくつかの点において、DOE1508と類似または同じであってもよい。例えば、分散平面導波管1512および/またはDOE1516は、それぞれ、一次平面導波管1504および/またはDOE1508と同一材料から成ってもよい。図15に示される光学システムは、図11に示されるウェアラブルディスプレイシステム1100の中に統合されることができる。
中継され、射出瞳が拡張された光は、分散導波管装置から1つ以上の一次平面導波管1504の中に光学的に結合される。一次平面導波管1504は、好ましくは、第1の軸に直交する、第2の軸(例えば、図15の図では、水平またはX-軸)に沿って、光を中継する。着目すべきこととして、第2の軸は、第1の軸に対して非直交軸であることができる。一次平面導波管1504は、その第2の軸(例えば、X-軸)に沿って、光の有効射出経路を拡張させる。例えば、分散平面導波管1512は、光を垂直またはY-軸に沿って中継および拡張させ、光を水平またはX-軸に沿って中継および拡張させる、一次平面導波管1504にその光を通過させることができる。
ディスプレイシステム1300は、単一モード光ファイバ1524の近位端の中に光学的に結合され得る、1つ以上の着色光源(例えば、赤色、緑色、および青色レーザ光)1520を含んでもよい。光ファイバ1524の遠位端は、圧電材料の中空管1528を通して螺合または受容されてもよい。遠位端は、固定されない可撓性カンチレバー1532として、管1528から突出する。圧電管1528は、4つの象限電極(図示せず)と関連付けられることができる。電極は、例えば、管1528の外側、外側表面または外側周縁、または直径に鍍着されてもよい。コア電極(図示せず)もまた、管1528のコア、中心、内側周縁、または内径に位置する。
例えば、ワイヤ1540を介して電気的に結合される、駆動電子機1536は、対向する対の電極を駆動し、圧電管1528を独立して2つの軸において屈曲させる。光ファイバ1524の突出する遠位先端は、機械的共鳴モードを有する。共鳴の周波数は、光ファイバ1524の直径、長さ、および材料性質に依存し得る。圧電管1528をファイバカンチレバー1532の第1の機械的共鳴モードの近傍で振動させることによって、ファイバカンチレバー1532は、振動させられ、大偏向を通して掃引し得る。
2つの軸において共振振動を刺激することによって、ファイバカンチレバー1532の先端は、2次元(2-D)走査を充填する面積内において2軸方向に走査される。光源1520の強度をファイバカンチレバー1532の走査と同期して変調させることによって、ファイバカンチレバー1532から発せられる光は、画像を形成する。そのような設定の説明は、米国特許公開第2014/0003762号(参照することによってその全体として本明細書に組み込まれる)に提供されている。
光学結合器サブシステムのコンポーネント1544は、走査ファイバカンチレバー1532から発せられる光をコリメートする。コリメートされた光は、鏡面表面1548によって、少なくとも1つの回折光学要素(DOE)1516を含有する、狭分散平面導波管1512の中に反射される。コリメートされた光は、全内部反射によって分散平面導波管1512に沿って(図15の図に対して)垂直に伝搬し、そうすることによって、DOE
1516と繰り返し交差する。DOE1516は、好ましくは、低回折効率を有する。これは、光の一部(例えば、10%)をDOE1516との交差点の各点においてより大きい一次平面導波管1504の縁に向かって回折させ、光の一部をTIRを介して分散平面導波管1512の長さを辿ってそのオリジナル軌道上で継続させる。
DOE1516との交差点の各点において、付加的光が、一次導波管1512の入口に向かって回折される。入射光を複数の外部結合セットに分割することによって、光の射出瞳は、分散平面導波管1512内のDOE1516によって垂直に拡張される。分散平面導波管1512から外部結合された本垂直に拡張された光は、一次平面導波管1504の縁に進入する。
一次導波管1504に進入する光は、TIRを介して、一次導波管1504に沿って(図15の図に対して)水平に伝搬する。光は、複数の点においてDOE1508と交差するにつれて、TIRを介して、一次導波管1504の時間長の少なくとも一部に沿って水平に伝搬する。DOE1508は、有利には、線形回折パターンおよび半径方向対称回折パターンの総和である、位相プロファイルを有し、光の偏向および集束の両方を生成するように設計または構成され得る。DOE1508は、有利には、ビームの光の一部のみが、DOE1508の各交差点において視認者の眼に向かって偏向される一方、光の残りが、TIRを介して、導波管1504を通して伝搬し続けるように、低回折効率(例えば、10%)を有し得る。
伝搬する光とDOE1508との間の交差点の各点において、光の一部は、一次導波管1504の隣接面に向かって回折され、光がTIRから逃散し、一次導波管1504の面から発せられることを可能にする。いくつかの実施形態では、DOE1508の半径方向対称回折パターンは、加えて、ある焦点レベルを回折された光に付与し、個々のビームの光波面を成形(例えば、曲率を付与する)し、かつビームを設計される焦点レベルに合致する角度に操向することの両方を行う。
故に、これらの異なる経路は、異なる角度におけるDOE1508の多重度、焦点レベル、および/または射出瞳において異なる充填パターンをもたらすことによって、光を一次平面導波管1504の外部で結合させることができる。射出瞳における異なる充填パターンは、有利には、複数の深度平面を伴うライトフィールドディスプレイを生成するために使用されることができる。導波管アセンブリ内の各層またはスタック内の層のセット(例えば、3層)が、個別の色(例えば、赤色、青色、緑色)を生成するために採用されてもよい。したがって、例えば、第1の3つの隣接する層のセットが、それぞれ、赤色、青色、および緑色光を第1の焦点深度において生成するために採用されてもよい。第2の3つの隣接する層のセットが、それぞれ、赤色、青色、および緑色光を第2の焦点深度において生成するために採用されてもよい。複数のセットが、種々の焦点深度を伴うフル3Dまたは4Dカラー画像ライトフィールドを生成するために採用されてもよい。
(付加的側面)
第1の側面では、ウェアラブルディスプレイシステムが、開示される。ウェアラブルディスプレイシステムは、ユーザの眼の複数の再訓練用眼画像を捕捉するように構成される、画像捕捉デバイスと、ディスプレイと、複数の再訓練用眼画像と、眼追跡のためのニューラルネットワークとを記憶するように構成される、非一過性コンピュータ可読記憶媒体と、画像捕捉デバイス、ディスプレイ、および非一過性コンピュータ可読記憶媒体と通信する、ハードウェアプロセッサであって、実行可能命令によって、画像捕捉デバイスによって捕捉された、および/または非一過性コンピュータ可読記憶媒体から受信された(画像捕捉デバイスによって捕捉され得る)、複数の再訓練用眼画像を受信し、複数の再訓練用眼画像の再訓練用眼画像は、ディスプレイの表示場所においてユーザに示されるUIデ
バイスに対するユーザインターフェース(UI)イベントが生じると、画像捕捉デバイスによって捕捉され、再訓練用入力データおよび対応する再訓練用標的出力データを備える、再訓練セットを生成し、再訓練用入力データは、再訓練用眼画像を備え、対応する再訓練用標的出力データは、表示場所に関連する再訓練用眼画像内のユーザの眼の眼姿勢を備え、再訓練セットを使用して眼追跡のためのニューラルネットワークから再訓練される、再訓練されたニューラルネットワークを取得するようにプログラムされる、ハードウェアプロセッサとを備える。
第2の側面では、再訓練されたニューラルネットワークを取得するために、ハードウェアプロセッサは、少なくとも、再訓練セットを使用して、眼追跡のためのニューラルネットワークを再訓練し、再訓練されたニューラルネットワークを生成するようにプログラムされる、側面1に記載のウェアラブルディスプレイシステム。
第3の側面では、再訓練されたニューラルネットワークを取得するために、ハードウェアプロセッサは、少なくとも、再訓練セットを遠隔システムに伝送し、再訓練されたニューラルネットワークを遠隔システムから受信するようにプログラムされる、側面1に記載のウェアラブルディスプレイシステム。
第4の側面では、遠隔システムは、クラウドコンピューティングシステムを備える、側面3に記載のウェアラブルディスプレイシステム。
第5の側面では、ユーザの複数の再訓練用眼画像を受信するために、ハードウェアプロセッサは、実行可能命令によって、少なくとも、UIデバイスをディスプレイ上の表示場所においてユーザに表示し、UIデバイスに対するUIイベントの発生を決定し、再訓練用眼画像を画像捕捉デバイスから受信するようにプログラムされる、側面1-4のいずれか1項に記載のウェアラブルディスプレイシステム。
第6の側面では、ハードウェアプロセッサはさらに、実行可能命令によって、表示場所を使用して、再訓練用眼画像内の眼の眼姿勢を決定するようにプログラムされる、側面5に記載のウェアラブルディスプレイシステム。
第7の側面では、再訓練用画像内の眼の眼姿勢は、表示場所を備える、側面6に記載のウェアラブルディスプレイシステム。
第8の側面では、ユーザの複数の再訓練用眼画像を受信するために、ハードウェアプロセッサは、実行可能命令によって、少なくとも、再訓練用眼画像に基づいて、第2の複数の第2の再訓練用眼画像を生成し、表示場所および確率分布関数を使用して、第2の複数の第2の再訓練用眼画像の第2の再訓練用眼画像内の眼の眼姿勢を決定するようにプログラムされる、側面1-4のいずれか1項に記載のウェアラブルディスプレイシステム。
第9の側面では、ユーザの複数の再訓練用眼画像を受信するために、ハードウェアプロセッサは、実行可能命令によって、少なくとも、ユーザの眼の複数の眼画像を画像捕捉デバイスから受信し、複数の眼画像の第1の眼画像は、ディスプレイの表示場所においてユーザに示されるUIデバイスに対するUIイベントが生じると、ユーザデバイスによって捕捉され、表示場所から、UIイベントに先立ったユーザの運動に沿って遡って、運動の開始まで、UIデバイスの投影された表示場所を決定し、投影された表示場所および運動の開始時に捕捉された複数の眼画像の第2の眼画像内のUIデバイスの第2の表示場所が閾値距離内にあることを決定し、第2の眼画像から第1の眼画像までの複数の眼画像の眼画像を備える、再訓練用入力データを生成し、対応する再訓練用標的出力データは、眼画像内のUIデバイスの表示場所に関連する眼画像の各眼画像内のユーザの眼の眼姿勢を備
えるようにプログラムされる、側面1-4のいずれか1項に記載のウェアラブルディスプレイシステム。
第10の側面では、眼の眼姿勢は、表示場所である、側面9に記載のウェアラブルディスプレイシステム。
第11の側面では、ハードウェアプロセッサはさらに、実行可能命令によって、少なくとも、UIデバイスの表示場所を使用して、眼の眼姿勢を決定するようにプログラムされる、側面10に記載のウェアラブルディスプレイシステム。
第12の側面では、再訓練セットを生成するために、ハードウェアプロセッサは、実行可能命令によって、少なくとも、再訓練用眼画像内の眼の眼姿勢が複数の眼姿勢領域の第1の眼姿勢領域内にあることを決定し、UIデバイスの分布確率が第1の眼姿勢領域内にあることを決定し、分布確率に関連する含有確率において、再訓練用眼画像を備える再訓練用入力データを生成するようにプログラムされる、側面1-11のいずれか1項に記載のウェアラブルディスプレイシステム。
第13の側面では、ハードウェアプロセッサはさらに、実行可能命令によって、少なくとも、訓練用入力データおよび対応する訓練用標的出力データを備える訓練セットを使用して、眼追跡のためのニューラルネットワークを訓練し、訓練用入力データは、複数のユーザの複数の訓練用眼画像を備え、対応する訓練用標的出力データは、訓練用の複数の訓練用眼画像内の複数のユーザの眼の眼姿勢を備えるようにプログラムされる、側面1-12のいずれか1項に記載のウェアラブルディスプレイシステム。
第14の側面では、再訓練セットの再訓練用入力データは、複数の訓練用眼画像の少なくとも1つの訓練用眼画像を備える、側面13に記載のウェアラブルディスプレイシステム。
第15の側面では、再訓練セットの再訓練用入力データは、複数の訓練用眼画像の訓練用眼画像を備えない、側面13に記載のウェアラブルディスプレイシステム。
第16の側面では、眼追跡のためのニューラルネットワークを再訓練するために、ハードウェアプロセッサは、実行可能命令によって、少なくとも、再訓練されるニューラルネットワークの加重をニューラルネットワークの加重で初期化するようにプログラムされる、側面1-15のいずれか1項に記載のウェアラブルディスプレイシステム。
第17の側面では、ハードウェアプロセッサは、実行可能命令によって、ユーザデバイスに、ユーザの眼画像を画像捕捉デバイスから受信させ、および再訓練されたニューラルネットワークを使用して、眼画像内のユーザの眼姿勢を決定させるようにプログラムされる、側面1-16のいずれか1項に記載のウェアラブルディスプレイシステム。
第18の側面では、眼追跡のためのニューラルネットワークを再訓練するためのシステムが、開示される。本システムは、実行可能命令を記憶する、コンピュータ可読メモリと、実行可能命令によって、少なくとも、ユーザの眼の複数の再訓練用眼画像を受信し、複数の再訓練用眼画像の再訓練用眼画像は、ユーザデバイスの表示場所においてユーザに示されるUIデバイスに対するユーザインターフェース(UI)イベントが生じると、捕捉され、再訓練用入力データおよび対応する再訓練用標的出力データを備える、再訓練セットを生成し、再訓練用入力データは、再訓練用眼画像を備え、対応する再訓練用標的出力データは、表示場所に関連する再訓練用眼画像内のユーザの眼の眼姿勢を備え、再訓練セットを使用して、眼追跡のためのニューラルネットワークを再訓練し、再訓練されたニュ
ーラルネットワークを生成するようにプログラムされる、1つ以上のプロセッサとを備える。
第19の側面では、ユーザの複数の再訓練用眼画像を受信するために、1つ以上のプロセッサは、実行可能命令によって、少なくとも、ユーザデバイスに、ディスプレイを使用して、UIデバイスを表示場所においてユーザに表示させ、UIデバイスに対するUIイベントの発生を決定し、結像システムを使用して、再訓練用眼画像を捕捉させ、および再訓練用眼画像をシステムに伝送させるようにプログラムされる、側面18に記載のシステム。
第20の側面では、ユーザの複数の再訓練用眼画像を受信するために、1つ以上のプロセッサはさらに、実行可能命令によって、少なくとも、表示場所を使用して、再訓練用眼画像内の眼の眼姿勢を決定するようにプログラムされる、側面19に記載のシステム。
第21の側面では、再訓練用画像内の眼の眼姿勢は、表示場所を備える、側面20に記載のシステム。
第22の側面では、ユーザの複数の再訓練用眼画像を受信するために、1つ以上のプロセッサは、実行可能命令によって、少なくとも、再訓練用眼画像に基づいて、第2の複数の第2の再訓練用眼画像を生成し、表示場所および確率分布関数を使用して、第2の複数の第2の再訓練用眼画像の第2の再訓練用眼画像内の眼の眼姿勢を決定するようにプログラムされる、側面19に記載のシステム。
第23の側面では、ユーザの複数の再訓練用眼画像を受信するために、1つ以上のプロセッサは、実行可能命令によって、少なくとも、ユーザの眼の複数の眼画像を受信し、複数の眼画像の第1の眼画像は、ユーザデバイスの表示場所においてユーザに示されるUIデバイスに対するUIイベントが生じると、ユーザデバイスによって捕捉され、表示場所から、UIイベントに先立ったユーザの運動に沿って遡って、運動の開始まで、UIデバイスの投影された表示場所を決定し、投影された表示場所および運動の開始時に捕捉された複数の眼画像の第2の眼画像内のUIデバイスの第2の表示場所が閾値距離内にあることを決定し、第2の眼画像から第1の眼画像までの複数の眼画像の眼画像を備える、再訓練用入力データを生成し、対応する再訓練用標的出力データは、眼画像内のUIデバイスの表示場所に関連する眼画像の各眼画像内のユーザの眼の眼姿勢を備えるようにプログラムされる、側面18に記載のシステム。
第24の側面では、眼の眼姿勢は、表示場所である、側面23に記載のシステム。
第25の側面では、1つ以上のプロセッサはさらに、実行可能命令によって、少なくとも、UIデバイスの表示場所を使用して、眼の眼姿勢を決定するようにプログラムされる、側面24に記載のシステム。
第26の側面では、再訓練セットを生成するために、1つ以上のプロセッサは、実行可能命令によって、少なくとも、再訓練用眼画像内の眼の眼姿勢が複数の眼姿勢領域の第1の眼姿勢領域内にあることを決定し、UIデバイスの分布確率が第1の眼姿勢領域内にあることを決定し、分布確率に関連する含有確率において、再訓練用眼画像を備える再訓練用入力データを生成するようにプログラムされる、側面18-25のいずれか1項に記載のシステム。
第27の側面では、1つ以上のプロセッサはさらに、実行可能命令によって、少なくとも、訓練用入力データおよび対応する訓練用標的出力データを備える訓練セットを使用し
て、眼追跡のためのニューラルネットワークを訓練し、訓練用入力データは、複数のユーザの複数の訓練用眼画像を備え、対応する訓練用標的出力データは、訓練用の複数の訓練用眼画像内の複数のユーザの眼の眼姿勢を備えるようにプログラムされる、側面18-26のいずれか1項に記載のシステム。
第28の側面では、再訓練セットの再訓練用入力データは、複数の訓練用眼画像の少なくとも1つの訓練用眼画像を備える、側面27に記載のシステム。
第29の側面では、再訓練セットの再訓練用入力データは、複数の訓練用眼画像の訓練用眼画像を備えない、側面27に記載のシステム。
第30の側面では、眼追跡のためのニューラルネットワークを再訓練するために、1つ以上のプロセッサは、実行可能命令によって、少なくとも、再訓練されるニューラルネットワークの加重をニューラルネットワークの加重で初期化するようにプログラムされる、側面18-29のいずれか1項に記載のシステム。
第31の側面では、1つ以上のプロセッサは、実行可能命令によって、ユーザデバイスに、ユーザの眼画像を捕捉し、再訓練されたニューラルネットワークを使用して、眼画像内のユーザの眼姿勢を決定させるようにプログラムされる、側面18-30のいずれか1項に記載のシステム。
第32の側面では、ニューラルネットワークを再訓練するための方法が、開示される。本方法は、ハードウェアプロセッサの制御下で、ユーザの眼の複数の再訓練用眼画像を受信するステップであって、複数の再訓練用眼画像の再訓練用眼画像は、表示場所においてユーザに示されるUIデバイスに対するユーザインターフェース(UI)イベントが生じると、捕捉される、ステップと、再訓練用入力データおよび対応する再訓練用標的出力データを備える、再訓練セットを生成するステップであって、再訓練用入力データは、再訓練用眼画像を備え、対応する再訓練用標的出力データは、表示場所に関連する再訓練用眼画像内のユーザの眼の眼姿勢を備える、ステップと、再訓練セットを使用して、ニューラルネットワークを再訓練し、再訓練されたニューラルネットワークを生成するステップとを含む。
第33の側面では、ユーザの複数の再訓練用眼画像を受信するステップは、ディスプレイを使用して、UIデバイスを表示場所においてユーザに表示するステップと、UIデバイスに対するUIイベントの発生を決定し、結像システムを使用して、再訓練用眼画像を捕捉するステップとを含む、側面32に記載の方法。
第34の側面では、ユーザの複数の再訓練用眼画像を受信するステップはさらに、再訓練用眼画像に基づいて、第2の複数の第2の再訓練用眼画像を生成するステップと、表示場所および確率分布関数を使用して、第2の複数の第2の再訓練用眼画像の第2の再訓練用眼画像内の眼の眼姿勢を決定するステップとを含む、側面33に記載の方法。
第35の側面では、確率分布関数は、UIデバイスの所定の確率分布を備える、側面34に記載の方法。
第36の側面では、UIデバイスは、第1のコンポーネントおよび第2のコンポーネントを備え、確率分布関数は、第1のコンポーネントに対する分布確率の分布関数および第2のコンポーネントに対する第2の確率分布関数の組み合わせられた確率分布を備える、側面34に記載の方法。
第37の側面では、UIデバイスの第1のコンポーネントは、グラフィカルUIデバイスを備え、UIデバイスの第2のコンポーネントは、グラフィカルUIデバイスのテキスト説明を備える、側面36に記載の方法。
第38の側面では、ユーザの複数の再訓練用眼画像を受信するステップは、ユーザの眼の複数の眼画像を受信するステップであって、複数の眼画像の第1の眼画像は、表示場所において、ユーザに示されるUIデバイスに対するUIイベントが生じると、捕捉される、ステップと、表示場所から、UIイベントに先立った運動に沿って遡って、運動の開始まで、UIデバイスの投影された表示場所を決定するステップと、投影された表示場所および運動の開始時に捕捉された複数の眼画像の第2の眼画像内のUIデバイスの第2の表示場所が閾値距離内にあることを決定するステップと、第2の眼画像から第1の眼画像までの複数の眼画像の眼画像を備える、再訓練用入力データを生成するステップであって、対応する再訓練用標的出力データは、眼画像内のUIデバイスの表示場所に関連する眼画像の各眼画像内のユーザの眼の眼姿勢を備える、ステップとを含む、側面32に記載の方法。
第39の側面では、運動は、角運動を備える、側面38に記載の方法。
第40の側面では、運動は、均一運動を備える、側面38に記載の方法。
第41の側面では、UIイベントに先立った運動の存在を決定するステップステップをさらに含む、側面38に記載の方法。
第42の側面では、第2の眼画像から第1の眼画像までの眼画像内の運動に伴ってユーザの眼が平滑に移動することを決定するステップをさらに含む、側面38に記載の方法。
第43の側面では、眼が平滑に移動することを決定するステップは、ニューラルネットワークを使用して、眼画像内で運動に伴ってユーザの眼が平滑に移動することを決定するステップを含む、側面42に記載の方法。
第44の側面では、眼が平滑に移動することを決定するステップは、眼画像内のユーザの眼の眼姿勢が運動に伴って平滑に移動することを決定するステップを含む、側面42に記載の方法。
第45の側面では、眼の眼姿勢は、表示場所である、側面32-44のいずれか1項に記載の方法。
第46の側面では、UIデバイスの表示場所を使用して、眼の眼姿勢を決定するステップをさらに含む、側面32-45のいずれか1項に記載の方法。
第47の側面では、眼の眼姿勢を決定するステップは、UIデバイスの表示場所、眼の場所、またはそれらの組み合わせを使用して、眼の眼姿勢を決定するステップを含む、側面46に記載の方法。
第48の側面では、再訓練セットを生成するステップは、再訓練用眼画像内の眼の眼姿勢が複数の眼姿勢領域の第1の眼姿勢領域内にあることを決定するステップと、UIデバイスの分布確率が第1の眼姿勢領域内にあることを決定するステップと、分布確率に関連する含有確率において、再訓練用眼画像を備える再訓練用入力データを生成するステップとを含む、側面32-47のいずれか1項に記載の方法。
第49の側面では、含有確率は、分布確率に反比例する、側面48に記載の方法。
第50の側面では、第1の眼姿勢領域は、第1の天頂範囲および第1の方位角範囲内にある、側面48に記載の方法。
第51の側面では、眼の眼姿勢が第1の眼姿勢領域内にあることを決定するステップは、再訓練用眼画像内の眼の眼姿勢が複数の眼姿勢領域の第1の眼姿勢領域または第2の眼姿勢領域内にあることを決定するステップを含む、側面48に記載の方法。
第52の側面では、第1の眼姿勢領域は、第1の天頂範囲および第1の方位角範囲内にあって、第2の眼姿勢領域は、第2の天頂範囲および第2の方位角範囲内にあって、第1の天頂範囲内の数および第2の天頂範囲内の数の和は、ゼロである、第1の方位角範囲内の数および第2の方位角範囲内の数の和は、ゼロである、またはそれらの組み合わせである、側面51に記載の方法。
第53の側面では、UIデバイスの分布確率が第1の眼姿勢領域内にあることを決定するステップは、複数の再訓練用眼画像の再訓練用眼画像が捕捉されるときにユーザに示されるUIデバイスの表示場所の分布が、複数の眼姿勢領域の眼姿勢領域内にあることを決定するステップを含み、UIデバイスの分布確率が第1の眼姿勢領域内にあることを決定するステップは、UIデバイスの表示場所の分布を使用して、UIデバイスの分布確率が第1の眼姿勢領域内にあることを決定するステップを含む、側面48に記載の方法。
第54の側面では、訓練用入力データおよび対応する訓練用標的出力データを備える訓練セットを使用して、ニューラルネットワークを訓練するステップをさらに含み、訓練用入力データは、複数のユーザの複数の訓練用眼画像を備え、対応する訓練用標的出力データは、訓練用の複数の訓練用眼画像内の複数のユーザの眼の眼姿勢を備える、側面32-53のいずれか1項に記載の方法。
第55の側面では、複数のユーザは、多数のユーザを備える、側面54に記載の方法。
第56の側面では、眼の眼姿勢は、眼の多様な眼姿勢を備える、側面54に記載の方法。
第57の側面では、再訓練セットの再訓練用入力データは、複数の訓練用眼画像の少なくとも1つの訓練用眼画像を備える、側面54に記載の方法。
第58の側面では、再訓練セットの再訓練用入力データは、複数の訓練用眼画像の訓練用眼画像を備えない、側面54に記載の方法。
第59の側面では、ニューラルネットワークを再訓練するステップは、再訓練セットを使用して、ニューラルネットワークを再訓練し、眼追跡のための再訓練されたニューラルネットワークを生成するステップを含む、側面32-58のいずれか1項に記載の方法。
第60の側面では、ニューラルネットワークを再訓練するステップは、再訓練セットを使用して、ニューラルネットワークを再訓練し、バイオメトリック用途のための再訓練されたニューラルネットワークを生成するステップを含む、側面32-59のいずれか1項に記載の方法。
第61の側面では、バイオメトリック用途は、虹彩識別を備える、側面60に記載の方法。
第62の側面では、ニューラルネットワークを再訓練するステップは、再訓練されるニューラルネットワークの加重をニューラルネットワークの加重で初期化するステップを含む、側面32-61のいずれか1項に記載の方法。
第63の側面では、ユーザの眼画像を受信するステップと、再訓練されたニューラルネットワークを使用して、眼画像内のユーザの眼姿勢を決定するステップとをさらに含む、側面32-62のいずれか1項に記載の方法。
第64の側面では、UIイベントは、UIデバイスの複数の状態のうちのある状態に対応する、側面32-63のいずれか1項に記載の方法。
第65の側面では、複数の状態は、UIデバイスのアクティブ化または非アクティブ化を備える、側面64に記載の方法。
第66の側面では、UIデバイスは、ArUco、ボタン、アップダウン、スピナー、ピッカー、ラジオボタン、ラジオボタンリスト、チェックボックス、ピクチャボックス、チェックボックスリスト、ドロップダウンリスト、ドロップダウンメニュー、選択リスト、リストボックス、コンボボックス、テキストボックス、スライダ、リンク、キーボードキー、スイッチ、スライダ、タッチ表面、またはそれらの組み合わせを備える、側面32-65のいずれか1項に記載の方法。
第67の側面では、UIイベントは、UIデバイスおよびポインタに対して生じる、側面32-66のいずれか1項に記載の方法。
第68の側面では、ポインタは、ユーザと関連付けられたオブジェクトまたはユーザの一部を備える、側面67に記載の方法。
第69の側面では、ユーザと関連付けられたオブジェクトは、ポインタ、ペン、鉛筆、マーカ、ハイライター、またはそれらの組み合わせを備え、ユーザの一部は、ユーザの指を備える、側面68に記載の方法。
(付加的考慮点)
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされる、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるため、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つまたはそれを上回る物理的コンピューティングデバイスは、例えば、関与する計算の量または複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、ビデオは、多くのフレームを含み、
各フレームは、数百万のピクセルを有し得、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。
コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、光学ディスク、揮発性または不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む、物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ可読媒体上に記憶され得る。本方法およびモジュール(またはデータ)はまた、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ可読伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログまたはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一または多重化アナログ信号の一部として、または複数の離散デジタルパケットまたはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的または別様に記憶され得る、またはコンピュータ可読伝送媒体を介して通信され得る。
本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、または機能性は、プロセスにおいて具体的機能(例えば、論理または算術)またはステップを実装するための1つまたはそれを上回る実行可能命令を含む、コードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられる、再配列される、追加される、削除される、修正される、または別様に本明細書に提供される例証的実施例から変更されることができる。いくつかの実施形態では、付加的または異なるコンピューティングシステムまたはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスはまた、任意の特定のシーケンスに限定されず、それに関連するブロック、ステップ、または状態は、適切な他のシーケンスで、例えば、連続して、並行して、またはある他の様式で実施されることができる。タスクまたはイベントが、開示される例示的実施形態に追加される、またはそれから除去され得る。さらに、本明細書に説明される実装における種々のシステムコンポーネントの分離は、例証を目的とし、全ての実装においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品においてともに統合される、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。多くの実装変形例が、可能である。
本プロセス、方法、およびシステムは、ネットワーク(または分散)コンピューティング環境において実装され得る。ネットワーク環境は、企業全体コンピュータネットワーク、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、パーソナルエリアネットワーク(PAN)、クラウドコンピューティングネットワーク、クラウドソースコンピューティングネットワーク、インターネット、およびワールドワイドウェブを含む。ネットワークは、有線または無線ネットワークまたは任意の他のタイプの通信ネットワークであり得る。
本開示のシステムおよび方法は、それぞれ、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されない。本明細書に説明される種々の特徴およびプロセスは、相互に独立して使用され得る、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。本開示に説明される実装の種々の修正が、当業者に容易に明白であり得、本明細書に定義される一般原理は、本開示の精神または範囲から逸脱することなく、他の実装に適用され得る。したがって、
請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
別個の実装の文脈において本明細書に説明されるある特徴はまた、単一の実装における組み合わせにおいて実装されることができる。逆に、単一の実装の文脈において説明される種々の特徴もまた、複数の実装において別個に、または任意の好適な副次的組み合わせにおいて実装されることができる。さらに、特徴がある組み合わせにおいて作用するものとして上記に説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つ以上の特徴は、いくつかの場合では、組み合わせから削除されることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。いかなる単一の特徴または特徴のグループも、あらゆる実施形態に必要または必須ではない。
とりわけ、「~できる(can)」、「~し得る(could)」、「~し得る(might)」、「~し得る(may)」、「例えば(e.g.)」、および同等物等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、および/またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図される。したがって、そのような条件文は、概して、特徴、要素、および/またはステップが、1つまたはそれを上回る実施形態に対していかようにも要求されること、または1つまたはそれを上回る実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/またはステップが任意の特定の実施形態において含まれる、または実施されるべきかどうかを決定するための論理を必然的に含むことを示唆することを意図されない。用語「~を備える」、「~を含む」、「~を有する」、および同等物は、同義語であり、非限定的方式で包括的に使用され、付加的要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つ以上の」または「少なくとも1つ」を意味するように解釈されるべきである。
本明細書で使用されるように、項目のリスト「~のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある実施例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、およびA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つがそれぞれ存在するように要求することを示唆することを意図されない。
同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序で、または連続的順序で実施される、または全ての図示される動作が実施される必要はないと認識されるべきである。さらに、図面は、フローチャートの形態で1つ以上の例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的方法およびプロセス内に組み込まれることができる。例えば、1つ以上の付加的動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。加えて、動
作は、他の実装において再配列される、または再順序付けられ得る。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。

Claims (15)

  1. コンピューティングシステムであって、
    ディスプレイデバイスと、
    ソフトウェア命令を記憶するように構成された非一過性コンピュータ可読記憶媒体と、
    ハードウェアプロセッサと
    を備え、
    前記ハードウェアプロセッサは、
    前記ディスプレイデバイスを介してユーザの視野内に仮想コンテンツとしてレンダリングされるユーザインターフェースの特定の部分との前記ユーザのユーザ相互作用に基づいてユーザインターフェースイベントを検出することと、
    前記ユーザインターフェースイベントの間または直後に入手される前記ユーザの眼の1つ以上の画像を識別することであって、前記画像は、前記ユーザインターフェースの前記特定の部分に指向されている前記ユーザの眼姿勢を反映する、ことと、
    前記ユーザの眼画像に基づいて、ユーザの眼姿勢を検出するように構成されたニューラルネットワークの更新を開始することであって、前記ニューラルネットワークは、前記ユーザの眼姿勢を反映する前記1つ以上の画像と、前記ユーザインターフェースの前記特定の部分とに基づいて更新される、ことと
    を前記コンピューティングシステムに行わせるために、前記ソフトウェア命令を実行するように構成され、
    前記更新されたニューラルネットワークは、前記ユーザの眼姿勢を検出するために個人化される、コンピューティングシステム。
  2. 前記ニューラルネットワークは、前記ユーザ以外の個人からの複数の訓練用画像に基づいてユーザの眼姿勢を検出するように訓練される、請求項1に記載のコンピューティングシステム。
  3. 前記ユーザインターフェースイベントは、ユーザインターフェース要素の選択を備え、前記ユーザインターフェースの前記特定の部分は、前記ユーザインターフェース要素の場所を備える、請求項1に記載のコンピューティングシステム。
  4. 前記ニューラルネットワークの更新を開始することは、前記ユーザの前記眼の前記1つ以上の画像と、前記ユーザインターフェースの関連付けられた特定の部分とを、前記ニューラルネットワークを更新するように構成された遠隔サーバに伝送することを含む、請求項1に記載のコンピューティングシステム。
  5. 前記ソフトウェア命令は、
    前記ディスプレイデバイス上にレンダリングされる1つ以上のユーザインターフェースの特定の部分とのユーザ相互作用に基づいて付加的ユーザインターフェースイベントを検出することと、
    各検出された付加的ユーザインターフェースイベントに対して、前記付加的ユーザインターフェースイベントの間または直後に入手される前記ユーザの前記眼の1つ以上の画像を識別することと、
    付加的ユーザインターフェースイベントの1つ以上のセットと、前記ユーザの前記眼の対応する1つ以上の画像とに基づいて前記更新されたニューラルネットワークを周期的に最適化することと
    を前記コンピューティングシステムに行わせるようにさらに構成され、
    前記最適化されたニューラルネットワークは、前記ユーザの眼姿勢を検出するためにさらに個人化される、請求項1に記載のコンピューティングシステム。
  6. 前記コンピューティングシステムは、ウェアラブル拡張現実ヘッドセットを備え、前記ユーザインターフェースは、3次元環境中にレンダリングされる、請求項1に記載のコンピューティングシステム。
  7. 前記ディスプレイデバイスは、左ディスプレイと、右ディスプレイとを備える、請求項6に記載のコンピューティングシステム。
  8. コンピューティングシステムによって実施されるコンピュータ化された方法であって、前記コンピューティングシステムは、1つ以上のハードウェアコンピュータプロセッサと、前記コンピュータ化された方法を実施するために、前記コンピューティングシステムによって実行可能なソフトウェア命令を記憶する1つ以上の非一過性コンピュータ可読記憶デバイスとを有し、前記コンピュータ化された方法は、
    ディスプレイデバイスを介してユーザの視野内に仮想コンテンツとしてレンダリングされるユーザインターフェースの特定の部分とのユーザ相互作用に基づいてユーザインターフェースイベントを検出することと、
    前記ユーザインターフェースイベントの間または直後に入手される前記ユーザの眼の1つ以上の画像を識別することであって、前記画像は、前記ユーザインターフェースの前記特定の部分に指向されている眼姿勢を反映する、ことと、
    前記ユーザの眼画像に基づいて、ユーザの眼姿勢を検出するように構成されたニューラルネットワークの更新を開始することであって、前記ニューラルネットワークは、前記ユーザの眼姿勢を反映する前記1つ以上の画像と、前記ユーザインターフェースの前記特定の部分とに基づいて更新される、ことと
    を含み、
    前記更新されたニューラルネットワークは、前記ユーザの眼姿勢を検出するために個人化される、コンピュータ化された方法。
  9. 前記ニューラルネットワークは、前記ユーザ以外の個人からの複数の訓練用画像に基づいてユーザの眼姿勢を検出するように訓練される、請求項8に記載のコンピュータ化された方法。
  10. 前記ユーザインターフェースイベントは、ユーザインターフェース要素の選択を備え、前記ユーザインターフェースの前記特定の部分は、前記ユーザインターフェース要素の場所を備える、請求項8に記載のコンピュータ化された方法。
  11. 前記ニューラルネットワークの更新を開始することは、前記ユーザの前記眼の前記1つ以上の画像と、前記ユーザインターフェースの関連付けられた特定の部分とを、前記ニューラルネットワークを更新するように構成された遠隔サーバに伝送することを含む、請求項8に記載のコンピュータ化された方法。
  12. ソフトウェア命令が記憶された非一過性コンピュータ可読媒体であって、前記ソフトウェア命令は、
    ディスプレイデバイスを介してユーザの視野内に仮想コンテンツとしてレンダリングされるユーザインターフェースの特定の部分とのユーザ相互作用に基づいてユーザインターフェースイベントを検出することと、
    前記ユーザインターフェースイベントの間または直後に入手される前記ユーザの眼の1つ以上の画像を識別することであって、前記画像は、前記ユーザインターフェースの前記特定の部分に指向されている前記ユーザの眼姿勢を反映する、ことと、
    前記ユーザの眼画像に基づいて、ユーザの眼姿勢を検出するように構成されたニューラルネットワークの更新を開始することであって、前記ニューラルネットワークは、前記ユーザの眼姿勢を反映する前記1つ以上の画像と、前記ユーザインターフェースの前記特定の部分とに基づいて更新される、ことと
    を含む動作をコンピューティングシステムに実施させるために、ハードウェアコンピュータプロセッサによって実行可能であり、
    前記更新されたニューラルネットワークは、前記ユーザの眼姿勢を検出するために個人化される、非一過性コンピュータ可読媒体。
  13. 前記ニューラルネットワークは、前記ユーザ以外の個人からの複数の訓練用画像に基づいてユーザの眼姿勢を検出するように訓練される、請求項12に記載の非一過性コンピュータ可読媒体
  14. 前記ユーザインターフェースイベントは、ユーザインターフェース要素の選択を備え、前記ユーザインターフェースの前記特定の部分は、前記ユーザインターフェース要素の場所を備える、請求項12に記載の非一過性コンピュータ可読媒体
  15. 前記ニューラルネットワークの更新を開始することは、前記ユーザの前記眼の前記1つ以上の画像と、前記ユーザインターフェースの関連付けられた特定の部分とを、前記ニューラルネットワークを更新するように構成された遠隔サーバに伝送することを含む、請求項12に記載の非一過性コンピュータ可読媒体
JP2022166262A 2017-09-20 2022-10-17 眼追跡のための個人化されたニューラルネットワーク Active JP7436600B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762560898P 2017-09-20 2017-09-20
US62/560,898 2017-09-20
PCT/US2018/051461 WO2019060283A1 (en) 2017-09-20 2018-09-18 PERSONALIZED NEURONAL FOLLOW-UP NETWORK
JP2019571212A JP7162020B2 (ja) 2017-09-20 2018-09-18 眼追跡のための個人化されたニューラルネットワーク

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019571212A Division JP7162020B2 (ja) 2017-09-20 2018-09-18 眼追跡のための個人化されたニューラルネットワーク

Publications (2)

Publication Number Publication Date
JP2023011664A JP2023011664A (ja) 2023-01-24
JP7436600B2 true JP7436600B2 (ja) 2024-02-21

Family

ID=65720554

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019571212A Active JP7162020B2 (ja) 2017-09-20 2018-09-18 眼追跡のための個人化されたニューラルネットワーク
JP2022166262A Active JP7436600B2 (ja) 2017-09-20 2022-10-17 眼追跡のための個人化されたニューラルネットワーク

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019571212A Active JP7162020B2 (ja) 2017-09-20 2018-09-18 眼追跡のための個人化されたニューラルネットワーク

Country Status (9)

Country Link
US (3) US10719951B2 (ja)
EP (1) EP3685313A4 (ja)
JP (2) JP7162020B2 (ja)
KR (1) KR20200055704A (ja)
CN (1) CN111033524A (ja)
AU (1) AU2018337653A1 (ja)
CA (1) CA3068481A1 (ja)
IL (2) IL272289B (ja)
WO (1) WO2019060283A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019054598A1 (ko) * 2017-09-13 2019-03-21 주식회사 비주얼캠프 시선 추적 방법 및 이를 수행하기 위한 사용자 단말
CN111033524A (zh) * 2017-09-20 2020-04-17 奇跃公司 用于眼睛跟踪的个性化神经网络
US11556741B2 (en) 2018-02-09 2023-01-17 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
US11194161B2 (en) 2018-02-09 2021-12-07 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11393251B2 (en) 2018-02-09 2022-07-19 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11755902B2 (en) * 2018-06-01 2023-09-12 The Charles Stark Draper Laboratory, Inc. Co-adaptation for learning and control of devices
WO2019237085A1 (en) 2018-06-08 2019-12-12 Vulcan Inc. Session-based information exchange
US20190378334A1 (en) 2018-06-08 2019-12-12 Vulcan Inc. Augmented reality portal-based applications
US10996831B2 (en) * 2018-06-29 2021-05-04 Vulcan Inc. Augmented reality cursors
US11853390B1 (en) * 2018-08-03 2023-12-26 Amazon Technologies, Inc. Virtual/augmented reality data evaluation
US11537202B2 (en) 2019-01-16 2022-12-27 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
US11966929B2 (en) * 2019-02-05 2024-04-23 Infilect Technologies Private Limited System and method for quantifying brand visibility and compliance metrics for a brand
EP3979896A1 (en) 2019-06-05 2022-04-13 Pupil Labs GmbH Devices, systems and methods for predicting gaze-related parameters
US11908129B2 (en) 2019-12-27 2024-02-20 iAlyze, LLC Impairment analysis systems and related methods
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
CN111367405A (zh) * 2020-02-17 2020-07-03 深圳岱仕科技有限公司 头戴显示设备的调整方法、装置、计算机设备及存储介质
US10996753B1 (en) 2020-04-07 2021-05-04 Eyetech Digital Systems, Inc. Multi-mode eye-tracking with independently operable illuminators
US11921917B2 (en) 2020-04-07 2024-03-05 Eyetech Digital Systems, Inc. Compact eye-tracking camera systems and methods
CN112598728B (zh) * 2020-12-23 2024-02-13 极米科技股份有限公司 投影仪姿态估计、梯形校正方法、装置、投影仪及介质
WO2022251703A2 (en) * 2021-05-28 2022-12-01 Blinktbi, Inc. Systems and methods for eyelid localization
US20230053464A1 (en) * 2021-08-19 2023-02-23 Data-Core Systems, Inc. Systems, Methods, and Devices for Automatically Converting Explanation of Benefits (EOB) Printable Documents into Electronic Format using Artificial Intelligence Techniques
US12002290B2 (en) 2022-02-25 2024-06-04 Eyetech Digital Systems, Inc. Systems and methods for hybrid edge/cloud processing of eye-tracking image data
WO2024117524A1 (ko) * 2022-12-02 2024-06-06 삼성전자주식회사 미디어 콘텐트를 표시하기 위한 전자 장치 및 그 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030020755A1 (en) 1997-04-30 2003-01-30 Lemelson Jerome H. System and methods for controlling automatic scrolling of information on a display or screen
JP2008502990A (ja) 2004-06-18 2008-01-31 トビイ テクノロジー アーベー 視線追跡に基づいてコンピュータ装置を制御するための装置、方法及びコンピュータプログラム
US9207760B1 (en) 2012-09-28 2015-12-08 Google Inc. Input detection

Family Cites Families (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL98622A (en) * 1991-06-25 1996-10-31 Scitex Corp Ltd Method and device for using neural networks in figure work
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US7768380B2 (en) * 1994-05-09 2010-08-03 Automotive Technologies International, Inc. Security system control for monitoring vehicular compartments
US5583795A (en) 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
JP3361980B2 (ja) * 1997-12-12 2003-01-07 株式会社東芝 視線検出装置及びその方法
EP1483909B1 (en) 2002-03-13 2010-04-28 Imax Corporation Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
KR20050025927A (ko) 2003-09-08 2005-03-14 유웅덕 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법
USD514570S1 (en) 2004-06-24 2006-02-07 Microsoft Corporation Region of a fingerprint scanning device with an illuminated ring
US7248720B2 (en) 2004-10-21 2007-07-24 Retica Systems, Inc. Method and system for generating a combined retina/iris pattern biometric
US7549743B2 (en) * 2005-01-06 2009-06-23 University Of Rochester Systems and methods for improving visual discrimination
US20070052672A1 (en) 2005-09-08 2007-03-08 Swisscom Mobile Ag Communication device, system and method
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
JP4824420B2 (ja) 2006-02-07 2011-11-30 アイテック株式会社 視線ベクトル検出方法及び同装置
US7970179B2 (en) 2006-09-25 2011-06-28 Identix Incorporated Iris data extraction
US8363783B2 (en) 2007-06-04 2013-01-29 Oraya Therapeutics, Inc. Method and device for ocular alignment and coupling of ocular structures
JP5088024B2 (ja) 2007-07-11 2012-12-05 沖電気工業株式会社 試供品配布システム、試供品配布情報サーバ、試供品配布方法及び試供品配布情報処理プログラム
US20090129591A1 (en) 2007-11-21 2009-05-21 Hayes Gregory A Techniques for Securing Document Content in Print and Electronic Form
US8098891B2 (en) 2007-11-29 2012-01-17 Nec Laboratories America, Inc. Efficient multi-hypothesis multi-human 3D tracking in crowded scenes
US8064653B2 (en) 2007-11-29 2011-11-22 Viewdle, Inc. Method and system of person identification by facial image
US8411910B2 (en) 2008-04-17 2013-04-02 Biometricore, Inc. Computationally efficient feature extraction and matching iris recognition
US8341100B2 (en) 2008-07-03 2012-12-25 Nec Laboratories America, Inc. Epithelial layer detector and related methods
WO2010129074A1 (en) 2009-01-14 2010-11-11 Indiana University Research & Technology Corporation System and method for identifying a person with reference to a sclera image
US8374404B2 (en) 2009-02-13 2013-02-12 Raytheon Company Iris recognition using hyper-spectral signatures
US20100232654A1 (en) 2009-03-11 2010-09-16 Harris Corporation Method for reconstructing iris scans through novel inpainting techniques and mosaicing of partial collections
WO2011091326A1 (en) 2010-01-22 2011-07-28 Optimedica Corporation Apparatus for automated placement of scanned laser capsulorhexis incisions
US8345984B2 (en) 2010-01-28 2013-01-01 Nec Laboratories America, Inc. 3D convolutional neural networks for automatic human action recognition
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US9691289B2 (en) * 2010-12-22 2017-06-27 Brightstar Learning Monotonous game-like task to promote effortless automatic recognition of sight words
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
CA2822978C (en) 2010-12-24 2019-02-19 Hong Hua An ergonomic head mounted display device and optical system
CN103635891B (zh) 2011-05-06 2017-10-27 奇跃公司 大量同时远程数字呈现世界
EP2760363A4 (en) 2011-09-29 2015-06-24 Magic Leap Inc TACTILE GLOVE FOR HUMAN COMPUTER INTERACTION
US20130159939A1 (en) 2011-10-12 2013-06-20 Qualcomm Incorporated Authenticated gesture recognition
EP2587341B1 (en) * 2011-10-27 2017-01-04 Tobii AB Power management in an eye-tracking system
CN104011788B (zh) 2011-10-28 2016-11-16 奇跃公司 用于增强和虚拟现实的系统和方法
KR102440195B1 (ko) 2011-11-23 2022-09-02 매직 립, 인코포레이티드 3차원 가상 및 증강 현실 디스플레이 시스템
US10540008B2 (en) * 2012-01-04 2020-01-21 Tobii Ab System for gaze interaction
BR112014024941A2 (pt) 2012-04-05 2017-09-19 Magic Leap Inc dispositivo de imagem de campo de visão amplo com capacidade de focalização ativa
CN104737061B (zh) 2012-06-11 2018-01-16 奇跃公司 使用波导反射器阵列投射器的多深度平面三维显示器
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9141916B1 (en) 2012-06-29 2015-09-22 Google Inc. Using embedding functions with a deep network
US9262680B2 (en) 2012-07-31 2016-02-16 Japan Science And Technology Agency Point-of-gaze detection device, point-of-gaze detecting method, personal parameter calculating device, personal parameter calculating method, program, and computer-readable storage medium
US8369595B1 (en) 2012-08-10 2013-02-05 EyeVerify LLC Texture features for biometric authentication
JP2015534108A (ja) 2012-09-11 2015-11-26 マジック リープ, インコーポレイテッド 人間工学的な頭部搭載型ディスプレイデバイスおよび光学システム
JP2014092940A (ja) 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9195890B2 (en) 2012-12-10 2015-11-24 Sri International Iris biometric matching system
IL283193B (en) 2013-01-15 2022-08-01 Magic Leap Inc A system for scanning electromagnetic imaging radiation
US10231614B2 (en) * 2014-07-08 2019-03-19 Wesley W. O. Krueger Systems and methods for using virtual reality, augmented reality, and/or a synthetic 3-dimensional information for the measurement of human ocular performance
IL313175A (en) 2013-03-11 2024-07-01 Magic Leap Inc System and method for augmentation and virtual reality
US9147154B2 (en) 2013-03-13 2015-09-29 Google Inc. Classifying resources using a deep network
NZ735754A (en) 2013-03-15 2019-04-26 Magic Leap Inc Display system and method
EP2790126B1 (en) * 2013-04-08 2016-06-01 Cogisen SRL Method for gaze tracking
WO2014182769A1 (en) 2013-05-07 2014-11-13 The Johns Hopkins University Automated and non-mydriatic fundus-perimetry camera for irreversible eye diseases
US9275308B2 (en) 2013-05-31 2016-03-01 Google Inc. Object detection using deep neural networks
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US20140380249A1 (en) 2013-06-25 2014-12-25 Apple Inc. Visual recognition of gestures
CN103431840B (zh) 2013-07-31 2016-01-20 北京智谷睿拓技术服务有限公司 眼睛光学参数检测系统及方法
US10025982B2 (en) 2013-10-08 2018-07-17 Princeton Identity, Inc. Collecting and targeting marketing data and information based upon iris identification
KR20150041453A (ko) 2013-10-08 2015-04-16 엘지전자 주식회사 안경형 영상표시장치 및 그것의 제어방법
IL295157B2 (en) 2013-10-16 2023-10-01 Magic Leap Inc An augmented or virtual reality head device with intrapupillary distance adjustment
US9202144B2 (en) 2013-10-30 2015-12-01 Nec Laboratories America, Inc. Regionlets with shift invariant neural patterns for object detection
US10095917B2 (en) 2013-11-04 2018-10-09 Facebook, Inc. Systems and methods for facial representation
JP6236296B2 (ja) 2013-11-14 2017-11-22 株式会社デンソーアイティーラボラトリ 学習装置、学習プログラム、及び学習方法
CN107315249B (zh) 2013-11-27 2021-08-17 奇跃公司 虚拟和增强现实系统与方法
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
US9430829B2 (en) 2014-01-30 2016-08-30 Case Western Reserve University Automatic detection of mitosis using handcrafted and convolutional neural network features
CN111552079B (zh) 2014-01-31 2022-04-15 奇跃公司 多焦点显示系统和方法
NZ722904A (en) 2014-01-31 2020-05-29 Magic Leap Inc Multi-focal display system and method
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
IL231862A (en) 2014-04-01 2015-04-30 Superfish Ltd Image representation using a neural network
WO2015161307A1 (en) * 2014-04-18 2015-10-22 Magic Leap, Inc. Systems and methods for augmented and virtual reality
WO2015164807A1 (en) 2014-04-25 2015-10-29 Texas State University Detection of brain injury and subject state with eye movement biometrics
AU2015297036B2 (en) 2014-05-09 2017-09-28 Google Llc Systems and methods for discerning eye signals and continuous biometric identification
USD759657S1 (en) 2014-05-19 2016-06-21 Microsoft Corporation Connector with illumination region
CA3124368C (en) 2014-05-30 2023-04-25 Magic Leap, Inc. Methods and systems for generating virtual content display with a virtual or augmented reality apparatus
USD752529S1 (en) 2014-06-09 2016-03-29 Comcast Cable Communications, Llc Electronic housing with illuminated region
EP3699736B1 (en) * 2014-06-14 2023-03-29 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
US9330329B2 (en) 2014-07-09 2016-05-03 Ditto Labs, Inc. Systems, methods, and devices for image matching and object recognition in images using minimal feature points
WO2016013269A1 (ja) 2014-07-22 2016-01-28 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9536293B2 (en) 2014-07-30 2017-01-03 Adobe Systems Incorporated Image assessment using deep convolutional neural networks
KR102216126B1 (ko) 2014-07-31 2021-02-16 삼성전자주식회사 정맥 인증을 이용하여 동작하는 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법
US20160034811A1 (en) 2014-07-31 2016-02-04 Apple Inc. Efficient generation of complementary acoustic models for performing automatic speech recognition system combination
US9659384B2 (en) 2014-10-03 2017-05-23 EyeEm Mobile GmbH. Systems, methods, and computer program products for searching and sorting images by aesthetic quality
WO2016054779A1 (en) 2014-10-09 2016-04-14 Microsoft Technology Licensing, Llc Spatial pyramid pooling networks for image processing
EP3161728B1 (en) 2014-10-10 2023-05-17 Beijing Kuangshi Technology Co., Ltd. Hierarchical interlinked multi-scale convolutional network for image parsing
CN104299245B (zh) * 2014-10-13 2017-12-26 深圳先进技术研究院 基于神经网络的增强现实跟踪方法
KR102276339B1 (ko) 2014-12-09 2021-07-12 삼성전자주식회사 Cnn의 근사화를 위한 학습 장치 및 방법
CN115879519A (zh) 2014-12-24 2023-03-31 渊慧科技有限公司 增强神经网络以生成附加输出
US10686984B1 (en) * 2015-02-13 2020-06-16 Waylens, Inc. Connected camera system
WO2016145379A1 (en) 2015-03-12 2016-09-15 William Marsh Rice University Automated Compilation of Probabilistic Task Description into Executable Neural Network Specification
US9678664B2 (en) 2015-04-10 2017-06-13 Google Inc. Neural network for keyboard input decoding
CN107438866B (zh) 2015-05-13 2020-12-01 谷歌公司 深度立体:学习从现实世界形象预测新视图
USD758367S1 (en) 2015-05-14 2016-06-07 Magic Leap, Inc. Virtual reality headset
EP3337385A4 (en) 2015-08-21 2019-04-03 Magic Leap, Inc. ESTIMATING THE SHAPE OF A EYEWEAR USING THE MEASUREMENT OF THE POSITION OF THE EYE
US9767565B2 (en) 2015-08-26 2017-09-19 Digitalglobe, Inc. Synthesizing training data for broad area geospatial object detection
JP6678930B2 (ja) 2015-08-31 2020-04-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 分類モデルを学習する方法、コンピュータ・システムおよびコンピュータ・プログラム
US10120454B2 (en) * 2015-09-04 2018-11-06 Eyesight Mobile Technologies Ltd. Gesture recognition control device
US20170161506A1 (en) 2015-12-07 2017-06-08 Dell Products L.P. Information Handling System Encrypted Image Display Through Secondary Device
US10419747B2 (en) * 2015-12-22 2019-09-17 Google Llc System and methods for performing electronic display stabilization via retained lightfield rendering
US10225511B1 (en) * 2015-12-30 2019-03-05 Google Llc Low power framework for controlling image sensor mode in a mobile image capture device
US10303246B2 (en) * 2016-01-20 2019-05-28 North Inc. Systems, devices, and methods for proximity-based eye tracking
USD805734S1 (en) 2016-03-04 2017-12-26 Nike, Inc. Shirt
USD794288S1 (en) 2016-03-11 2017-08-15 Nike, Inc. Shoe with illuminable sole light sequence
US10255529B2 (en) * 2016-03-11 2019-04-09 Magic Leap, Inc. Structure learning in convolutional neural networks
US10423830B2 (en) 2016-04-22 2019-09-24 Intel Corporation Eye contact correction in real time using neural network based machine learning
CN114495249A (zh) 2016-07-14 2022-05-13 奇跃公司 使用角膜曲率的虹膜边界估计
US10922393B2 (en) 2016-07-14 2021-02-16 Magic Leap, Inc. Deep neural network for iris identification
CN109923500B (zh) 2016-08-22 2022-01-04 奇跃公司 具有深度学习传感器的增强现实显示装置
RU2016138608A (ru) 2016-09-29 2018-03-30 Мэджик Лип, Инк. Нейронная сеть для сегментации изображения глаза и оценки качества изображения
CN110073359B (zh) 2016-10-04 2023-04-04 奇跃公司 用于卷积神经网络的有效数据布局
WO2018093796A1 (en) 2016-11-15 2018-05-24 Magic Leap, Inc. Deep learning system for cuboid detection
US10650432B1 (en) * 2016-11-28 2020-05-12 Amazon Technologies, Inc. Recommendation system using improved neural network
US10757328B2 (en) * 2016-12-23 2020-08-25 Microsoft Technology Licensing, Llc Eye tracking using video information and electrooculography information
JP6929953B2 (ja) 2017-03-17 2021-09-01 マジック リープ, インコーポレイテッドMagic Leap,Inc. 部屋レイアウト推定方法および技法
CN111033524A (zh) 2017-09-20 2020-04-17 奇跃公司 用于眼睛跟踪的个性化神经网络

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030020755A1 (en) 1997-04-30 2003-01-30 Lemelson Jerome H. System and methods for controlling automatic scrolling of information on a display or screen
JP2008502990A (ja) 2004-06-18 2008-01-31 トビイ テクノロジー アーベー 視線追跡に基づいてコンピュータ装置を制御するための装置、方法及びコンピュータプログラム
US9207760B1 (en) 2012-09-28 2015-12-08 Google Inc. Input detection

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SESIN, A. et al.,Adaptive eye-gaze tracking using neural-network-based user profiles to assist people with motor disability,Journal of Rehabilitation Research & Development [online],2008年,Vol. 45, No. 6,pp. 801-817,[検索日 2023.08.07], インターネット:<URL:https://digitalcommons.fiu.edu/cgi/viewcontent.cgi?article=1025&context=ece_fac>

Also Published As

Publication number Publication date
AU2018337653A1 (en) 2020-01-16
IL294197A (en) 2022-08-01
US10719951B2 (en) 2020-07-21
JP7162020B2 (ja) 2022-10-27
US20190087973A1 (en) 2019-03-21
US20200286251A1 (en) 2020-09-10
JP2023011664A (ja) 2023-01-24
IL272289A (en) 2020-03-31
KR20200055704A (ko) 2020-05-21
US10977820B2 (en) 2021-04-13
EP3685313A1 (en) 2020-07-29
EP3685313A4 (en) 2021-06-09
US20210327085A1 (en) 2021-10-21
CA3068481A1 (en) 2019-03-28
WO2019060283A1 (en) 2019-03-28
IL272289B (en) 2022-08-01
CN111033524A (zh) 2020-04-17
JP2020537202A (ja) 2020-12-17

Similar Documents

Publication Publication Date Title
JP7436600B2 (ja) 眼追跡のための個人化されたニューラルネットワーク
JP7198383B2 (ja) ユーザインターフェースデバイスの表現を用いたニューラルネットワークの訓練
JP7186844B2 (ja) ウェアラブルデバイスによる顔モデル捕捉
JP7543466B2 (ja) 眼追跡較正技術
JP7307119B2 (ja) 完全な顔画像の眼球周囲およびオーディオ合成
JP2019502223A (ja) 眼画像の収集、選択および組み合わせ
US20240312158A1 (en) Object interactivity in virtual space

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230814

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240208

R150 Certificate of patent or registration of utility model

Ref document number: 7436600

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150