JP2020536309A - イベントカメラデータを使用するアイトラッキングの方法及び装置 - Google Patents

イベントカメラデータを使用するアイトラッキングの方法及び装置 Download PDF

Info

Publication number
JP2020536309A
JP2020536309A JP2020517942A JP2020517942A JP2020536309A JP 2020536309 A JP2020536309 A JP 2020536309A JP 2020517942 A JP2020517942 A JP 2020517942A JP 2020517942 A JP2020517942 A JP 2020517942A JP 2020536309 A JP2020536309 A JP 2020536309A
Authority
JP
Japan
Prior art keywords
light
intensity
user
modulated
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020517942A
Other languages
English (en)
Other versions
JP7008131B2 (ja
Inventor
ラフィ エイ ベディキアン
ラフィ エイ ベディキアン
ダニエル クルツ
ダニエル クルツ
リ ジャ
リ ジャ
トマス ゲラウアー
トマス ゲラウアー
ブランコ ペトルヤンスキ
ブランコ ペトルヤンスキ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Apple Inc
Original Assignee
Apple Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Apple Inc filed Critical Apple Inc
Publication of JP2020536309A publication Critical patent/JP2020536309A/ja
Application granted granted Critical
Publication of JP7008131B2 publication Critical patent/JP7008131B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Position Input By Displaying (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

一実装形態では、方法は、複数の光源からユーザの眼に向けて強度を変調した光を放射することを含む。本方法は、複数のグリントの形態でユーザの眼によって反射された複数のグリントの強度を示す光強度データを受信することと、光強度データに基づいてユーザのアイトラッキング特性を判定することと、を含む。一実装形態では、方法は、複数のそれぞれの位置に複数の光センサを含むイベントカメラを使用して、複数のイベントメッセージを生成することであって、複数のイベントメッセージのそれぞれは、光の強度の変化を検出し、特定の光センサの特定の位置を示す特定の光センサに応答して生成される。本方法は、複数のイベントメッセージに基づいて、ユーザのアイトラッキング特性を判定することを含む。

Description

(関連出願の相互参照)
本願は、2017年9月28日に出願された米国特許仮出願第62/564,875号の優先権を主張し、参照によりその全体を本明細書に組み込む。
本開示は、概して、アイトラッキングに関し、特に、イベントカメラデータを使用するアイトラッキングのためのシステム、方法、及び装置に関する。
様々な実装形態では、頭部装着デバイスは、頭部装着デバイスのユーザの視線方向を判定するアイトラッキングシステムを含む。アイトラッキングシステムは、多くの場合、アイトラッキングを行うプロセッサにユーザの眼の画像を送信するカメラを含む。アイトラッキングを可能にするのに十分なフレームレートでの画像の送信は、相当な帯域幅を有する通信リンクを必要とし、そのような通信リンクの使用により、頭部装着デバイスによる熱の発生と電力消費量が増加する。
本開示は、当業者によって理解され得るように、いくつかの例示的な実装形態の態様を参照することによって、より詳細な説明を有してもよく、そのいくつかは添付図面に示されている。
いくつかの実装形態に係る、例示的な動作環境のブロック図である。 いくつかの実装形態に係る、例示的なコントローラのブロック図である。 いくつかの実装形態に係る、例示的な頭部装着デバイス(HMD)のブロック図である。 いくつかの実装形態に係る、頭部装着デバイスのブロック図である。 いくつかの実装形態に係る、第1の視線方向を有するユーザの眼を示す図である。 いくつかの実装形態に係る、第2の視線方向を有するユーザの眼を示す図である。 いくつかの実装形態に係る、異なる時間における図5のユーザの眼を示す図である。 いくつかの実装形態に係る、異なる時間における図5のユーザの眼を示す図である。 いくつかの実装形態に係る、異なる時間における図5のユーザの眼を示す図である。 いくつかの実装形態に係る、異なる時間における図5のユーザの眼を示す図である。 いくつかの実装形態に係る、イベントカメラの機能ブロック図である。 いくつかの実装形態に係る、イベントメッセージのデータ図である。 いくつかの実装形態に係る、イベントカメラを含むアイトラッキングシステムの機能ブロック図である。 いくつかの実装形態に係る、機械学習回帰器を含むアイトラッキングシステムの機能ブロック図である。 いくつかの実装形態に係る、視線推定器を含むアイトラッキングシステムの機能ブロック図である。 いくつかの実装形態に係る、強度を変調したグリントを使用して視線方向を判定する方法のフローチャートである。 いくつかの実装形態に係る、イベントカメラを使用して視線方向を判定する方法のフローチャートである。
慣例により、図面に示される様々な特徴は縮尺どおりに描かれていない場合がある。したがって、明確にするために、様々な特徴の寸法は任意に拡大又は縮小されている場合がある。加えて、いくつかの図面は、所与のシステム、方法、又はデバイスの構成要素の全てを描いていない場合がある。最後に、本明細書及び図の全体を通して、同様の特徴を示すために同様の参照番号が使用される場合がある。
本明細書に開示される様々な実装形態は、強度変調光源を使用してアイトラッキング特性を判定するためのデバイス、システム、及び方法を含む。本方法は、複数の光源からユーザの眼に向けて強度を変調した光を放射することを含む。本方法は、複数のグリントの形態でユーザの眼によって反射された放射光の強度を示す光強度データを受信することを含む。本方法は、光強度データに基づいて、ユーザのアイトラッキング特性を判定することを含む。
本明細書に開示される様々な実装形態は、イベントカメラを使用してアイトラッキング特性を判定するためのデバイス、システム、及び方法を含む。本方法は、複数のそれぞれの位置に複数の光センサを含むイベントカメラを使用して、複数のイベントメッセージを生成することであって、複数のイベントメッセージのそれぞれが、光の強度の変化を検出する特定の光センサに応答して生成され、特定の光センサの特定の位置を示すことを含む。本方法は、複数のイベントメッセージに基づいて、ユーザのアイトラッキング特性を判定することを含む。
いくつかの実装形態によれば、デバイスは、1つ以上のプロセッサと、非一時的メモリと、1つ以上のプログラムと、を含む。1つ以上のプログラムは、非一時的メモリに記憶され、1つ以上のプロセッサによって実行されるように構成されており、1つ以上のプログラムは、本明細書に記載の方法のいずれかを実行するか又は実行させる命令を含む。いくつかの実装形態によれば、非一時的コンピュータ可読記憶媒体は内部に命令を記憶しており、この命令は、デバイスの1つ以上のプロセッサによって実行されると、デバイスに本明細書内で説明する方法のうちのいずれかの動作を実行させる。いくつかの実装形態によれば、デバイスは、1つ以上のプロセッサと、非一時的メモリと、本明細書に記載される方法のいずれかを実行する又は実行させる手段と、を含む。
図面に示される例示的な実装形態の十分な理解を提供するために、数多くの詳細が記載されている。しかしながら、図面は単に本開示のいくつかの例示的な態様を示すものであり、したがって、限定的であると考慮されるべきではない。当業者であれば、他の有効な態様及び/又は変形が本明細書に記載される特定の詳細全てを含むものではないと理解するであろう。さらに、周知のシステム、方法、構成要素、デバイス及び回路は、本明細書に記載される例示的な実装形態のより適切な態様を不明瞭にしないように、網羅的に詳細を記載していない。
様々な実装形態では、アイトラッキングは、ユーザ対話を可能にするために使用され、中心窩レンダリングを提供するか、又は幾何学的歪みを低減する。アイトラッキングシステムは、光源と、カメラと、ユーザの眼から反射された光源からの光に関する、カメラからの受信データに対してアイトラッキングを実行するプロセッサと、を含む。様々な実装形態では、カメラは、複数の位置に複数の光センサを有するイベントカメラを含み、このイベントカメラは、光の強度の変化を検出する特定の光センサに応答して、特定の光センサの特定の位置を示すイベントメッセージを生成する。イベントカメラは、動的視覚センサ(DVS)、シリコン網膜、イベントベースのカメラ、又はフレームレスカメラを含んでもよく、又はこのように称されてもよい。したがって、イベントカメラは、各光センサにおける絶対強度に関する大量のデータとは対照的に、光の強度の変化に関するデータを生成(及び送信)する。さらに、様々な実装形態では、強度が変化するときのデータが生成されるため、光源は、強度を変調した光を放射する。
図1は、いくつかの実装形態に係る、例示的な動作環境100のブロック図である。関連する特徴が示されているが、当業者であれば、本明細書に開示される例示的な実施形態のより適切な態様を曖昧にしないように簡潔化するために、様々な他の特徴が示されていないことを、本開示から理解するであろう。そのため、非限定的な例として、動作環境100は、コントローラ110と、頭部装着デバイス(HMD)120とを含む。
いくつかの実施形態では、コントローラ110は、ユーザに対する拡張現実/仮想現実(AR/VR)体験を管理及び調整するように構成される。いくつかの実施形態では、コントローラ110は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。コントローラ110については、図2を参照して以下より詳細に記載する。いくつかの実施形態では、コントローラ110は、シーン105に対してローカル又はリモートであるコンピューティングデバイスである。例えば、コントローラ110は、シーン105内に位置するローカルサーバである。別の例では、コントローラ110は、シーン105の外側に位置するリモートサーバ(例えば、クラウドサーバ、中央サーバなど)である。いくつかの実施形態では、コントローラ110は、1つ以上の有線又は無線通信チャネル144(例えば、BLUETOOTH、IEEE 802.11x、IEEE 802.16x、IEEE 802.3xなど)を介して、HMD120と通信可能に結合される。
いくつかの実施形態では、HMD120は、AR/VR体験をユーザに提示するように構成される。いくつかの実施形態では、HMD120は、ソフトウェア、ファームウェア、及び/又はハードウェアの好適な組み合わせを含む。HMD120については、図3を参照して以下より詳細に記載する。いくつかの実施形態では、コントローラ110の機能は、HMD120によって提供される、及び/又はHMD120と組み合わされる。
いくつかの実施形態によれば、HMD120は、ユーザがシーン105内に仮想的及び/又は物理的に存在している間に、拡張現実/仮想現実(AR/VR)体験をユーザに提示する。いくつかの実施形態では、拡張現実(AR)体験を提示している間に、HMD120は、ARコンテンツを提示し、シーン105の光学シースルーを可能にするように構成される。いくつかの実施形態では、仮想現実(VR)体験を提示している間に、HMD120は、VRコンテンツを提示し、シーン105の映像パススルーを可能にするように構成される。
いくつかの実施形態では、ユーザはHMD120を頭部に装着する。したがって、HMD120は、AR/VRのコンテンツを表示するために提供される1つ以上のAR/VRディスプレイを含む。このようなHMD120は、ユーザの視野を包囲する。いくつかの実装形態では、HMD120は、AR/VRコンテンツをユーザに提示するように構成されたハンドヘルド電子デバイス(例えば、スマートフォン又はタブレット)に置き換えられる。いくつかの実施形態では、HMD120は、ユーザがHMD120を着用又は保持せずに、AR/VRコンテンツを提示するように構成されたAR/VRチャンバ、エンクロージャ、又は部屋に置き換えられる。
図2は、いくつかの実装形態に係る、コントローラ110の一例のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実装形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。そのため、非限定的な例として、いくつかの実装形態では、コントローラ110は、1つ以上の処理ユニット202(例えば、マイクロプロセッサ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)、グラフィック処理ユニット(GPU)、中央処理ユニット(CPU)、処理コアなど)、1つ以上の入出力(I/O)デバイス206、1つ以上の通信インタフェース208(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、グローバル移動通信システム(GSM)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、グローバル測位システム(GPS)、赤外線(IR)、BLUETOOTH、ZIGBEE、及び/又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース210、メモリ220、並びにこれら及び様々な他の構成要素を相互接続するための1つ以上の通信バス204とを含む。
いくつかの実装形態では、1つ以上の通信バス204は、システム構成要素を相互接続し、システム構成要素間の通信を制御する回路を含む。いくつかの実装形態では、1つ以上のI/Oデバイス206は、キーボード、マウス、タッチパッド、ジョイスティック、1つ以上のマイクロフォン、1つ以上のスピーカ、1つ以上の画像センサ、1つ以上のディスプレイなどのうちの少なくとも1つを含む。
メモリ220は、ダイナミックランダムアクセスメモリ(DRAM)、スタティックランダムアクセスメモリ(SRAM)、ダブルデータレートランダムアクセスメモリ(DDRRAM)、又は他のランダムアクセスソリッドステートメモリデバイスなどの高速ランダムアクセスメモリを含む。いくつかの実装形態では、メモリ220は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又は他の不揮発性記憶デバイスなどの不揮発性メモリを含む。メモリ220は、1つ以上の処理ユニット202のリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ220は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実装形態では、メモリ220又はメモリ220の非一時的コンピュータ可読記憶媒体は、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶し、任意選択のオペレーティングシステム230及び拡張現実/仮想現実(AR/VR)体験モジュール240を含む。
オペレーティングシステム230は、様々な基本システムサービスを処理するため及びハードウェア依存タスクを実行するための手順を含む。いくつかの実装形態では、AR/VR体験モジュール240は、1人以上のユーザに対する1つ以上のAR/VR体験(例えば、1人以上のユーザに対する単一のAR/VR体験、又は1人以上のユーザの各群に対する複数のAR/VR体験)を管理及び調整するように構成される。そのため、様々な実装形態では、AR/VR体験モジュール240は、データ取得ユニット242、追跡ユニット244、調整ユニット246、及びデータ送信ユニット248を含む。
いくつかの実装形態では、データ取得ユニット242は、少なくともHMD120からデータ(例えば、提示データ、対話データ、センサデータ、位置データなど)を取得するように構成される。その目的で、様々な実装形態において、データ取得ユニット242は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実装形態では、追跡ユニット244は、シーン105をマッピングし、シーン105に対する少なくともHMD120の位置/場所を追跡するように構成される。その目的で、様々な実装形態において、追跡ユニット244は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実装形態では、調整ユニット246は、HMD120によってユーザに提示されるAR/VR体験を管理及び調整するように構成される。その目的で、様々な実装形態において、調整ユニット246は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実装形態では、データ送信ユニット248は、少なくともHMD120にデータ(例えば、提示データ、位置データなど)を送信するように構成される。その目的で、様々な実装形態において、データ送信ユニット248は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
データ取得ユニット242、追跡ユニット244、調整ユニット246、及びデータ送信ユニット248は、単一のデバイス(例えば、コントローラ110)上に存在するものとして示されているが、他の実装形態では、データ取得ユニット242、追跡ユニット244、調整ユニット246、及びデータ送信ユニット248の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。
図2は、本明細書に記載される実装形態の構造概略とは対照的に、特定の実装形態に存在する様々な特徴の機能的説明をさらに意図している。当業者によって認識されるように、別々に示されたアイテムを組み合わせることができ、一部のアイテムを分離することができる。例えば、図2に別々に示されるいくつかの機能モジュールは、単一のモジュールに実装することができ、単一の機能ブロックの様々な機能は、様々な実装形態において1つ以上の機能ブロックによって実装され得る。モジュールの実際の数並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実装形態によって異なり、いくつかの実装形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア又はファームウェアの特定の組み合わせに部分的に依存する。
図3は、いくつかの実装形態に係る、頭部装着デバイス(HMD)120のブロック図である。特定の特徴が示されているが、当業者は、本明細書に開示される実装形態のより適切な態様を曖昧にしないよう、簡潔にするために様々な他の特徴が示されていないことを、本開示から理解されよう。その目的のため、非限定的な例として、いくつかの実装形態では、HMD120は、1つ以上の処理ユニット302(例えば、マイクロプロセッサ、ASIC、FPGA、GPU、CPU、処理コアなど)、1つ以上の入出力(I/O)機器及びセンサ306、1つ以上の通信インタフェース308(例えば、USB、FIREWIRE、THUNDERBOLT、IEEE 802.3x、IEEE 802.11x、IEEE 802.16x、GSM、CDMA、TDMA、GPS、赤外線、BLUETOOTH、ZIGBEE、SPI、I2C又は同様のタイプのインタフェース)、1つ以上のプログラミング(例えば、I/O)インタフェース310、1つ以上のAR/VRディスプレイ312、1つ以上の内部及び/又は外部対向画像センサシステム314、メモリ320、及びこれら並びに様々な他の構成要素を相互接続するための1つ以上の通信バス304が挙げられる。
いくつかの実装形態では、1つ以上の通信バス304は、システム構成要素を相互接続し、システム構成要素間の通信を制御する回路を含む。いくつかの実装形態では、1つ以上のI/Oデバイス及びセンサ306は、慣性測定装置(IMU)、加速度計、磁力計、ジャイロスコープ、温度計、1つ以上の生理的センサ(例えば、血圧モニタ、心拍数モニタ、血液酸素センサ、血糖センサなど)、1つ以上のマイクロフォン、1つ以上のスピーカ、触覚エンジン、1つ以上の深度センサ(例えば、構造化光、飛行時間など)などのうちの少なくとも1つを含む。
いくつかの実装形態では、1つ以上のAR/VRディスプレイ312は、AR/VR体験をユーザに提示するように構成されている。いくつかの実装形態では、1つ以上のAR/VRディスプレイ312は、ホログラフィック、デジタル光処理(DLP)、液晶ディスプレイ(LCD)、液晶オンシリコン(LCoS)、有機発光電界効果トランジスタ(OLET)、有機発光ダイオード(OLED)、表面伝導型電子放射素子ディスプレイ(SED)、電界放射ディスプレイ(FED)、量子ドット発光ダイオード(QD−LED)、MEMS、及び/又は同様のディスプレイタイプに相当する。いくつかの実装形態では、1つ以上のAR/VRディスプレイ312は、回折、反射、偏光、ホログラフィックなどの、導波管ディスプレイに相当する。例えば、HMD120は、単一のAR/VRディスプレイを含む。別の実施例では、HMD120は、ユーザの各眼用のAR/VRディスプレイを含む。いくつかの実装形態では、1つ以上のAR/VRディスプレイ312は、AR又はVRコンテンツを提示することができる。いくつかの実装形態では、1つ以上のAR/VRディスプレイ312は、AR又はVRコンテンツを提示することができる。
いくつかの実装形態では、1つ以上の画像センサシステム314は、ユーザの眼を含むユーザの顔の一部に対応する画像データを取得するように構成される。1つ以上の画像センサシステム314は、1つ以上のRGBカメラ(例えば、相補型金属酸化膜半導体(CMOS)画像センサ又は電荷結合デバイス(CCD)画像センサを備えた)、モノクロカメラ、赤外線カメラ、イベントベースのカメラなどを含む。様々な実装形態では、1つ以上の画像センサシステム314は、フラッシュ又はグリント源などの、ユーザの顔の一部に光を放射する照明源をさらに含む。
メモリ320は、DRAM、SRAM、DDR RAM又は他のランダムアクセスソリッドステートメモリデバイスなどの、高速ランダムアクセスメモリを含む。いくつかの実装形態では、メモリ320は、1つ以上の磁気ディスク記憶デバイス、光ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の不揮発性記憶デバイスなどの不揮発性メモリを含む。メモリ320は、1つ以上の処理ユニット302からリモートに位置する1つ以上の記憶デバイスを任意選択的に含む。メモリ320は、非一時的コンピュータ可読記憶媒体を含む。いくつかの実装形態では、メモリ320又はメモリ320の非一時的コンピュータ可読記憶媒体は、以下のプログラム、モジュール及びデータ構造、又はそれらのサブセットを記憶し、任意選択のオペレーティングシステム330、AR/VR提示モジュール340、及びユーザデータストア360を含む。
オペレーティングシステム330は、様々な基本システムサービスを処理するための及びハードウェア依存タスクを実行するための手順を含む。いくつかの実装形態では、AR/VR提示モジュール340は、1つ以上のAR/VRディスプレイ312を介してAR/VRコンテンツをユーザに提示するように構成される。そのため、様々な実装形態では、AR/VR提示モジュール340は、データ取得ユニット342、AR/VR提示ユニット344、アイトラッキングユニット346、及びデータ送信ユニット348を含む。
いくつかの実装形態では、データ取得ユニット342は、少なくともコントローラ110からデータ(例えば、提示データ、対話データ、センサデータ、位置データなど)を取得するように構成される。その目的で、様々な実装形態では、データ取得ユニット342は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実装形態では、AR/VR提示ユニット344は、1つ以上のAR/VRディスプレイ312を介してAR/VRコンテンツを提示するように構成される。その目的のため、様々な実装形態では、AR/VR提示ユニット344は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実装形態では、アイトラッキングユニット346は、イベントカメラから受信したイベントメッセージに基づいて、ユーザのアイトラッキング特性を判定するように構成される。その目的で、様々な実装形態において、アイトラッキングユニット346は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
いくつかの実装形態では、データ送信ユニット348は、少なくともコントローラ110にデータ(例えば、提示データ、位置データなど)を送信するように構成される。その目的で、様々な実装形態では、データ送信ユニット348は、そのための命令及び/又は論理、並びにそのためのヒューリスティックス及びメタデータを含む。
データ取得ユニット342は、AR/VR提示ユニット344、アイトラッキングユニット346、及びデータ送信ユニット348は、単一のデバイス(例えば、HMD120)上に存在するものとして示されているが、他の実装形態では、データ取得ユニット342、AR/VR提示ユニット344、アイトラッキングユニット346、及びデータ送信ユニット348の任意の組み合わせが、別個のコンピューティングデバイス内に配置されてもよいことを理解されたい。
図3は、本明細書に記載される実装形態の構造概略とは対照的に、特定の実装形態に存在する様々な特徴の機能的説明をさらに意図している。当業者によって認識されるように、別々に示されたアイテムを組み合わせることができ、一部のアイテムを分離することができる。例えば、図3に別々に示されるいくつかの機能モジュールは、単一のモジュール内に実装することができ、単一の機能ブロックの様々な機能は、様々な実装形態において1つ以上の機能ブロックによって実装され得る。モジュールの実際の数並びに特定の機能の分割及びそれらの間にどのように機能が割り当てられるかは、実装形態によって異なり、いくつかの実装形態では、特定の実装形態のために選択されたハードウェア、ソフトウェア又はファームウェアの特定の組み合わせに部分的に依存する。
図4は、いくつかの実装形態に係る、頭部装着デバイス400のブロック図である。頭部装着デバイス400は、頭部装着デバイス400の様々な構成要素を収容する筐体401(又はエンクロージャ)を含む。筐体401は、筐体401の(ユーザ10の)近位端に配置されたアイパッド405を含むことができる(又はアイパッドに結合することができる)。いくつかの実装形態では、アイパッド405はプラスチック又はゴム片であり、ユーザ10の顔の上の適切な位置(例えば、ユーザ10の眼を取り囲む位置)に快適かつぴったりと頭部装着デバイス400を保持する。
筐体401は、画像を表示するディスプレイ410を収容することができ、ユーザ10の眼に向けて光を放射する。様々な実装形態では、ディスプレイ410は、ディスプレイ410によって放射された光を屈折させるアイピース(図示せず)を通って光を出射し、ディスプレイは、ユーザ10にとって眼からディスプレイ410までの実際の距離よりも遠い仮想距離にあるように見える。様々な実装形態では、ユーザがディスプレイ410に焦点を合わせることができるようにするために、仮想距離は、眼の最小焦点距離(例えば、7cm)よりも少なくとも大きい。さらに、様々な実装形態では、より良好なユーザ体験を提供するために、仮想距離は1m超である。
図4は、ディスプレイ410及びアイパッド405を含む頭部装着デバイス400を示すが、いくつかの実装形態では、頭部装着デバイス400はディスプレイ410を含まないか、又はアイパッド405を含まない光学シースルーディスプレイを含む。
筐体401はまた、1つ以上の光源422、カメラ424、及びコントローラ480を含むアイトラッキングシステムを収容する。1つ以上の光源422は、カメラ424によって検出することができる光パターン(例えば、グリントの円)として反射する光をユーザ10の眼上に出射する。光パターンに基づいて、コントローラ480は、ユーザ10のアイトラッキング特性を判定することができる。例えば、コントローラ480は、ユーザ10の視線方向及び/又は瞬き状態(眼の開いた又は眼が閉じた状態)を判定することができる。別の例として、コントローラ480は、瞳孔中心、瞳孔径、又は注視点を判定することができる。したがって、様々な実装形態では、光が1つ以上の光源422によって放射され、ユーザ10の眼で反射され、カメラ424によって検出される。様々な実装形態では、ユーザ10の眼からの光は、カメラ424に到達する前に、ホットミラーで反射されるか、又はアイピースを通過する。
ディスプレイ410は、第1の波長範囲の光を放射し、1つ以上の光源422は、第2の波長範囲の光を放射する。同様に、カメラ424は、第2の波長範囲の光を検出する。様々な実装形態では、第1の波長範囲は可視波長範囲(例えば、約400〜700nmの可視スペクトル内の波長範囲)であり、第2の波長範囲は近赤外波長範囲(例えば、約700〜1400nmの近赤外スペクトル内の波長範囲)である。
様々な実装形態では、アイトラッキング(又は、具体的には、所定の視線方向)を使用して、ユーザ対話を可能にする(例えば、ユーザ10は、ディスプレイ410上のオプションを見ることによって選択する)、中心窩レンダリングを提供する(例えば、ユーザ10が見ているディスプレイ410の領域内では高い解像度で、ディスプレイ410上の他の場所ではそれ以下の解像度で提示する)、又は(例えば、ディスプレイ410上のオブジェクトの3Dレンダリングにおいて)幾何学的歪みを低減する。
様々な実装形態では、1つ以上の光源422は、複数のグリントの形態で反射する光を、ユーザの眼に向けて出射する。図5Aは、いくつかの実装形態に係る、第1の視線方向を有するユーザの眼500を示す。図5Bは、いくつかの実装形態に係る、第2の視線方向を有するユーザの眼500を示す。眼500は、虹彩554によって囲まれた瞳孔552を含み、虹彩と瞳孔はどちらも角膜550によって覆われている。眼500は、強膜556(白眼500としても知られる)をさらに含む。ユーザが(図5Aのように)第1の視線方向を有するとき、あるパターン(例えば、円)に配置された複数の光源422から出射された光は、第1のパターン(図5Aの円も)の複数のグリント510の形態で角膜550によって反射される。ユーザが(図5Bのように)第2の視線方向を有するとき、同じパターンで配列された複数の光源422から出射された光は、第2のパターン(図5Bの傾斜楕円)を有する複数のグリント510の形態で角膜550によって反射される。したがって、反射パターン(及び、場合によっては、瞳孔径、瞳孔形状、瞳孔中心などの他の特徴)に基づいて、ユーザのアイトラッキング特性を判定することができる。
様々な実装形態では、1つ以上の光源422(図4)は、ユーザの眼に向けて強度を変調した光を出射する。したがって、第1の時間において、複数の光源のうちの第1の光源は、第1の強度でユーザの眼に投射され、第2の時間において、複数の光源のうちの第1の光源は、第1の強度とは異なる第2の強度(ゼロになり得る、例えば、オフ)でユーザの眼に投射される。
図6A〜図6Dは、いくつかの実装形態に係る、異なる時間における図5のユーザの眼500を示す。複数のグリント610A〜610Hは、ユーザの眼500に向けて強度を変調した光を放射する(及び角膜550によって反射される)。例えば、第1の時間(図6A)では、複数のグリント610A〜610Hのうちの第1のグリント610A及び第5のグリント610Eは、ユーザの眼500によって第1の強度で反射される。第1の時間よりも後の第2の時間(図6B)では、第1のグリント610A及び第5のグリント610Eの強度は、第2の強度(例えば、ゼロ)に変調される。また、第2の時間では、複数のグリント610A〜610Hのうちの第2のグリント610B及び第6のグリント610Fは、ユーザの眼500によって第1の強度で反射される。第2の時間よりも後の第3の時間(図6C)では、複数のグリント610A〜610Hのうちの第3のグリント610C及び第7のグリント610Gは、ユーザの眼500によって第1の強度で反射される。第3の時間よりも後の第4の時間(図6D)では、複数のグリント610A〜610Hのうちの第4のグリント610D及び第8のグリント610Hは、ユーザの眼500によって第1の強度で反射される。第4の時間よりも後の第5の時間(図6Aに戻る)では、第1のグリント610A及び第5のグリント610Eの強度は、第1の強度に戻るように変調される。
したがって、様々な実装形態では、複数のグリント610A〜610Hのそれぞれは、変調周波数(例えば、600Hz)で点滅する。しかしながら、第2のグリント610Bの位相は、第1のグリント610Aの位相からオフセットされ、第3のグリント610Cの位相は、第2のグリント610Bなどの位相からオフセットされて、グリントは角膜550の周りを回転しているように見える。
したがって、様々な実装形態では、複数の光源のうちの異なる光源の強度は、異なるように変調される。したがって、眼によって反射されカメラ424によって検出されたグリントが分析されると、グリント及び対応する光源(例えば、検出されたグリントを生成した光源)を判定することができる。
様々な実装形態では、1つ以上の光源422(図4Aの)は、様々に差示的に変調される。様々な実装形態では、複数の光源のうちの第1の光源は、第1の位相オフセットによって第1の周波数で変調され(例えば、図6Aの第1のグリント610A)、複数の光源のうちの第2の光源は、第2の位相オフセットによって第1の周波数で変調される(例えば、図6Bの第2のグリント610B)。
様々な実装形態では、1つ以上の光源422は、異なる変調周波数で放射光の強度を変調する。例えば、様々な実装形態では、複数の光源のうちの第1の光源は、第1の周波数(例えば、600Hz)で変調され、複数の光源のうちの第2の光源は、第2の周波数(例えば、500Hz)で変調される。
様々な実装形態では、1つ以上の光源422は、CDMA(符号分割多重アクセス)通信で使用され得るものなどの、異なる直交符号にしたがって放射光の強度を変調する。例えば、ウォルシュ行列の行又は列は、直交符号として使用することができる。したがって、様々な実装形態では、複数の光源のうちの第1の光源は、第1の直交符号にしたがって変調され、複数の光源のうちの第2の光源は、第2の直交符号にしたがって変調される。
様々な実装形態では、1つ以上の光源422は、高強度値と低強度値のいずれかに放射光の強度を変調する。したがって、様々な時間において、光源によって放射される光の強度は、高強度値又は低強度値のいずれかである。様々な実装携帯では、低強度値はゼロである。したがって、様々な実装形態では、1つ以上の光源422は、オン状態(高強度値)とオフ状態(低強度値)のいずれかで放射光の強度を変調する。様々な実装形態では(図6A〜6D)、複数の光源のうちオン状態の光源数は一定である。
様々な実装形態では、1つ以上の光源422は、強度範囲内(例えば、最大強度の10%〜最大強度の40%)で放射光の強度を変調する。したがって、様々な時間において、光源の強度は、低強度値、高強度値、又はそれらの間の何らかの値のいずれかである。様々な実装形態では、1つ以上の光源422は、複数の光源のうちの第1の光源が第1の強度範囲内で変調され、複数の光源のうちの第2の光源が第1の強度範囲とは異なる第2の強度範囲内で変調されるように、差次的に変調される。
様々な実装形態では、1つ以上の光源422は、視線方向にしたがって放射された光の強度を変調する。例えば、ユーザが、特定の光源からの光(例えば、図5Bの左上のグリント)を瞳孔によって反射する方向を注視している場合、1つ以上の光源422は、この知識に基づいて、放射光の強度を変更する。様々な実装形態では、1つ以上の光源422は、放射光の強度を低下させて、近赤外光の量を安全上の予防措置として瞳孔に入射させる。
様々な実装形態では、1つ以上の光源422は、ユーザバイオメトリクスにしたがって放射された光の強度を変調する。例えば、ユーザが正常時よりも多く瞬きしている、心拍数が上昇している、又は子供として登録されている場合、1つ以上の光源422は、眼への応力を低減するために、放射光の強度(又は複数の光源によって放射される全ての光の総強度)を低下させる。別の例として、1つ以上の光源422は、青色の眼と茶色の眼とはスペクトル反射率が異なるため、ユーザの眼の色に基づいて放射光の強度を変調する。
様々な実装形態では、1つ以上の光源422は、提示されたユーザインタフェース(例えば、ディスプレイ410上に表示されているもの)にしたがって、放射光の強度を変調する。例えば、ディスプレイ410が異常に明るい(例えば、爆発の映像が表示されている)場合、1つ以上の光源422は、放射光の強度を向上させて、ディスプレイ410からの潜在的な干渉を補償する。
様々な実装形態では、カメラ424は、フレームレートでの特定の時点又は複数の時点で、ユーザ10の眼の画像を生成するフレームカメラである。各画像は、カメラの光センサのマトリクスの位置に対応する、画像の画素に対応する画素値のマトリクスを含む。
様々な実装形態では、カメラ424は、光の強度の変化を検出する特定の光センサに応答して、特定の光センサの特定の位置を示すイベントメッセージを生成する複数の光センサ(例えば、光センサのマトリクス)を、複数の対応する位置に含むイベントカメラである。
図7は、いくつかの実装形態に係る、イベントカメラ700の機能ブロック図である。イベントカメラ700は、メッセージ生成器770にそれぞれ結合された複数の光センサ760を含む。様々な実装形態では、複数の光センサ760は、行及び列のマトリクス状に配置されるため、複数の光センサ760のそれぞれは行値及び列値と関連付けられる。
複数の光センサ760は、図7に詳細に示される光センサ701を含む。光センサ701は、ソース電圧と接地電圧との間の抵抗器721と直列のフォトダイオード710を含む。フォトダイオード710の両端間電圧は、光センサ701に衝突する光の強度に比例する。光センサ701は、フォトダイオード710と平行な第1のコンデンサ731を含む。したがって、第1のコンデンサ731の両端間電圧は、(例えば、光センサ701によって検出された光の強度に比例する)フォトダイオード710の両端間電圧と同じである。
光センサ701は、第1のコンデンサ731と第2のコンデンサ732との間に結合されたスイッチ740を含む。第2のコンデンサ732は、スイッチと接地電圧との間に結合される。したがって、スイッチ740が閉じられているとき、第2のコンデンサ732の両端間電圧は、第1のコンデンサ731の両端間電圧と同じである(例えば、光センサ701によって検出された光の強度に比例する)。スイッチ740が開いているとき、第2のコンデンサ732の両端間電圧は、スイッチ740が最後に閉じられたときの第2のコンデンサ732の両端間電圧に固定される。
第1のコンデンサ731の両端間電圧及び第2のコンデンサ732の両端間電圧は、比較器750に供給される。第1のコンデンサ731の両端間電圧と第2のコンデンサ732の両端間電圧との差が閾値量未満であるとき、比較器750は「0」電圧を出力する。第1のコンデンサ731の両端間電圧が、第2のコンデンサ732の両端間電圧よりも少なくとも閾値量だけ高いとき、比較器750は「1」電圧を出力する。第1のコンデンサ731の両端間電圧が、第2のコンデンサ732の両端間電圧よりも少なくとも閾値量だけ低いとき、比較器750は、「−1」電圧を出力する。
比較器750が「1」電圧又は「−1」電圧を出力するとき、スイッチ740は閉じられ、メッセージ生成器770はこのデジタル信号を受信し、イベントメッセージを生成する(以下でさらに説明する)。
一例として、第1の時間において、光センサ701に衝突する光の強度が、第1の光値である。したがって、フォトダイオード710の両端間電圧が、第1の電圧値である。同様に、第1のコンデンサ731の両端間電圧が、第1の電圧値である。この例では、第2のコンデンサ732の両端間電圧も第1の電圧値である。したがって、比較器750は「0」電圧を出力し、スイッチ740は閉じたままであり、メッセージ生成器770は何も行わない。
第2の時間において、光センサ701に衝突する光の強度は、第2の光値まで増加する。したがって、フォトダイオード710の両端間電圧は、(第1の電圧値よりも高い)第2の電圧値である。同様に、第1のコンデンサ731の両端間電圧が、第2の電圧値である。スイッチ740が開いているため、第2のコンデンサ732の両端間電圧は、依然として第1の電圧値のままである。第2の電圧値が少なくとも第1の電圧値よりも大きい閾値であると仮定すると、比較器750は、「1」電圧を出力して、スイッチ740は閉じられ、メッセージ生成器770は、受信したデジタル信号に基づいてイベントメッセージを生成する。
スイッチ740が比較器750から「1」電圧によって閉じられた状態で、第2のコンデンサ732の両端間電圧は、第1の電圧値から第2の電圧値に変化する。したがって、比較器750は「0」電圧を出力し、スイッチ740を開く。
第3の時間において、光センサ701に衝突する光の強度は、第3の光値まで(再び)増大する。したがって、フォトダイオード710の両端間電圧は、(第2の電圧値よりも高い)第3の電圧値である。同様に、第1のコンデンサ731の両端間電圧が、第3の電圧値である。スイッチ740が開いているため、第2のコンデンサ732の両端間電圧は、依然として第2の電圧値のままである。第3の電圧値が少なくとも第2の電圧値よりも大きい閾値であると仮定すると、比較器750は、「1」電圧を出力し、スイッチ740が閉じられ、メッセージ生成器770は、受信したデジタル信号に基づいてイベントメッセージを生成する。
スイッチ740が比較器750から「1」電圧によって閉じられた状態で、第2のコンデンサ732の両端間電圧は、第2の電圧値から第3の電圧値に変化する。したがって、比較器750は「0」電圧を出力し、スイッチ740を開く。
第4の時間において、光センサ701に衝突する光の強度は、第2の光値に戻る。したがって、フォトダイオード710の両端間電圧は、第2の電圧値(第3の電圧値未満)である。同様に、第1のコンデンサ731の両端間電圧が、第2の電圧値である。スイッチ740が開いているため、第2のコンデンサ732の両端間電圧は、依然として第3の電圧値のままである。したがって、比較器750は、「−1」電圧を出力し、スイッチ740が閉じられ、メッセージ生成器770は、受信したデジタル信号に基づいてイベントメッセージを生成する。
スイッチ740が比較器750から「−1」電圧によって閉じられた状態で、第2のコンデンサ732の両端間電圧は、第3の電圧値から第2の電圧値に変化する。したがって、比較器750は「0」電圧を出力し、スイッチ740を開く。
メッセージ生成器770は、異なる時点で、複数の光センサ760のそれぞれから、光の強度の増大(「1」電圧)又は光の強度の低下(「−1」電圧)を示すデジタル信号を受信する。複数の光センサ760の特定の光センサからデジタル信号を受信したことに応じて、メッセージ生成器770はイベントメッセージを生成する。
図8は、いくつかの実装形態に係る、イベントメッセージ800のデータ図である。様々な実装形態では、イベントメッセージ800は、位置フィールド802において、特定の光センサの特定の位置を示す。様々な実装形態では、イベントメッセージは、(例えば、行フィールド内の)行値及び(例えば、列フィールド内の)列値などの画素座標で特定の位置を示す。様々な実装形態では、イベントメッセージは、極性フィールド803において、光の強度の変化の極性をさらに示す。例えば、イベントメッセージは、極性フィールド803内に光の強度の増大を示す「1」を含み、極性フィールド803内に光の強度の低下を示す「0」を含むことができる。様々な実装形態では、イベントメッセージは、時間フィールド801において、光の強度の変化が検出された時間(例えば、デジタル信号が受信された時間)をさらに示す。様々な実装形態では、イベントメッセージは、極性に代えて又は極性に加えて、検出された光の強度を示す値を示す絶対強度フィールド(図示せず)を示す。
図9Aは、いくつかの実装形態に係る、イベントカメラ910を含むアイトラッキングシステム900の機能ブロック図である。アイトラッキングシステム900は、イベントカメラ910から受信したイベントメッセージに基づいて、ユーザの視線方向を出力する。
イベントカメラ910は、複数の光センサを複数の対応位置に備える。光の強度の変化を検出する特定の光センサに応答して、イベントカメラ910は、特定の光センサの特定の位置を示すイベントメッセージを生成する。図8に関して上述したように、様々な実装形態では、特定の位置は画素座標で示す。様々な実装形態では、イベントメッセージは、光の強度の変化の極性をさらに示す。様々な実装形態では、イベントメッセージは、光の強度の変化が検出された時間をさらに示す。様々な実装形態では、イベントメッセージは、検出された光の強度を示す値をさらに示す。
イベントカメラ910からのイベントメッセージは、ダイプレクサ920によって受信される。ダイプレクサ920は、イベントメッセージを、(1つ以上の光源の変調周波数を中心とする周波数帯域に関連付けられた)標的周波数イベントメッセージと、(他の周波数に関連付けられた)標的外周波数イベントメッセージとを分離して、グリント検出器940に結合された第1の特徴生成器930に標的周波数イベントメッセージを供給し、瞳孔検出器960に結合された第2の特徴生成器950に標的外周波数イベントメッセージを供給する。いくつかの実装形態では、第1の特徴生成器930及び/又は第2の特徴生成器950は省略され、標的周波数イベントメッセージ及び/又は標的外周波数イベントメッセージはそれぞれ、グリント検出器940及び/又は瞳孔検出器960に直接供給される。
様々な実装形態では、ダイプレクサ920は、時間フィールドにおいて、光の強度の変化が検出された時間を示すタイムスタンプに基づいて、イベントメッセージが標的周波数イベントメッセージ(又は標的外周波数イベントメッセージ)であると判定する。例えば、様々な実装形態では、ダイプレクサ920は、イベントメッセージが、設定時間内の特定の位置を示す設定範囲内の設定数のイベントメッセージを含むセットのうちの1つである場合、イベントメッセージが標的周波数イベントメッセージであると判定する。そうでない場合、ダイプレクサ920は、イベントメッセージが標的外周波数イベントメッセージであると判定する。様々な実装形態では、設定範囲及び/又は設定時間は、ユーザの眼に向けて放射される変調光の変調周波数に比例する。別の実施例として、様々な実装形態では、ダイプレクサ920は、類似又は反対の極性を有する連続イベント間の時間が設定時間範囲内にある場合、イベントメッセージが標的周波数イベントメッセージであると判定する。
第2の特徴生成器950は、標的外周波数イベントメッセージを受信し、標的外周波数イベントメッセージに基づいて1つ以上の標的外特徴を生成する。一実施形態では、標的外特徴は、近似強度画像である。様々な実装形態では、近似強度画像は、光センサのそれぞれの位置に対応するそれぞれの複数の画素における複数の画素値を有する画像を含む。特定の位置及び(光の強度が増大したことを示す)正の極性を示すイベントメッセージを受信すると、特定の位置に対応する画素における画素値にある量(例えば、1)が加算される。同様に、特定の位置及び(光の強度が低下したことを示す)負の極性を示すイベントメッセージを受信すると、特定の位置に対応する画素における画素値からある量を減算する。様々な実装形態では、近似強度画像はフィルタリングされる、例えば、ぼやける。一実施形態では、標的外特徴は、光センサのそれぞれの位置に対応するそれぞれの複数の画素における複数の画素値を有する正のタイムスタンプ画像であり、画素値は、対応する光センサが最後の正の極性のイベントをトリガしたときを示すタイムスタンプである。一実施形態では、標的外特徴は、光センサのそれぞれの位置に対応するそれぞれの複数の画素における複数の画素値を有する負のタイムスタンプ画像であり、画素値は、対応する光センサが最後の負の極性のイベントをトリガしたときを示すタイムスタンプである。一実施形態では、標的外特徴は、光センサのそれぞれの位置に対応するそれぞれの複数の画素における複数の画素値を有する周波数画像であり、画素値は、対応する光センサから受信したイベントメッセージの周波数の尺度である。様々な実装形態では、標的外特徴は、標的外周波数イベントメッセージに基づく他の特徴であり得る。
標的外特徴は、瞳孔検出器960によって受信される。一実施形態では、標的外特徴は、近似強度画像であり、瞳孔検出器960は、近似強度画像内に低強度領域を位置決めする。様々な実装形態では、瞳孔検出器960は、閾値未満の画素値を有する(少なくとも閾値サイズの)領域を位置決めする。様々な実装形態では、この領域は、ユーザの眼の瞳孔に対応する。様々な実装形態では、瞳孔検出器960は、楕円を低強度領域に当てはめ、楕円に関する楕円データを生成する。
様々な実装形態では、瞳孔検出器960は、初期瞳孔検出に加えて瞳孔追跡を行う。様々な実装形態では、瞳孔検出器960は、標的外周波数イベントメッセージ及び/又は標的外特徴に基づいて1つ以上の高コントラスト縁部を位置決めし、1つ以上の高コントラスト縁部及び前の楕円に基づいて新しい楕円を当てはめる。
様々な実装形態では、瞳孔検出器960は、新しい楕円及び/又は前の楕円に関する楕円データを幾何学的分析器970に提供する。様々な実装形態では、楕円データは、(瞳孔の瞳孔径に対応する)中心、(瞳孔径に対応する)短軸径及び長軸径、並びに回転角のうちの1つ以上を含む。
第1の特徴生成器930は、標的周波数イベントメッセージを受信し、標的周波数イベントメッセージに基づいて標的特徴を生成する。標的特徴は、標的外特徴と同じ又は異なる特徴を含む、標的外特徴に対して上述した特徴のうちのいずれかであり得る。グリント検出器940は、第1の特徴生成器930から標的特徴を受信する。様々な実装形態では、グリント検出器940は、ユーザの眼から反射された1つ以上のグリントの位置を判定する。様々な実装形態では、グリント検出器940は、光の強度の低下を示す(例えば、負の極性を示す)イベントメッセージに基づくことなく、光の強度の増大を示す(例えば、正の極性を示す)イベントメッセージに基づいて、位置を判定する。様々な実装形態では、グリント検出器940は、光の強度の増大を示す(例えば、正の極性を示す)イベントメッセージに基づくことなく、光の強度の低下を示す(例えば、負の極性を示す)イベントメッセージに基づいて、位置を判定する。
上述のように、様々な実装形態では、グリントは差示的変調をもって反射される(例えば、異なって変調される)。したがって、様々な実装形態では、グリント検出器940は、1つ以上のグリントの位置に加えて識別情報を判定する。したがって、様々な実装形態では、グリント検出器940は、1つ以上のグリントに対して、グリントを生成したそれぞれの光源に対応するそれぞれの位置及び対応する識別子を示すグリント検出メッセージを、幾何学的分析器970に出力する。様々な実装形態では、光源とイベントカメラとが同期され、変化が検出された時間と光源がトリガされた時間との間の相対時間を判定して、上記識別を可能にする。
幾何学的分析器970は、グリント検出器940から検出されたグリントに関するデータ、及び瞳孔検出器960からユーザの眼の瞳孔に関するデータを受信する。この受信情報に基づいて、幾何学的分析器970は、ユーザの視線方向及び/又は瞬き状態などの、ユーザのアイトラッキング特性を判定する。
様々な実施において、特にロバスト視線推定のために、幾何学的分析器970は、角膜から反射されたグリントと強膜から反射されたグリントとを区別し、視線方向を推定するために角膜から反射されたグリントのみを使用する。したがって、様々な実装形態では、幾何学的分析器970は、例えばRANSAC(ランダムサンプルコンセンサス)やロバスト重み付けなどのロバスト推定技術を適用することによって、この区別を実行するための手段を実装する。
図9Bは、いくつかの実装形態に係る、機械学習回帰器980を含むアイトラッキングシステム902の機能ブロック図である。アイトラッキングシステム902は、図9Aのアイトラッキングシステム900と実質的に同様であるが、グリント検出器940、瞳孔検出器960、及び幾何学的分析器970は、標的特徴及び標的外特徴に基づいてアイトラッキング特性を判定する機械学習回帰器980に置き換えられている。いくつかの実装形態では、第1の特徴生成器930及び/又は第2の特徴生成器950は省略されており、標的周波数イベントメッセージ及び/又は標的外周波数イベントメッセージは、それぞれ、機械学習回帰器980に直接供給される。
様々な実装形態では、機械学習回帰器980は、線形回帰器、ランダムフォレスト回帰器、適応型ブースティング回帰器、又はニューラルネットワーク(畳み込みニューラルネットワーク、反復ニューラルネットワーク、又は長期/短期メモリネットワークなど)を含む。
図9Cは、いくつかの実装形態に係る、視線推定器990を含むアイトラッキングシステム904の機能ブロック図である。アイトラッキングシステム904は、上述したようにイベントカメラ910を含む。イベントメッセージは、イベントメッセージが標的周波数イベントメッセージである確率を備えた各イベントメッセージをタグ付けする確率タグ付け器925に供給される。確率タグ付きイベントメッセージは、標的外特徴に関して上述したような1つ以上の特徴を生成する特徴生成器935に供給される。1つ以上の特徴は、1つ以上の特徴に基づいてアイトラッキング特性(例えば、視線方向)を判定する視線推定器990に供給される。
図10は、いくつかの実装形態に係る、強度変調光源を使用してアイトラッキング特性を判定する方法1000のフローチャートである。いくつかの実装形態では(及び以下に実施例として詳述するように)、方法1000は、頭部装着電子デバイス、例えば図4の頭部装着電子デバイス400によって実行される。様々な実装形態では、方法1000は、1つ以上のプロセッサ、非一時的メモリ、及び1つ以上のAR/VRディスプレイ(例えば、図3のHMD120)を有するデバイスによって実行される。いくつかの実装形態では、方法1000は、ハードウェア、ファームウェア、ソフトウェア、又はそれらの組み合わせを含む処理ロジックによって実行される。いくつかの実装形態では、方法1000は、非一時的コンピュータ可読媒体(例えば、メモリ)に記憶されたコードを実行するプロセッサによって実行される。
方法1000によると、まず、ブロック1010で、HMDは、複数の光源からユーザの眼に向けて強度を変調した光を放射する。様々な実装形態では、複数の光源のうちの第1の光源は、第1の位相オフセットで第1の周波数で変調され、複数の光源のうちの第2の光源は、第1の位相オフセットとは異なる第2の位相オフセットで、第1の周波数で変調される。様々な実装形態では、複数の光源のうちの第1の光源は、第1の周波数で変調され、複数の光源のうちの第2の光源は、第1の周波数とは異なる第2の周波数で変調される。様々な実装形態では、複数の光源のうちの第1の光源は、第1の直交符号にしたがって変調され、複数の光源のうちの第2の光源は、第2の直交符号にしたがって変調される。
様々な実装形態では、複数の光源のうちの第1の光源は、第1の強度範囲内で変調され、複数の光源のうちの第2の光源は、第1の強度範囲とは異なる第2の強度範囲内で変調される。様々な実装形態では、複数の光源の各光源は、高強度値と低強度値のいずれかに変調される。様々な実装形態では、高強度値はオン状態であり、低強度値はオフ状態である。様々な実装形態では、複数の光源のうちオン状態の光源数は一定である。様々な実装形態では、強度は、予め決定されたアイトラッキング特性、ユーザバイオメトリクス、又は提示されたユーザインタフェースのうちの少なくとも1つにしたがって変調される。
様々な実装形態では、複数の光源は、近赤外波長範囲内で光を放射する。
方法1000は、引き続きブロック1020で、HMDは、複数のグリントの形態でユーザの眼によって反射された放射光の強度を示す光強度データを受信する。様々な実装形態では、光強度データは、ユーザの眼の複数の画像を含む。様々な実装形態では、光強度データは、複数のイベントメッセージを含む。
方法1000は、引き続きブロック1030で、HMDは、光強度データに基づいてユーザのアイトラッキング特性を判定する。様々な実装形態において、アイトラッキング特性は、視線方向及び/又は瞬き状態を含む。様々な実装形態では、HMDが、変調周波数範囲にしたがって光強度データをフィルタリングし、フィルタリングされた光強度データに基づいてユーザのアイトラッキング特性を判定する。様々な実装形態では、HMDが、光強度データの変調に基づいてそれぞれの光源を識別し、それぞれの光源の識別に基づいてユーザのアイトラッキング特性を判定する。
図11は、いくつかの実装形態に係る、イベントカメラを使用してアイトラッキング特性を判定する方法1100のフローチャートである。いくつかの実装形態では(及び以下に実施例として詳述するように)、方法1100は、頭部装着電子デバイス、例えば図4の頭部装着電子デバイス400によって実行される。様々な実装形態では、方法1100は、1つ以上のプロセッサ、非一時的メモリ、及び1つ以上のAR/VRディスプレイ(例えば、図3のHMD120)を有するデバイスによって実行される。いくつかの実装形態では、方法1100は、ハードウェア、ファームウェア、ソフトウェア、又はそれらの組み合わせを含む処理ロジックによって実行される。いくつかの実装形態では、方法1100は、非一時的コンピュータ可読媒体(例えば、メモリ)に記憶されたコードを実行するプロセッサによって実行される。
方法1100によると、ブロック1110で、HMDは、複数のそれぞれの位置に複数の光センサを含むイベントカメラを使用して、複数のイベントメッセージを生成する。様々な実装形態では、複数のイベントメッセージはそれぞれ、光の強度の変化を検出する特定の光センサに応答して生成され、複数のイベントメッセージはそれぞれ、特定の光センサの特定の位置を示す。
様々な実装形態では、特定の位置は画素座標で示す。様々な実装形態では、複数のイベントメッセージはそれぞれ、光の強度の変化の極性をさらに示す。様々な実装形態では、複数のイベントメッセージはそれぞれ、光の強度の変化が検出された時間をさらに示す。
方法1100によると、引き続きブロック1120で、HMDが、複数のイベントメッセージに基づいてユーザのアイトラッキング特性を判定する。様々な実装形態において、アイトラッキング特性は、視線方向及び/又は瞬き状態を含む。
様々な実装形態では、HMDが、ユーザの眼の瞳孔を検出することによってアイトラッキング特性を判定する。例えば、様々な実装形態では、HMDは、イベントカメラからのイベントメッセージに基づいてユーザの眼の近似強度画像を生成し、ユーザの眼の近似強度画像内に低強度領域を位置決めし、楕円を低強度領域に当てはめる。
様々な実装形態では、HMDは、ユーザの眼の瞳孔を追跡することによってアイトラッキング特性を判定する。例えば、様々な実装形態では、HMDは、イベントカメラからのイベントメッセージに基づいて1つ以上の高コントラスト縁部を位置決めし、1つ以上の高コントラスト縁部及び前の楕円に基づいて新しい楕円を当てはめる。
様々な実装形態では、HMDは、(例えば、図10の方法1000で実行されるように)ユーザの眼から反射された1つ以上のグリントを検出することによってアイトラッキング特性を判定する。様々な実装形態では、HMDは、光の強度の低下を示すイベントメッセージに基づくことなく、光の強度の増大を示すイベントメッセージに基づいて、1つ以上のグリントを検出する。様々な実装形態では、HMDは、光の強度の増大を示すイベントメッセージに基づくことなく、光の強度の低下を示すイベントメッセージに基づいて、1つ以上のグリントを検出する。
添付の特許請求の範囲内の実装形態の様々な態様を上述したが、上述の実装形態の様々な特徴は、多種多様な形態で具現化されてもよく、上記の特定の構造及び/又は機能は単なる例示に過ぎないことは明らかである。本開示に基づいて、当業者は、本明細書に記載される態様は、任意の他の態様とは独立して実施されてもよく、これらの態様のうちの2つ以上が様々な方法で組み合わされてもよいことを理解すべきである。例えば、本明細書に記載される任意の数の態様を使用して、装置が実装されてもよい、及び/又は方法が実行されてもよい。加えて、本明細書に記載される態様のうちの1つ以上に加えて、又はその他の構造及び/又は機能を使用して、このような装置が実装されてもよい、及び/又はこのような方法が実行されてもよい。
本明細書では、様々な要素を説明するために「第1の」、「第2の」などの用語が使用される場合があるが、これらの要素は、これらの用語によって限定されるべきではないことも理解されるであろう。これらの用語は、ある要素を別の要素と区別するためにのみ使用される。例えば、「第1のノード」の全ての出現について一貫して名前が変更され、「第2のノード」の全ての出現について一貫して名前が変更される限り、第1ノードは第2ノードと呼び、同様に、第2のノードは第1のノードと呼び、説明の意味を変更することができる。第1のノードと第2のノードは両方ともノードであるが、それらは同じノードではない。
本明細書で使用される用語は、特定の実装形態を説明する目的のためであり、特許請求の範囲を限定することを意図するものではない。実装形態の説明及び添付の請求項で使用されるときに、単数形の「a」、「an」、及び「the」は、文脈上そうではないことが明確に示されない限り、複数形も含むことが意図されている。また、本明細書で使用されるとき、用語「及び/又は」は、関連する列挙された項目のうちの1つ以上のいずれか及び全ての考えられる組み合わせを指し、かつこれを含むことを理解されたい。用語「comprises(含む)」及び/又は「comprising(含む)」が、本明細書で使用される場合、述べられた特徴、整数、ステップ、動作、要素、及び/又は構成要素の存在を指定するが、1つ以上の他の特徴、整数、ステップ、動作、要素、構成要素、及び/又はそれらのグループの存在又は追加を除外しないことをさらに理解されたい。
本明細書で使用されるとき、用語「if」は、文脈に応じて、「時」又は「際に」又は、先に述べた条件が正しいとの「判定に応じて」又は「判定にしたがって」、「検出に応じて」を意味するものと解釈できる。同様に、「[先に述べた条件が正しい]と判定される場合」又は「[先に述べた条件が正しい]場合」、又は「[先に述べた条件が正しい]時」というフレーズは、先に述べた条件が正しいとの「判定に際して」又は「判定に応じて」又は「判定にしたがって」又は「検出した際に」又は「検出に応じて」ということを意味するものと解釈できる。

Claims (78)

  1. 複数の光源からユーザの眼に向けて強度を変調した光を放射することと、
    複数のグリントの形態で前記ユーザの前記眼によって反射された前記放射光の強度を示す光強度データを受信することと、
    前記光強度データに基づいて、前記ユーザのアイトラッキング特性を判定することと、
    を含む、方法。
  2. 前記複数の光源のうちの第1の光源が、第1の位相オフセットで第1の周波数で変調され、前記複数の光源のうちの第2の光源が、前記第1の位相オフセットとは異なる第2の位相オフセットで前記第1の周波数で変調される、請求項1に記載の方法。
  3. 前記複数の光源のうちの第1の光源が、第1の周波数で変調され、前記複数の光源のうちの第2の光源が、前記第1の周波数とは異なる第2の周波数で変調される、請求項1に記載の方法。
  4. 前記複数の光源のうちの第1の光源が、第1の直交符号にしたがって変調され、前記複数の光源のうちの第2の光源が、第2の直交符号にしたがって変調される、請求項1から3のいずれか一項に記載の方法。
  5. 前記複数の光源のうちの第1の光源が、第1の強度範囲内で変調され、前記複数の光源のうちの第2の光源が、前記第1の強度範囲とは異なる第2の強度範囲内で変調される、請求項1から4のいずれか一項に記載の方法。
  6. 前記複数の光源のそれぞれの光源が、高強度値と低強度値のいずれかに変調される、請求項1から4のいずれか一項に記載の方法。
  7. 前記高強度値がオン状態であり、前記低強度値がオフ状態である、請求項6に記載の方法。
  8. 前記複数の光源のうち前記オン状態の光源数が一定である、請求項7に記載の方法。
  9. 前記強度が、予め決定されたアイトラッキング特性、ユーザバイオメトリクス、又は提示されたユーザインタフェースのうちの少なくとも1つにしたがって変調される、請求項1から8のいずれか一項に記載の方法。
  10. 前記複数の光源が、近赤外波長範囲内で光を放射する、請求項1から9のいずれか一項に記載の方法。
  11. 前記光強度データが、前記ユーザの前記眼の複数の画像を含む、請求項1から10のいずれか一項に記載の方法。
  12. 前記光強度データが複数のイベントメッセージを含む、請求項1から10のいずれか一項に記載の方法。
  13. 前記変調の周波数範囲にしたがって前記光強度データをフィルタリングすることをさらに含み、前記ユーザの前記アイトラッキング特性を判定することが、前記フィルタリングされた光強度データに基づいている、請求項1から12のいずれか一項に記載の方法。
  14. 前記光強度データの変調に基づいてそれぞれの光源を識別することをさらに含み、前記ユーザの前記アイトラッキング特性を判定することが、前記それぞれの光源の前記識別に基づいている、請求項1から13のいずれか一項に記載の方法。
  15. 前記アイトラッキング特性が、視線方向及び/又は瞬き状態を含む、請求項1から14のいずれか一項に記載の方法。
  16. ユーザの眼に向かって強度を変調した光を放射する複数の光源と、
    複数のグリントの形態で前記ユーザの前記眼によって反射された前記放射光の強度を示す光強度データを生成するカメラと、
    前記光強度データに基づいて、前記ユーザのアイトラッキング特性を判定するプロセッサと、
    を備える、システム。
  17. 前記複数の光源のうちの第1の光源が、第1の位相オフセットで第1の周波数で変調され、前記複数の光源のうちの第2の光源が、前記第1の位相オフセットとは異なる第2の位相オフセットで前記第1の周波数で変調される、請求項16に記載のシステム。
  18. 前記複数の光源のうちの第1の光源が、第1の周波数で変調され、前記複数の光源のうちの第2の光源が、前記第1の周波数とは異なる第2の周波数で変調される、請求項16に記載のシステム。
  19. 前記複数の光源のうちの第1の光源が、第1の直交符号にしたがって変調され、前記複数の光源のうちの第2の光源が、第2の直交符号にしたがって変調される、請求項16から18のいずれか一項に記載のシステム。
  20. 前記複数の光源のうちの第1の光源が、第1の強度範囲内で変調され、前記複数の光源のうちの第2の光源が、前記第1の強度範囲とは異なる第2の強度範囲内で変調される、請求項16から19のいずれか一項に記載のシステム。
  21. 前記複数の光源のそれぞれの光源が、高強度値と低強度値のいずれかに変調される、請求項16から19のいずれか一項に記載のシステム。
  22. 前記高強度値がオン状態であり、前記低強度値がオフ状態である、請求項21に記載のシステム。
  23. 前記オン状態の前記複数の光源の光源数が一定である、請求項22に記載のシステム。
  24. 前記強度が、予め決定されたアイトラッキング特性、ユーザバイオメトリクス、又は提示されたユーザインタフェースのうちの少なくとも1つにしたがって変調される、請求項16から23のいずれか一項に記載のシステム。
  25. 前記複数の光源が近赤外波長範囲内の光を放射する、請求項16から24のいずれか一項に記載のシステム。
  26. 前記カメラが、前記ユーザの前記眼の複数の画像を生成する画像カメラを含む、請求項16から25のいずれか一項に記載のシステム。
  27. 前記カメラが、複数のイベントメッセージを生成するイベントカメラを含む、請求項16から26のいずれか一項に記載のシステム。
  28. 前記プロセッサがさらに、前記変調の周波数範囲にしたがって前記光強度データをフィルタリングし、前記フィルタリングされた光強度データに基づいて前記ユーザの前記アイトラッキング特性を判定する、請求項16から27のいずれか一項に記載のシステム。
  29. 前記プロセッサがさらに、前記光強度データの変調に基づいてそれぞれの光源を識別し、前記それぞれの光源の前記識別に基づいて前記ユーザの前記アイトラッキング特性を判定する、請求項16から28のいずれか一項に記載のシステム。
  30. 前記アイトラッキング特性が、視線方向及び/又は瞬き状態を含む、請求項16から29のいずれか一項に記載のシステム。
  31. コード化された命令を有する、非一時的コンピュータ可読媒体であって、前記命令が、プロセッサによって実行されると、前記プロセッサに、
    複数の光源からユーザの眼に向けて強度を変調した光を放射することと、
    複数のグリントの形態で前記ユーザの前記眼によって反射された前記放射光の強度を示す光強度データを受信することと、
    前記光強度データに基づいて、前記ユーザのアイトラッキング特性を判定することと、
    を含む動作を実行させる、非一時的コンピュータ可読媒体。
  32. 前記複数の光源のうちの第1の光源が、第1の位相オフセットで第1の周波数で変調され、前記複数の光源のうちの第2の光源が、前記第1の位相オフセットとは異なる第2の位相オフセットで前記第1の周波数で変調される、請求項31に記載の非一時的コンピュータ可読媒体。
  33. 前記複数の光源のうちの第1の光源が第1の周波数で変調され、前記複数の光源のうちの第2の光源が、前記第1の周波数とは異なる第2の周波数で変調される、請求項31に記載の非一時的コンピュータ可読媒体。
  34. 前記複数の光源の光源グリントが、第1の直交符号にしたがって変調され、前記複数の光源のうちの第2の光源が、第2の直交符号にしたがって変調される、請求項31から33のいずれか一項に記載の非一時的コンピュータ可読媒体。
  35. 前記複数の光源のうちの第1の光源が、第1の強度範囲内で変調され、前記複数の光源のうちの第2の光源が、前記第1の強度範囲とは異なる第2の強度範囲内で変調される、請求項31から34のいずれか一項に記載の非一時的コンピュータ可読媒体。
  36. 前記複数の光源のそれぞれの光源が、高強度値と低強度値のいずれかで変調される、請求項31から34のいずれか一項に記載の非一時的コンピュータ可読媒体。
  37. 前記高強度値がオン状態であり、前記低強度値がオフ状態である、請求項36に記載の非一時的コンピュータ可読媒体。
  38. 前記複数の光源のうち前記オン状態の光源数が一定である、請求項37に記載の非一時的コンピュータ可読媒体。
  39. 前記強度が、予め決定されたアイトラッキング特性、ユーザバイオメトリクス、又は提示されたユーザインタフェースのうちの少なくとも1つにしたがって変調される、請求項31から38のいずれか一項に記載の非一時的コンピュータ可読媒体。
  40. 前記複数の光源が近赤外波長範囲内の光を放射する、請求項31から39のいずれか一項に記載の非一時的コンピュータ可読媒体。
  41. 前記光強度データが、前記ユーザの前記眼の複数の画像を含む、請求項31から40のいずれか一項に記載の非一時的コンピュータ可読媒体。
  42. 前記光強度データが複数のイベントメッセージを含む、請求項31から41のいずれか一項に記載の非一時的コンピュータ可読媒体。
  43. 前記動作が、前記変調の周波数範囲にしたがって前記光強度データをフィルタリングすることをさらに含み、前記ユーザの前記アイトラッキング特性を判定することが、前記フィルタリングされた光強度データに基づいている、請求項31から42のいずれか一項に記載の非一時的コンピュータ可読媒体。
  44. 前記動作が、前記光強度データの変調に基づいてそれぞれの光源を識別することをさらに含み、前記ユーザの前記アイトラッキング特性を判定することが、前記それぞれの光源の前記識別に基づいている、請求項31から43のいずれか一項に記載の非一時的コンピュータ可読媒体。
  45. 前記アイトラッキング特性が、視線方向及び/又は瞬き状態を含む、請求項31から44のいずれか一項に記載の非一時的コンピュータ可読媒体。
  46. 複数のそれぞれの位置に複数の光センサを含むイベントカメラであって、光の強度の変化を検出する特定の光センサに応答して、前記特定の光センサの特定の位置を示すイベントメッセージを生成するイベントカメラと、
    前記イベントカメラからイベントメッセージを受信し、前記イベントメッセージに基づいてユーザのアイトラッキング特性を判定するアイトラッカと、
    を備える、装置。
  47. 前記イベントメッセージが、前記光の強度の変化の極性をさらに示す、請求項46に記載の装置。
  48. 前記イベントメッセージが、前記光の強度の変化が検出された時間をさらに示す、請求項46又は47に記載の装置。
  49. 前記特定の位置が画素座標で示される、請求項46から48のいずれか一項に記載の装置。
  50. 前記アイトラッカが、前記ユーザの眼の瞳孔を検出することによって前記アイトラッキング特性を判定する、請求項46から49のいずれか一項に記載の装置。
  51. 前記アイトラッカが、
    前記イベントカメラからの前記イベントメッセージに基づいて、ユーザの前記眼の近似強度画像を生成することと、
    前記ユーザの前記眼の前記近似強度画像内に低強度領域を位置決めすることと、
    楕円を前記低強度領域に当てはめることと、
    によって、前記瞳孔を検出する、請求項50に記載の装置。
  52. 前記アイトラッカが、前記ユーザの眼の瞳孔を追跡することによって、前記アイトラッキング特性を判定する、請求項46から51のいずれか一項に記載の装置。
  53. 前記アイトラッカが、
    前記イベントカメラからの前記イベントメッセージに基づいて1つ以上の高コントラスト縁部を位置決めすることと、
    前記1つ以上の高コントラスト縁部及び前の楕円に基づいて新しい楕円を当てはめることと、
    によって前記ユーザの前記眼の前記瞳孔を追跡する、請求項52に記載の装置。
  54. 前記アイトラッカが、前記ユーザの眼から反射された1つ以上のグリントを検出することによって、前記アイトラッキング特性を判定する、請求項46に記載の装置。
  55. 前記アイトラッカが、光の強度の低下を示すイベントメッセージに基づくことなく、光の強度の増大を示すイベントメッセージに基づいて、前記1つ以上のグリントを検出する、請求項54に記載の装置。
  56. 前記アイトラッカが、光の強度の増大を示すイベントメッセージに基づくことなく、光の強度の低下を示すイベントメッセージに基づいて、前記1つ以上のグリントを検出する、請求項54に記載の装置。
  57. 複数のそれぞれの位置に複数の光センサを含むイベントカメラを使用して、複数のイベントメッセージを生成することであって、前記複数のイベントメッセージのそれぞれが、光の強度の変化を検出する特定の光センサに応答して、前記特定の光センサの特定の位置を示す、ことと、
    前記複数のイベントメッセージに基づいて、ユーザのアイトラッキング特性を判定することと、
    を含む、方法。
  58. 前記複数のイベントメッセージのそれぞれが、前記光の強度の変化の極性をさらに示す、請求項57に記載の方法。
  59. 前記複数のイベントメッセージのそれぞれが、前記光の強度の変化が検出された時間をさらに示す、請求項57又は58に記載の方法。
  60. 前記特定の位置が、画素座標で示される、請求項57から59のいずれか一項に記載の方法。
  61. 前記アイトラッキング特性を判定することが、前記ユーザの眼の瞳孔を検出することを含む、請求項57から60のいずれか一項に記載の方法。
  62. 前記瞳孔を検出することが、
    前記イベントカメラからの前記イベントメッセージに基づいて、ユーザの前記眼の近似強度画像を生成することと、
    前記ユーザの前記眼の前記近似強度画像内に低強度領域を位置決めすることと、
    楕円を前記低強度領域に当てはめることと、
    を含む、請求項61に記載の方法。
  63. 前記アイトラッキング特性を判定することが、前記ユーザの眼の瞳孔を追跡することを含む、請求項57から62に記載のいずれか一項の方法。
  64. 前記ユーザの前記眼の前記瞳孔を追跡することが、
    前記イベントカメラからの前記イベントメッセージに基づいて1つ以上の高コントラスト縁部を位置決めすることと、
    前記1つ以上の高コントラスト縁部及び前の楕円に基づいて新しい楕円を当てはめることと、
    を含む、請求項63に記載の方法。
  65. 前記アイトラッキング特性を判定することが、前記ユーザの眼から反射された1つ以上のグリントを検出することを含む、請求項57から64のいずれか一項に記載の方法。
  66. 前記1つ以上のグリントを検出することが、光の強度の低下を示すイベントメッセージに基づくことなく、光の強度の増大を示すイベントメッセージに基づく、請求項65に記載の方法。
  67. 前記1つ以上のグリントを検出することが、光の強度の増大を示すイベントメッセージに基づくことなく、光の強度の低下を示すイベントメッセージに基づく、請求項65に記載の方法。
  68. コード化された命令を有する、非一時的コンピュータ可読媒体であって、前記命令が、プロセッサによって実行されると、前記プロセッサに、
    複数のそれぞれの位置に複数の光センサを含むイベントカメラを使用して、複数のイベントメッセージを生成することであって、前記複数のイベントメッセージのそれぞれが、光の強度の変化を検出する特定の光センサに応答して生成され、前記特定の光センサの特定の位置を示す、ことと、
    前記複数のイベントメッセージに基づいて、ユーザのアイトラッキング特性を判定ることと、
    を含む動作を実行させる、非一時的コンピュータ可読媒体。
  69. 前記複数のイベントメッセージのそれぞれが、前記光の強度の変化の極性をさらに示す、請求項68に記載の非一時的コンピュータ可読媒体。
  70. 前記複数のイベントメッセージのそれぞれが、前記光の強度の変化が検出された時間をさらに示す、請求項68又は69に記載の非一時的コンピュータ可読媒体。
  71. 前記特定の位置が画素座標で示される、請求項68から70のいずれか一項に記載の非一時的コンピュータ可読記憶媒体。
  72. 前記アイトラッキング特性を判定することが、前記ユーザの眼の瞳孔を検出することを含む、請求項68から71のいずれか一項に記載の非一時的コンピュータ可読媒体。
  73. 前記瞳孔を検出することが、
    前記イベントカメラからの前記イベントメッセージに基づいて、ユーザの前記眼の近似強度画像を生成することと、
    前記ユーザの前記眼の前記近似強度画像内に低強度領域を位置決めすることと、
    楕円を前記低強度領域に当てはめることと、
    を含む、請求項72に記載の非一時的コンピュータ可読媒体。
  74. 前記アイトラッキング特性を判定することが、前記ユーザの眼の瞳孔を追跡することを含む、請求項68から73のいずれか一項に記載の非一時的コンピュータ可読媒体。
  75. 前記ユーザの前記眼の前記瞳孔を追跡することが、
    前記イベントカメラからの前記イベントメッセージに基づいて1つ以上の高コントラスト縁部を位置決めすることと、
    前記1つ以上の高コントラスト縁部及び前の楕円に基づいて新しい楕円を当てはめることと、
    を含む、請求項74に記載の非一時的コンピュータ可読媒体。
  76. 前記アイトラッキング特性を判定することが、前記ユーザの眼から反射された1つ以上のグリントを検出することを含む、請求項68から75のいずれか一項に記載の非一時的コンピュータ可読媒体。
  77. 前記1つ以上のグリントを検出することが、光の強度の低下を示すイベントメッセージに基づくことなく、光の強度の増大を示すイベントメッセージに基づく、請求項76に記載の非一時的コンピュータ可読媒体。
  78. 前記1つ以上のグリントを検出することが、光の強度の増大を示すイベントメッセージに基づくことなく、光の強度の低下を示すイベントメッセージに基づく、請求項76に記載の非一時的コンピュータ可読媒体。
JP2020517942A 2017-09-28 2018-09-27 イベントカメラデータを使用するアイトラッキングの方法及び装置 Active JP7008131B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762564875P 2017-09-28 2017-09-28
US62/564,875 2017-09-28
PCT/US2018/053143 WO2019067731A1 (en) 2017-09-28 2018-09-27 METHOD AND DEVICE FOR TRACKING THE EYE USING EVENT CAMERA DATA

Publications (2)

Publication Number Publication Date
JP2020536309A true JP2020536309A (ja) 2020-12-10
JP7008131B2 JP7008131B2 (ja) 2022-01-25

Family

ID=64024068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020517942A Active JP7008131B2 (ja) 2017-09-28 2018-09-27 イベントカメラデータを使用するアイトラッキングの方法及び装置

Country Status (6)

Country Link
US (3) US11150469B2 (ja)
EP (2) EP3714350B1 (ja)
JP (1) JP7008131B2 (ja)
KR (1) KR102416282B1 (ja)
CN (1) CN111263925B (ja)
WO (1) WO2019067731A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172724A1 (ja) * 2021-02-12 2022-08-18 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2022254782A1 (ja) * 2021-06-02 2022-12-08 ソニーグループ株式会社 視線検出装置、表示装置、視線検出システム、及び視線検出方法
WO2024004416A1 (ja) * 2022-06-27 2024-01-04 ソニーグループ株式会社 視線検出装置

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018061621A (ja) * 2016-10-11 2018-04-19 オプトス ピーエルシー 眼底画像撮影装置、眼底画像撮影方法、及び眼底画像撮影プログラム
KR102416282B1 (ko) 2017-09-28 2022-07-01 애플 인크. 이벤트 카메라 데이터를 사용한 눈 추적을 위한 방법 및 디바이스
FI20175960A1 (en) * 2017-10-30 2019-05-01 Univ Of Eastern Finland Procedure and apparatus for gaze detection
GB2569785B (en) * 2017-12-20 2022-07-13 Sony Interactive Entertainment Inc Data processing
US10795435B2 (en) * 2018-07-19 2020-10-06 Samsung Electronics Co., Ltd. System and method for hybrid eye tracker
CN110850594B (zh) * 2018-08-20 2022-05-17 余姚舜宇智能光学技术有限公司 头戴式可视设备及用于头戴式可视设备的眼球追踪系统
CN110148159B (zh) * 2019-05-20 2021-03-26 厦门大学 一种基于事件相机的异步目标跟踪方法
CN110196640A (zh) * 2019-05-31 2019-09-03 维沃移动通信有限公司 一种操作控制方法及终端
CN112114653A (zh) * 2019-06-19 2020-12-22 北京小米移动软件有限公司 终端设备的操控方法、装置、设备及存储介质
KR20210000985A (ko) * 2019-06-26 2021-01-06 삼성전자주식회사 비전 센서, 이를 포함하는 이미지 처리 장치 및 비전 센서의 동작 방법
CN110598692B (zh) * 2019-08-09 2021-04-13 清华大学 一种基于深度学习的椭圆识别方法
CN110426845B (zh) * 2019-08-09 2021-03-23 业成科技(成都)有限公司 眼球追踪架构
JP7269131B2 (ja) * 2019-08-14 2023-05-08 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、視線検出システム、視線検出方法および視線検出プログラム
US20210068652A1 (en) * 2019-09-09 2021-03-11 Apple Inc. Glint-Based Gaze Tracking Using Directional Light Sources
EP4035142A1 (en) 2019-09-27 2022-08-03 Apple Inc. Creation of optimal working, learning, and resting environments on electronic devices
WO2021095853A1 (ja) * 2019-11-15 2021-05-20 株式会社デンソーウェーブ 画像復元装置、画像復元方法、及び画像復元プログラム
US11632501B2 (en) * 2019-12-20 2023-04-18 Tobil AB Controlling settings of an image sensor device in an eye tracking system
US12066625B2 (en) 2020-02-28 2024-08-20 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for event-based gaze tracking
US20210302726A1 (en) * 2020-03-31 2021-09-30 Htc Corporation Head mounted display
US20230367393A1 (en) 2020-10-13 2023-11-16 Sony Group Corporation Line-of-sight detection device, display device, and method for sensing eyeball
US11803237B2 (en) 2020-11-14 2023-10-31 Facense Ltd. Controlling an eye tracking camera according to eye movement velocity
CN112616016A (zh) * 2020-12-10 2021-04-06 南昌欧菲光电技术有限公司 事件相机获取影像的方法、装置、电子设备及存储介质
JP7507319B2 (ja) * 2020-12-17 2024-06-27 ジン ラブズ インコーポレイテッド 瞳孔検出および視線追跡のためのイベントカメラシステム
WO2022158795A1 (ko) * 2021-01-21 2022-07-28 삼성전자 주식회사 사용자의 시선을 검출하는 증강 현실 장치 및 방법
KR102483010B1 (ko) * 2021-01-29 2022-12-30 원텍 주식회사 안구미세운동 측정장치
US11423569B1 (en) * 2021-04-09 2022-08-23 Varjo Technologies Oy Gaze-tracking system and method employing selective glints
US11972042B2 (en) 2021-06-15 2024-04-30 Microsoft Technology Licensing, Llc Variable intensity distributions for gaze detection assembly
US12099654B1 (en) 2021-06-21 2024-09-24 Apple Inc. Adaptation of electronic content
EP4113252A1 (en) * 2021-07-02 2023-01-04 IniVation AG Eye tracking device, eye tracking method, and computer-readable medium
CN113688733A (zh) * 2021-08-25 2021-11-23 深圳龙岗智能视听研究院 基于事件相机的眼部检测和追踪方法、系统、设备及应用
US12059609B2 (en) 2022-06-10 2024-08-13 Sony Interactive Entertainment Inc. Asynchronous dynamic vision sensor LED AI tracking system and method
US20230400915A1 (en) * 2022-06-10 2023-12-14 Sony Interactive Entertainment Inc. Dynamic vision sensor based eye and/or facial tracking
US12064682B2 (en) 2022-06-10 2024-08-20 Sony Interactive Entertainment Inc. Deployment of dynamic vision sensor hybrid element in method for tracking a controller and simultaneous body tracking, slam or safety shutter
US12029971B2 (en) 2022-06-10 2024-07-09 Sony Interactive Entertainment LLC Hybrid pixel dynamic vision sensor tracking using IR and ambient light (or depth sensor)
US11995226B2 (en) 2022-06-10 2024-05-28 Sony Interactive Entertainment Inc. Dynamic vision sensor tracking based on light source occlusion

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007053A (ja) * 2000-06-22 2002-01-11 Canon Inc 視線検出機能付き装置
JP2009512009A (ja) * 2005-10-10 2009-03-19 トビイ テクノロジー アーベー 広範囲の動作距離を有するアイトラッカー
WO2016103525A1 (ja) * 2014-12-27 2016-06-30 株式会社Fove ヘッドマウントディスプレイ

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5280313A (en) * 1991-07-25 1994-01-18 Canon Kabushiki Kaisha Ophthalmic measuring apparatus
US6578962B1 (en) * 2001-04-27 2003-06-17 International Business Machines Corporation Calibration-free eye gaze tracking
US7809160B2 (en) * 2003-11-14 2010-10-05 Queen's University At Kingston Method and apparatus for calibration-free eye tracking using multiple glints or surface reflections
US20060256133A1 (en) * 2005-11-05 2006-11-16 Outland Research Gaze-responsive video advertisment display
US8077914B1 (en) * 2006-08-07 2011-12-13 Arkady Kaplan Optical tracking apparatus using six degrees of freedom
US7618144B2 (en) * 2008-01-07 2009-11-17 Optical Physics Company System and method for tracking eye movement
WO2012055444A1 (en) * 2010-10-29 2012-05-03 IT-Universitetet i København Method of determining reflections of light
US8971570B1 (en) * 2011-11-04 2015-03-03 Google Inc. Dual LED usage for glint detection
US8929589B2 (en) 2011-11-07 2015-01-06 Eyefluence, Inc. Systems and methods for high-resolution gaze tracking
US8235529B1 (en) * 2011-11-30 2012-08-07 Google Inc. Unlocking a screen using eye tracking information
US8913789B1 (en) * 2012-01-06 2014-12-16 Google Inc. Input methods and systems for eye positioning using plural glints
KR102093198B1 (ko) * 2013-02-21 2020-03-25 삼성전자주식회사 시선 인식을 이용한 사용자 인터페이스 방법 및 장치
CN106062665B (zh) * 2013-09-11 2019-05-17 深圳市汇顶科技股份有限公司 基于用户的眼睛运动和位置的光学感测和跟踪的用户界面
CN106132284B (zh) * 2013-11-09 2019-03-22 深圳市汇顶科技股份有限公司 光学眼动追踪
CN105814584B (zh) * 2013-12-09 2019-03-08 Smi创新传感技术有限公司 用于操作眼睛跟踪设备的方法和用于提供主动功率管理的眼睛跟踪设备
US9292765B2 (en) * 2014-01-07 2016-03-22 Microsoft Technology Licensing, Llc Mapping glints to light sources
US9361519B2 (en) * 2014-03-28 2016-06-07 Intel Corporation Computational array camera with dynamic illumination for eye tracking
US20150296135A1 (en) * 2014-04-10 2015-10-15 Magna Electronics Inc. Vehicle vision system with driver monitoring
US10863163B2 (en) * 2015-09-16 2020-12-08 Andrew Neil Aurigema Vision enhancing system and method
US10203566B2 (en) * 2015-12-21 2019-02-12 Facebook Technologies, Llc Enhanced spatial resolution using a segmented electrode array
US9785234B2 (en) * 2015-12-26 2017-10-10 Intel Corporation Analysis of ambient light for gaze tracking
CN105769117B (zh) * 2016-01-11 2017-08-29 佛山科学技术学院 一种眼底光学全场微血管造影成像装置及方法
KR102416282B1 (ko) * 2017-09-28 2022-07-01 애플 인크. 이벤트 카메라 데이터를 사용한 눈 추적을 위한 방법 및 디바이스

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007053A (ja) * 2000-06-22 2002-01-11 Canon Inc 視線検出機能付き装置
JP2009512009A (ja) * 2005-10-10 2009-03-19 トビイ テクノロジー アーベー 広範囲の動作距離を有するアイトラッカー
WO2016103525A1 (ja) * 2014-12-27 2016-06-30 株式会社Fove ヘッドマウントディスプレイ

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022172724A1 (ja) * 2021-02-12 2022-08-18 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
WO2022254782A1 (ja) * 2021-06-02 2022-12-08 ソニーグループ株式会社 視線検出装置、表示装置、視線検出システム、及び視線検出方法
WO2024004416A1 (ja) * 2022-06-27 2024-01-04 ソニーグループ株式会社 視線検出装置

Also Published As

Publication number Publication date
EP3714350B1 (en) 2023-11-01
US20230314798A1 (en) 2023-10-05
US20220003994A1 (en) 2022-01-06
KR102416282B1 (ko) 2022-07-01
CN111263925B (zh) 2022-06-14
US11474348B2 (en) 2022-10-18
EP4293484A3 (en) 2024-03-13
CN111263925A (zh) 2020-06-09
EP3714350A1 (en) 2020-09-30
US11150469B2 (en) 2021-10-19
US12105280B2 (en) 2024-10-01
US20200278539A1 (en) 2020-09-03
KR20200080226A (ko) 2020-07-06
EP4293484A2 (en) 2023-12-20
WO2019067731A1 (en) 2019-04-04
JP7008131B2 (ja) 2022-01-25

Similar Documents

Publication Publication Date Title
JP7008131B2 (ja) イベントカメラデータを使用するアイトラッキングの方法及び装置
US11861873B2 (en) Event camera-based gaze tracking using neural networks
KR102350300B1 (ko) 시선 스와이프 선택
US9552060B2 (en) Radial selection by vestibulo-ocular reflex fixation
JP6718873B2 (ja) 仮想焦点フィードバック
US10663729B2 (en) Peripheral device for head-mounted display
KR20170054499A (ko) 눈 불편감 감소 디스플레이
US11972042B2 (en) Variable intensity distributions for gaze detection assembly
CN111670001B (zh) 用于眼睛跟踪系统的图像调整
US20210068652A1 (en) Glint-Based Gaze Tracking Using Directional Light Sources
EP3931666A1 (en) Detecting eye measurements
US20210378509A1 (en) Pupil assessment using modulated on-axis illumination
US20240212291A1 (en) Attention control in multi-user environments
US20240212343A1 (en) Contextualized visual search
US20230019068A1 (en) Opto-electronic device and method for providing visual orientation
US20230288985A1 (en) Adjusting image content to improve user experience
US20230359273A1 (en) Retinal reflection tracking for gaze alignment

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220107

R150 Certificate of patent or registration of utility model

Ref document number: 7008131

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150