JP2023550538A - 瞳孔検出および視線追跡のためのイベントカメラシステム - Google Patents
瞳孔検出および視線追跡のためのイベントカメラシステム Download PDFInfo
- Publication number
- JP2023550538A JP2023550538A JP2023548561A JP2023548561A JP2023550538A JP 2023550538 A JP2023550538 A JP 2023550538A JP 2023548561 A JP2023548561 A JP 2023548561A JP 2023548561 A JP2023548561 A JP 2023548561A JP 2023550538 A JP2023550538 A JP 2023550538A
- Authority
- JP
- Japan
- Prior art keywords
- light
- light source
- pulse
- event camera
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000001747 pupil Anatomy 0.000 title claims abstract description 145
- 238000001514 detection method Methods 0.000 title abstract description 27
- 230000003287 optical effect Effects 0.000 claims abstract description 78
- 210000001508 eye Anatomy 0.000 claims description 87
- 210000005252 bulbus oculi Anatomy 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 21
- 230000001902 propagating effect Effects 0.000 claims 1
- 238000005286 illumination Methods 0.000 description 16
- 210000001525 retina Anatomy 0.000 description 15
- 230000004913 activation Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 230000001815 facial effect Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 239000000758 substrate Substances 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000011143 downstream manufacturing Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 210000000720 eyelash Anatomy 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 210000000554 iris Anatomy 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004439 pupillary reactions Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 210000003786 sclera Anatomy 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10152—Varying illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Abstract
Description
本開示は、概して視線追跡(eye tracking)に関連し、より具体的には、瞳孔検出(pupil detection)および視線追跡のためのイベントカメラシステム(event camera system)の使用方法に関する。
本出願は、2020年12月17日に出願された米国仮出願第63/126,750号
の利益を主張し、その内容全体が参照により本明細書に組み込まれる。
視線追跡システムは、ユーザーの3D視線(3D gaze)、またはスクリーンもしくは典型的な視聴距離(viewing distance)などの、表面または平面に対するその視線の2D投影(2D projection)を決定するために、眼球画像(images of the eyes)を捕捉する。これは、種々の部分、すなわち瞳孔(pupil)、強膜(sclera)、虹彩(iris)、眼瞼(eye lids)、および眼角(canthus)などにコンピュータビジョンを通して眼球画像をセグメント化するか、次いで、較正データ(calibration data)に基づいてユーザーの視線を計算したり、もしくは同じ目的のために眼球モデル(eye model)を生成したりするために使用することができるパラメータとして、その特徴をエクスポートするか、またはラベル付けされた眼球画像のデータベースに基づいて、画像からセグメント化および/またはユーザーの視線を直接推測する、ニューラルネットワーク(neural network)または他の機械学習アプローチ(machine learning approach)に、眼球画像を直接入力するかの何れかによって行われる。従来のコンピュータビジョンアプローチから抽出されたパラメータは、眼球画像の有無に関わらず、機械学習アプローチでも使用することができるが、これは、種々の低解像度に精度調整され得る。何れの場合も、コントラスト(contrast)、照明(lighting)、感度(sensitivity)等に関する画像の品質(quality of the images)と、目の特徴を抽出したり、画像から視線を直接推測したりするために必要な計算量(amount of computation)とが、堅牢性(robustness)、および視線推定(gaze estimate)の品質にとって最も重要となる。これは、屋内および屋外の両方において、制御されていない可変の照明条件で動作することを目的とした、ヘッドマウント型モバイルシステム(head-mounted mobile system)に特に当て嵌まる。眼球の画像から情報、特に重要な瞳孔の位置を抽出する複雑さ(complexity)には、その作業(task)のために使用されるコンピュータビジョン・アルゴリズム(computer vision algorithms)において高度な複雑性が必要であり、これらの画像上における環境の影響に対する堅牢性が、視線追跡システム(eye-tracking system)にとって残された主な課題となる。
これは、イベントカメラシステムを使用して、眼球の明るい瞳孔反射(pupil reflex)を利用することにより、背景からセグメント化された瞳孔の高コントラスト画像(high-contrast image)を生成するためのシステムである。幾つかの実施形態では、イベントカメラは、共軸光源(co-aligned light source)を含み得る。光源が眼球に当たると、瞳孔に入った光は、その光が光源に戻るように、湾曲した網膜(curved retina)から反射するが、この光源は、カメラセンサと共軸にある可能性がある。これにより、瞳孔が高い強度値として見られる、特徴的な明るい瞳孔画像(pupil image)が与えられる。対照的に、軸外光源からの光は、網膜から反射してカメラに到達することなく、代わりに瞳孔が眼球の残りの画像に対して低い強度値として見られる、暗い瞳孔画像を生成する。軸外光源からの光は、眼球の他の部分、および周囲の顔面の特徴から反射して、カメラのセンサに到達する。眼球の他の部分、および周囲の領域から反射される光は、共軸光源からの瞳孔の照明に応答して、一定のままであるか、最小限の量だけ増加することがあり、これらの位置における事象をもたらさないことがある。明るい瞳孔画像および暗い瞳孔画像は、瞳孔のみを含む高コントラスト画像を生成するために、減算され得る。従来のカメラを用いると、このアプローチでは、二つの別々の画像を撮像する必要があるが、眼球の動きが高速であることを考慮すると、実際には瞳孔の堅牢な画像を生成するために十分な速度で撮像することができない。この技術をイベントカメラシステムと組み合わせることにより、本システムは、種々の明るい瞳孔(共軸光源)と暗い瞳孔(軸外光源)との組み合わせの間において照明が切り替わる瞬間の眼球画像の変化のみを捕捉して分離することが可能である。これは、瞳孔自体の高コントラストの変化のみを示す事象を引き起こし、特にイベントカメラシステムのフィード(feeds)を分析するために通常必要とされる複雑なアーキテクチャと比較して、画像出力に対するダウンストリーム処理(down-stream processing)を大幅に簡素化することをもたらす。
上述の実施形態の説明は、説明のために提示されており、すなわち、網羅的であること、または開示された正確な形式に特許権を限定することは、意図されていない。当業者は、上記の開示を考慮して、多くの変更および変形が可能であることを理解することができる。
Claims (20)
- 第一の時間帯に亘ってIR光の第一のパルスを放射する第一の赤外線(IR)光源であって、IR光の前記第一のパルスが光路に沿ってユーザーの眼球を含むアイボックスに向けられ、前記眼球は、IR光の前記第一のパルスの一部分を反射して、第一の輝度で光路に沿って目標領域に向けて戻し、前記眼球は、軸外IR光源から発生するIR光を反射して、第二の輝度で光路に沿って前記目標領域に向けて戻す、第一の赤外線(IR)光源と、
前記目標領域に配置されたイベントカメラであって、光路に沿ってアイボックスから反射されたIR光を検出するように構成され、複数のフォトダイオードを含み、各フォトダイオードは、
IR光における反射された前記第一のパルスの一部分に対応する強度値を検出することと、
前記フォトダイオードによって以前に出力されたデータ値と、強度閾値に対する前記フォトダイオードによって検出された前記強度値との差に少なくとも部分的に基づいているデータ値を非同期に出力することと
を行うように構成されている、イベントカメラと、
コントローラであって、
結果として前記第一のパルスから生じるイベントカメラから出力されたデータ値から前記眼球の瞳孔を識別することと、
前記識別された瞳孔に部分的に基づいて前記ユーザーの視線位置を決定することと
を行うように構成された、コントローラと
を備えることを特徴とする、視線追跡システム。 - IR光の第二のパルスを放射するように構成された第二のIR光源をさらに備え、前記第二のIR光源は軸外光源であり、前記コントローラは、
第二の時間帯に亘ってIR光の前記第二のパルスを放射するように前記第二のIR光源に指示することであって、前記第一の時間帯および前記第二の時間帯は部分的に重なっている、こと
を行うようにさらに構成されていることを特徴とする、請求項1に記載の視線追跡システム。 - 前記第一のIR源は、第一の光路に対して軸外に放射し、
前記アイボックスと前記イベントカメラとの間の前記光路内に配置されたビームスプリッタであって、IR光の前記第一のパルスの少なくとも一部分を、実質的に前記第一の光路に沿って伝播するように方向転換させることと、前記眼球から反射されたIR光を透過して、前記光路に沿って前記イベントカメラに戻すこととを行うように構成された、ビームスプリッタ
をさらに備えることを特徴とする、請求項2に記載の視線追跡システム。 - 前記強度閾値の値は、結果として前記第一のパルスから生じるデータ値が前記瞳孔に対応するような値であることを特徴とする、請求項1に記載の視線追跡システム。
- 前記コントローラは、前記第一のパルスを放射するように前記第一のIR光源に指示するように構成されており、前記第一のパルスは、1秒以下のパルス幅を有していることを特徴とする、請求項1に記載の視線追跡システム。
- 前記コントローラは、0%より大きく100%未満の負荷サイクルにおけるパルスレートで、1秒以下の周期で複数のパルスを放射するように、前記第一のIR光源に指示するように構成されており、前記複数のパルスは、前記第一のパルスを含むことを特徴とする、請求項1に記載の視線追跡システム。
- 前記コントローラは、あるパルスレートで複数のパルスを放射するように、前記第一のIR光源に指示するように構成されており、前記複数のパルスは前記第一のパルスを含み、前記コントローラは、
前記複数のパルスにおけるそれぞれのパルスの各々の結果として出力されるデータ値を使用して、それぞれの画像フレームを生成することと、
前記生成された画像フレームに部分的に基づいて前記眼球の向きを追跡することと
を行うように構成されていることを特徴とする、請求項1に記載の視線追跡システム。 - 第一の赤外線(IR)光源によって、第一の時間帯に亘ってIR光の第一のパルスを放射するステップであって、IR光の前記第一のパルスは、光路に沿ってユーザーの眼球を含むアイボックスに向けられ、前記眼球は、IR光の前記第一のパルスの一部分を反射して、第一の輝度で光路に沿って目標領域に向けて戻し、前記眼球は、軸外IR光源から発生するIR光を反射し、前記第一の輝度より小さい第二の輝度で光路に沿って目標領域に向けて戻す、第一の赤外線(IR)光源と、
前記目標領域に配置されたイベントカメラによって、光路に沿ってアイボックスから反射されたIR光を検出するステップであって、前記イベントカメラは複数のフォトダイオードを含み、各フォトダイオードは、
反射されたIR光の第一のパルスの一部分に対応する強度値を検出することと、
前記フォトダイオードによって以前に出力されたデータ値と、強度閾値に対する前記フォトダイオードによって検出された前記強度値との差に少なくとも部分的に基づいているデータ値を非同期に出力することと
を行うように構成されている、ステップと、
結果として前記第一のパルスから生じる前記イベントカメラから出力されたデータ値から、コントローラによって、前記眼球の瞳孔を識別するステップと、
コントローラによって、前記識別された瞳孔に部分的に基づいて前記ユーザーの視線位置を決定するステップと
を備えることを特徴とする、方法。 - 第二のIR光源によって、IR光の第二のパルスを放射するステップであって、前記第二のIR光源が軸外光源である、ステップと、
前記コントローラによって、第二の時間帯に亘ってIR光の前記第二のパルスを放射するように、前記第二のIR光源に指示するステップであって、前記第一の時間帯および前記第二の時間帯は部分的に重なっている、ステップと
をさらに備えることを特徴とする、請求項8に記載の方法。 - 前記アイボックスと前記イベントカメラとの間の前記光路内に配置されたビームスプリッタによって、IR光の前記第一のパルスの少なくとも一部分を、実質的に第一の光路に沿って伝搬するように方向転換させ、前記眼球から反射されたIR光を伝送して、光路に沿ってイベントカメラに向けて戻すステップ
をさらに備えることを特徴とする、請求項9に記載の方法。 - 前記強度閾値の値は、結果として前記第一のパルスから生じるデータ値が前記瞳孔に対応するような値であることを特徴とする、請求項8に記載の方法。
- 前記コントローラによって、前記第一のパルスを放射するように前記第一のIR光源に指示するステップであって、前記第一のパルスは1秒以下のパルス幅を有している、ステップ
をさらに備えることを特徴とする、請求項8に記載の方法。 - 前記コントローラによって、0%より大きく100%未満の負荷サイクルにおけるパルスレートで、1秒以下の周期で複数のパルスを放射するように、前記第一のIR光源に指示するステップであって、前記複数のパルスは前記第一のパルスを含む、ステップ
をさらに備えることを特徴とする、請求項8に記載の方法。 - 前記コントローラによって、あるパルスレートで複数のパルスを放射するように、前記第一のIR光源に指示するステップであって、前記複数のパルスは前記第一のパルスを含む、ステップと、
前記コントローラによって、前記複数のパルスにおけるそれぞれのパルスの各々の結果として出力されたデータ値を使用して、それぞれの画像フレームを生成するステップと、
前記コントローラによって、前記生成された画像フレームに部分的に基づいて前記眼球の向きを追跡するステップと
をさらに備えることを特徴とする、請求項8に記載の方法。 - イベントカメラのセンサによって、ユーザーの眼球から反射する、複数の軸外光源からの赤外光を受け取るステップと、
前記イベントカメラから出力されたデータ値から前記眼球の瞳孔を識別するステップであって、前記瞳孔の外周に対応する明るいリングを検出するステップを含む、ステップと
前記明るいリングに基づいて、前記ユーザーの視線位置を決定するステップと
を備えることを特徴とする、方法。 - 前記複数の軸外光源を順次ストロボするステップをさらに備えることを特徴とする、請求項15に記載の方法。
- 前記明るいリングを検出するステップは、前記複数の軸外光源の各々に対応する三日月の形状を前記明るいリングに組み合わせるステップを含むことを特徴とする、請求項16に記載の方法。
- 前記イベントカメラによって、前記ユーザーの前記眼球から反射する共軸光源からの赤外光を受け取るステップであって、前記共軸光源は、前記イベントカメラの軸に沿って配置されている、ステップ
をさらに備えることを特徴とする、請求項15に記載の方法。 - 前記複数の軸外光源は、前記イベントカメラの軸を中心とするリング状に配置されていることを特徴とする、請求項15に記載の方法。
- 前記複数の軸外光源を同時にストロボするステップをさらに備えることを特徴とする、請求項15に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063126750P | 2020-12-17 | 2020-12-17 | |
US63/126,750 | 2020-12-17 | ||
PCT/US2021/063734 WO2022133048A1 (en) | 2020-12-17 | 2021-12-16 | Event camera system for pupil detection and eye tracking |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023550538A true JP2023550538A (ja) | 2023-12-01 |
Family
ID=82021272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023548561A Pending JP2023550538A (ja) | 2020-12-17 | 2021-12-16 | 瞳孔検出および視線追跡のためのイベントカメラシステム |
Country Status (7)
Country | Link |
---|---|
US (2) | US11543883B2 (ja) |
EP (1) | EP4264551A1 (ja) |
JP (1) | JP2023550538A (ja) |
KR (1) | KR20230121847A (ja) |
CA (1) | CA3205624A1 (ja) |
IL (1) | IL303742A (ja) |
WO (1) | WO2022133048A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10956737B1 (en) * | 2017-10-24 | 2021-03-23 | Wells Fargo Bank, N.A. | System and apparatus for improved eye tracking using a mobile device |
CN114938418A (zh) * | 2021-02-04 | 2022-08-23 | 佳能株式会社 | 具有视线检测功能的取景器单元、摄像设备和附接配件 |
US20230055268A1 (en) * | 2021-08-18 | 2023-02-23 | Meta Platforms Technologies, Llc | Binary-encoded illumination for corneal glint detection |
US20230176377A1 (en) | 2021-12-06 | 2023-06-08 | Facebook Technologies, Llc | Directional illuminator and display apparatus with switchable diffuser |
US20230274578A1 (en) * | 2022-02-25 | 2023-08-31 | Eyetech Digital Systems, Inc. | Systems and Methods for Hybrid Edge/Cloud Processing of Eye-Tracking Image Data |
US11912429B2 (en) * | 2022-04-05 | 2024-02-27 | Gulfstream Aerospace Corporation | System and methodology to provide an augmented view of an environment below an obstructing structure of an aircraft |
US20230400915A1 (en) * | 2022-06-10 | 2023-12-14 | Sony Interactive Entertainment Inc. | Dynamic vision sensor based eye and/or facial tracking |
WO2024059278A1 (en) * | 2022-09-16 | 2024-03-21 | Zinn Labs, Inc. | Tracking system using a differential camera |
Family Cites Families (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6433760B1 (en) | 1999-01-14 | 2002-08-13 | University Of Central Florida | Head mounted display with eyetracking capability |
US7963652B2 (en) * | 2003-11-14 | 2011-06-21 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
JP5045212B2 (ja) * | 2007-04-25 | 2012-10-10 | 株式会社デンソー | 顔画像撮像装置 |
CA2685976C (en) * | 2007-05-23 | 2013-02-19 | The University Of British Columbia | Methods and apparatus for estimating point-of-gaze in three dimensions |
US9405364B2 (en) | 2010-10-29 | 2016-08-02 | IT-Universitetet i København | Method of determining reflections of light |
CA2750287C (en) | 2011-08-29 | 2012-07-03 | Microsoft Corporation | Gaze detection in a see-through, near-eye, mixed reality display |
US8970452B2 (en) * | 2011-11-02 | 2015-03-03 | Google Inc. | Imaging method |
US8824779B1 (en) | 2011-12-20 | 2014-09-02 | Christopher Charles Smyth | Apparatus and method for determining eye gaze from stereo-optic views |
US9201512B1 (en) * | 2012-04-02 | 2015-12-01 | Google Inc. | Proximity sensing for input detection |
US10466779B1 (en) | 2017-07-24 | 2019-11-05 | Facebook Technologies, Llc | Event camera for eye tracking |
US11194391B2 (en) * | 2017-09-27 | 2021-12-07 | Apple Inc. | Visual artifact mitigation of dynamic foveated displays |
JP7008131B2 (ja) | 2017-09-28 | 2022-01-25 | アップル インコーポレイテッド | イベントカメラデータを使用するアイトラッキングの方法及び装置 |
WO2019104413A1 (en) * | 2017-12-03 | 2019-06-06 | Frank Jones | Enhancing the performance of near-to-eye vision systems |
US10845601B1 (en) | 2018-02-07 | 2020-11-24 | Apple Inc. | AR/VR controller with event camera |
US10795435B2 (en) | 2018-07-19 | 2020-10-06 | Samsung Electronics Co., Ltd. | System and method for hybrid eye tracker |
WO2021034527A1 (en) | 2019-08-16 | 2021-02-25 | Qsinx Management Llc | Pupil assessment using modulated on-axis illumination |
US11604367B2 (en) | 2020-04-08 | 2023-03-14 | Facense Ltd. | Smartglasses with bendable temples |
GB2595707B (en) | 2020-06-04 | 2023-02-15 | Sony Interactive Entertainment Inc | Gaze tracking apparatus and systems |
US11164019B1 (en) | 2020-06-17 | 2021-11-02 | Fotonation Limited | Object detection for event cameras |
GB2596541B (en) | 2020-06-30 | 2023-09-13 | Sony Interactive Entertainment Inc | Video processing |
GB2596588B (en) | 2020-07-03 | 2022-10-26 | Sony Interactive Entertainment Inc | Data processing apparatus and method |
GB2597533B (en) | 2020-07-28 | 2022-11-23 | Sony Interactive Entertainment Inc | Gaze tracking system and method |
WO2022066431A1 (en) | 2020-09-22 | 2022-03-31 | Sterling Labs Llc | Multiple gaze dependent illumination sources for retinal eye tracking |
US20230367393A1 (en) | 2020-10-13 | 2023-11-16 | Sony Group Corporation | Line-of-sight detection device, display device, and method for sensing eyeball |
-
2021
- 2021-12-16 IL IL303742A patent/IL303742A/en unknown
- 2021-12-16 WO PCT/US2021/063734 patent/WO2022133048A1/en active Application Filing
- 2021-12-16 JP JP2023548561A patent/JP2023550538A/ja active Pending
- 2021-12-16 KR KR1020237024146A patent/KR20230121847A/ko active IP Right Grant
- 2021-12-16 US US17/552,741 patent/US11543883B2/en active Active
- 2021-12-16 CA CA3205624A patent/CA3205624A1/en active Pending
- 2021-12-16 EP EP21907793.0A patent/EP4264551A1/en active Pending
-
2022
- 2022-11-15 US US17/987,454 patent/US20230195220A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
IL303742A (en) | 2023-08-01 |
EP4264551A1 (en) | 2023-10-25 |
KR20230121847A (ko) | 2023-08-21 |
CA3205624A1 (en) | 2022-06-23 |
WO2022133048A1 (en) | 2022-06-23 |
US11543883B2 (en) | 2023-01-03 |
US20220197376A1 (en) | 2022-06-23 |
US20230195220A1 (en) | 2023-06-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11543883B2 (en) | Event camera system for pupil detection and eye tracking | |
US9924866B2 (en) | Compact remote eye tracking system including depth sensing capacity | |
EP3294113B1 (en) | Eye tracking device and method for operating an eye tracking device | |
CN106663183B (zh) | 眼睛跟踪及用户反应探测 | |
JP6208901B2 (ja) | 目追跡装置動作方法及び能動的電力管理を行う目追跡装置 | |
WO2018177311A1 (zh) | 视线追踪装置及头戴式显示设备 | |
US7682025B2 (en) | Gaze tracking using multiple images | |
KR102561991B1 (ko) | 아이웨어 장착 가능 안구 추적 디바이스 | |
US10585477B1 (en) | Patterned optical filter for eye tracking | |
JP6110862B2 (ja) | 画像からの物体距離決定 | |
US20170172406A1 (en) | Methods and Apparatus for Optical Controller | |
US20110170060A1 (en) | Gaze Tracking Using Polarized Light | |
JP2012530573A5 (ja) | ||
JP2011115606A (ja) | 眼及びその凝視方向を検知し、追跡する方法と装置 | |
JP2003521950A6 (ja) | 視標追跡システム | |
JP6957048B2 (ja) | 眼部画像処理装置 | |
JP2023500210A (ja) | 高性能な明瞳孔アイトラッキング | |
CN109964230B (zh) | 用于眼睛度量采集的方法和设备 | |
JP2009240551A (ja) | 視線検出装置 | |
US11144755B2 (en) | Support glint for remote eye tracking | |
Borsato et al. | A fast and accurate eye tracker using stroboscopic differential lighting | |
RU2352244C2 (ru) | Способ измерения быстрых движений глаз и отклонений бинокулярного зрения и устройство для его реализации | |
JP6687195B2 (ja) | 眼部画像処理装置 | |
US20240094811A1 (en) | Tracking system using a differential camera with a co-aligned light source assembly | |
US10928894B2 (en) | Eye tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230810 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230810 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240116 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240415 |