JP7186906B2 - スペックルパターンを使用した眼追跡のための方法およびシステム - Google Patents

スペックルパターンを使用した眼追跡のための方法およびシステム Download PDF

Info

Publication number
JP7186906B2
JP7186906B2 JP2022002426A JP2022002426A JP7186906B2 JP 7186906 B2 JP7186906 B2 JP 7186906B2 JP 2022002426 A JP2022002426 A JP 2022002426A JP 2022002426 A JP2022002426 A JP 2022002426A JP 7186906 B2 JP7186906 B2 JP 7186906B2
Authority
JP
Japan
Prior art keywords
eye
light beam
speckle
tracking
speckle patterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022002426A
Other languages
English (en)
Other versions
JP2022058561A (ja
Inventor
シネイ アシフ
フリードマン バラク
ブルーザー エヴィヤター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2022058561A publication Critical patent/JP2022058561A/ja
Application granted granted Critical
Publication of JP7186906B2 publication Critical patent/JP7186906B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4788Diffraction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4788Diffraction
    • G01N2021/479Speckle
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Description

(関連出願の引用)
本願は、米国仮特許出願第62/420,292号(2016年11月10日出願)の利益を主張し、上記出願の内容は、その全体が参照により引用される。
(発明の背景)
視線追跡技術は、多くの分野に適用されることができる。例えば、視線追跡は、正確な3ディメンジョンレンダリングをユーザに提供するための仮想現実(VR)または拡張現実(AR)ヘッドセットを構築するために有用であり得る。他の用途は、障害のある人々を補助するためのヒューマンコンピュータインターフェース、アクティビティ認識、画像およびビデオ圧縮、コンピュータビジョン、医療調査における認知研究、レーザ屈折外科手術、車載調査のための車両シミュレータ、スポーツ訓練シミュレータを含む、訓練シミュレータ、疲労検出等を含み得る。視線追跡技術の開発においてなされた進歩にもかかわらず、当技術分野において、改良された視線追跡方法に対する必要性がある。
(発明の要約)
本発明は、概して、視線追跡のための方法およびシステムに関する。より具体的には、本発明は、スペックルパターンを使用した視線追跡のための方法およびシステムに関する。
本発明のある実施形態によると、ユーザの眼の移動を追跡する方法は、光ビームを眼に向かわせることを含む。眼は、光ビームの一部を反射し得る。方法は、眼によって反射された光ビームの一部によって検出器において形成された複数のスペックルパターンを検出することをさらに含む。複数のスペックルパターンは、所定のフレームレートで検出され得る。方法は、フレーム毎に複数のスペックルパターンを追跡することによって、眼の移動を追跡することをさらに含む。
本発明の別の実施形態によると、ユーザの眼の視線を追跡する方法は、眼の第1の複数の画像をカメラを使用して第1のフレームレートで記録することと、眼の第1の複数の画像に基づいて、眼の開始位置を決定することとを含む。方法は、光ビームを眼に向かわせることをさらに含む。眼は、光ビームの一部を反射し得る。方法は、眼によって反射された光ビームの一部によって検出器において形成された第1の複数のスペックルパターンを検出することをさらに含む。複数のスペックルパターンは、第1のフレームレートより大きい第2のフレームレートで検出され得る。方法は、フレーム毎に第1の複数のスペックルパターンを追跡することによって、開始位置に対する眼の移動を追跡することをさらに含む。
本発明のさらに別の実施形態によると、ユーザの眼の視線を追跡する方法は、ユーザの眼の事前に較正されたスペックルマップを取得することと、事前に較正されたスペックルマップを使用して、眼の開始位置を決定することと、開始位置に対する眼の移動を追跡することとを含む。一実施形態では、ユーザの眼の事前に較正されたスペックルマップを取得することは、第1の光ビームを眼に向かわせることと、眼によって反射された第1の光ビームの一部によって検出器において形成された複数の第1のスペックルパターンを検出することであって、複数の第1のスペックルパターンの各々は、眼のそれぞれの第1の位置に対応する、ことと、カメラを使用して、眼の複数の画像を記録することであって、眼の複数の画像の各々は、それぞれの第1のスペックルパターンが検出されると記録される、ことと、眼のそれぞれの画像に基づいて、各それぞれの第1のスペックルパターンに対応する眼のそれぞれの第1の位置を決定することと、複数の第1のスペックルパターンおよび眼の対応する第1の位置を記憶することとによって実施される。一実施形態では、事前に較正されたスペックルマップを使用して眼の開始位置を決定することは、第2の光ビームを眼に向かわせることであって、眼は、第2の光ビームの一部を反射する、ことと、眼によって反射された第2の光ビームの一部によって検出器において形成された複数の第2のスペックルパターンを検出することと、複数の第2のスペックルパターンと記憶された複数の第1のスペックルパターンおよび眼の記憶された対応する第1の位置との間の比較に基づいて、眼の開始位置を決定することとによって実施される。一実施形態では、開始位置に対する眼の移動を追跡することは、第3の光ビームを眼に向かわせることであって、眼は、第3の光ビームの一部を反射する、ことと、眼によって反射された第3の光ビームの一部によって検出器において形成された複数の第3のスペックルパターンを検出することであって、複数の第3のスペックルパターンは、所定のフレームレートで検出される、ことと、フレーム毎に第3の複数のスペックルパターンを追跡することによって、開始位置に対する眼の移動を追跡することとによって実施される。
本発明のさらなる実施形態では、ユーザの識別の方法は、第1の光ビームを第1の眼に向かわせることであって、第1の眼は、第1の光ビームの一部を反射することと、第1の眼によって反射された第1の光ビームの一部によって検出器において形成された複数の第1のスペックルパターンを検出することであって、複数の第1のスペックルパターンの各々は、第1の眼のそれぞれの第1の位置に対応する、ことと、第1の眼の複数の画像をカメラを使用して記録することであって、第1の眼の複数の画像の各々は、それぞれの第1のスペックルパターンが検出されると記録される、ことと、第1の眼のそれぞれの画像に基づいて、各それぞれの第1のスペックルパターンに対応する第1の眼のそれぞれの第1の位置を決定することと、複数の第1のスペックルパターンおよび第1の眼の対応する第1の位置を記憶することとによって、第1のユーザの第1の眼の事前に較正されたスペックルマップを取得することを含む。方法は、第2の光ビームをユーザの眼に向かわせることであって、眼は、第2の光ビームの一部を反射する、ことと、眼によって反射された第2の光ビームの一部によって検出器において形成された複数の第2のスペックルパターンを検出することであって、複数の第2のスペックルパターンの各々は、眼のそれぞれの第2の位置に対応する、ことと、複数の第2のスペックルパターンを複数の第1のスペックルパターンと比較することによって、ユーザが第1のユーザであることを決定することとをさらに含む。いくつかの実施形態では、眼によって反射された第1の光ビームの一部および眼によって反射され第2の光ビームの一部の各々は、眼によって拡散反射または鏡面反射される。
従来の技法に優る多数の利点が、本発明の方法によって達成される。例えば、本発明の実施形態は、スペックルパターンの移動を追跡することによって、例えば、ミクロンスケール以下における、わずかな視線移動の正確な検出のための方法およびシステムを提供することができる。スペックルを使用した視線追跡は、非常にロバストであり得、追跡品質は、眼に対するセンサ場所に対して比較的に鈍感であり得る。本発明の実施形態による視線追跡の方法は、より少ない量の算出およびより少ない数の光源が要求される(例えば、1つのみの光が、カメラベースの眼追跡において典型的に必要とされる4つのLEDと比較して要求される)ので、従来の方法と比較して、より低い電力消費をもたらし得る。方法は、それらが1つの光源および1つの検出器のみを要求し、カメラレンズを要求しないので、より低いコストももたらし得る。
本発明は、例えば、以下を提供する。
(項目1)
ユーザの眼の移動を追跡する方法であって、前記方法は、
光ビームを前記眼に向かわせることであって、前記眼は、前記光ビームの一部を反射する、ことと、
前記眼によって反射された前記光ビームの一部によって検出器において形成された複数のスペックルパターンを検出することであって、前記複数のスペックルパターンは、所定のフレームレートで検出される、ことと、
フレーム毎に前記複数のスペックルパターンを追跡することによって、前記眼の移動を追跡することと
を含む、方法。
(項目2)
前記眼によって反射された前記光ビームの一部は、前記眼によって拡散反射または鏡面反射される、項目1に記載の方法。
(項目3)
前記所定のフレームレートは、約5,000フレーム/秒より大きく、約15,000フレーム/秒より小さい、項目1に記載の方法。
(項目4)
前記所定のフレームレートは、約10,000フレーム/秒である、項目3に記載の方法。
(項目5)
前記所定のフレームレートは、約50フレーム/秒より大きく、約15,000フレーム/秒より小さい、項目1に記載の方法。
(項目6)
前記複数のスペックルパターンを追跡することは、オプティカルフローアルゴリズムを使用して実施される、項目1に記載の方法。
(項目7)
前記オプティカルフローアルゴリズムは、位相相関アルゴリズムを備えている、項目6に記載の方法。
(項目8)
前記光ビームは、赤外線放射を備えている、項目1に記載の方法。
(項目9)
ユーザの眼の視線を追跡する方法であって、前記方法は、
前記眼の第1の複数の画像をカメラを使用して第1のフレームレートで記録することと、
前記眼の前記第1の複数の画像に基づいて、前記眼の開始位置を決定することと、
光ビームを前記眼に向かわせることであって、前記眼は、前記光ビームの一部を反射する、ことと、
前記眼によって反射された前記光ビームの一部によって検出器において形成された第1の複数のスペックルパターンを検出することであって、前記複数のスペックルパターンは、前記第1のフレームレートより大きい第2のフレームレートで検出される、ことと、
フレーム毎に前記第1の複数のスペックルパターンを追跡することによって、前記開始位置に対する前記眼の移動を追跡することと
を含む、方法。
(項目10)
前記眼によって反射された前記光ビームの一部は、前記眼によって拡散反射または鏡面反射される、項目9に記載の方法。
(項目11)
前記複数のスペックルパターンを追跡することは、オプティカルフローアルゴリズムを使用して実施される、項目9に記載の方法。
(項目12)
前記オプティカルフローアルゴリズムは、位相相関アルゴリズムを備えている、項目11に記載の方法。
(項目13)
前記第1のフレームレートは、約10フレーム/秒より小さく、前記第2のフレームレートは、約50フレーム/秒より大きく、約15,000フレーム/秒より小さい、項目9に記載の方法。
(項目14)
前記眼が瞬目したことを決定することと、
新しい開始位置を決定することであって、前記決定することは、
前記眼の第2の複数の画像を前記カメラを使用して記録することと、
前記眼の前記第2の複数の画像に基づいて、前記新しい開始位置を決定することと
による、ことと、
前記新しい開始位置に対する前記眼の移動を追跡することであって、前記追跡することは、
前記検出器において形成された第2の複数のスペックルパターンを前記第2のフレームレートで検出することと、
フレーム毎に前記第2の複数のスペックルパターンを追跡することと
による、ことと
をさらに含む、項目9に記載の方法。
(項目15)
ユーザの眼の視線を追跡する方法であって、前記方法は、
前記ユーザの眼の事前に較正されたスペックルマップを取得することであって、前記取得することは、
第1の光ビームを前記眼に向かわせることであって、前記眼は、前記第1の光ビームの一部を反射する、ことと、
前記眼によって反射された前記第1の光ビームの一部によって検出器において形成された複数の第1のスペックルパターンを検出することであって、前記複数の第1のスペックルパターンの各々は、前記眼のそれぞれの第1の位置に対応する、ことと、
カメラを使用して、前記眼の複数の画像を記録することであって、前記眼の複数の画像の各々は、それぞれの第1のスペックルパターンが検出されると記録される、ことと、
前記眼の前記それぞれの画像に基づいて、各それぞれの第1のスペックルパターンに対応する前記眼の前記それぞれの第1の位置を決定することと、
前記複数の第1のスペックルパターンおよび前記眼の前記対応する第1の位置を記憶することと
による、ことと、
前記事前に較正されたスペックルマップを使用して前記眼の開始位置を決定することであって、前記決定することは、
第2の光ビームを前記眼に向かわせることであって、前記眼は、前記第2の光ビームの一部を反射する、ことと、
前記眼によって反射された前記第2の光ビームの一部によって前記検出器において形成された複数の第2のスペックルパターンを検出することと、
前記複数の第2のスペックルパターンと前記記憶された複数の第1のスペックルパターンおよび前記眼の前記記憶された対応する第1の位置との間の比較に基づいて、前記眼の前記開始位置を決定することと
による、ことと、
前記開始位置に対する前記眼の移動を追跡することであって、前記追跡することは、
第3の光ビームを前記眼に向かわせることであって、前記眼は、前記第3の光ビームの一部を反射する、ことと、
前記眼によって反射された前記第3の光ビームの一部によって前記検出器において形成された複数の第3のスペックルパターンを検出することであって、前記複数の第3のスペックルパターンは、所定のフレームレートで検出される、ことと、
フレーム毎に前記第3の複数のスペックルパターンを追跡することによって、前記開始位置に対する前記眼の移動を追跡することと
による、ことと
を含む、方法。
(項目16)
前記眼によって反射された前記第1の光ビームの一部、前記眼によって反射された前記第2の光ビームの一部、および前記眼によって反射された前記第3の光ビームの一部の各々は、前記眼によって拡散反射または鏡面反射される、項目15に記載の方法。
(項目17)
前記第3の複数のスペックルパターンを追跡することは、オプティカルフローアルゴリズムを使用して実施される、項目15に記載の方法。
(項目18)
前記オプティカルフローアルゴリズムは、位相相関アルゴリズムを備えている、項目17に記載の方法。
(項目19)
前記所定のフレームレートは、約50フレーム/秒より大きく、約15,000フレーム/秒より小さい、項目15に記載の方法。
(項目20)
前記眼が瞬目したことを決定することと、
前記眼の新しい開始位置を決定することであって、前記決定することは、
第4の光ビームを前記眼に向かわせることであって、前記眼は、前記第4の光ビームの一部を反射する、ことと、
前記眼によって反射された前記第4の光ビームの一部によって前記検出器において形成された複数の第4のスペックルパターンを検出することと、
前記複数の第4のスペックルパターンと前記記憶された複数の第1のスペックルパターンおよび前記眼の前記記憶された対応する第1の位置との間の比較に基づいて、前記眼の前記新しい開始位置を決定することと
による、ことと、
前記新しい開始位置に対する前記眼の移動を追跡することであって、前記追跡することは、
第5の光ビームを前記眼に向かわせることであって、前記眼は、前記第5の光ビームの一部を反射する、ことと、
前記眼によって反射された前記第5の光ビームの一部によって前記検出器において形成された複数の第5のスペックルパターンを検出することであって、前記複数の第5のスペックルパターンは、前記所定のフレームレートで検出される、ことと、
フレーム毎に前記第5の複数のスペックルパターンを追跡することによって、前記新しい開始位置に対する前記眼の移動を追跡することと
による、ことと
をさらに含む、項目15に記載の方法。
本発明のこれらおよび他の実施形態は、その利点および特徴の多くとともに、下記の文章および添付の図と併せてより詳細に説明される。
図1は、眼が種々の位置を注視するときに捕捉された眼の4つの画像(a)-(d)を示す。 図2は、3つの独立軸に沿った眼移動を図式的に図示する。 図3は、レーザポインタから生成された例示的スペックルパターンを図示する。 図4は、スペックルパターンが画像センサ上に形成され得る方法を図式的に図示する。 図5Aおよび5Bは、互いに対して短時間間隔で撮影されたスペックルパターンの2つのスナップショットを示す。 図6は、本発明のある実施形態による、視線追跡のための例示的設定を図式的に図示する。 図7Aは、本発明のある実施形態による、カメラによって捕捉された眼の正面図を示す。図7Bは、本発明のある実施形態による、検出器によって捕捉されたスペックルパターンを示す。 図8は、本発明のある実施形態による、光源、検出器、および随意の眼カメラがユーザによって装着され得る一対の眼鏡上に搭載され得る方法を図示する概略図を示す。 図9A-9Fは、眼が片側から別の側に移動するにつれて検出器によって10ms(すなわち、0.01秒)時間間隔で捕捉された眼のスペックルパターンの6つの連続的なフレームを示す。 図10A-10Cは、スペックルパターンが検出器上に形成され得る様子を図示する10ms間隔で捕捉された検出器の3つの連続フレームを示す。 図11Aは、本発明のある実施形態による、眼カメラによって捕捉された眼の正面図のスナップショットを示す。 図11Bは、本発明のある実施形態による、図10Aに示される眼の正面図のスナップショットが捕捉された同じ時に検出器によって捕捉された眼の生成されたスペックルパターンのスナップショットを示す。 図11Cは、本発明のある実施形態による、開始位置から終了位置までの眼移動の軌道を示す。 図12Aは、本発明のある実施形態による、2つの異なる検出器におけるスペックルパターンのスナップショット(2つの左パネル)と、2つの異なるカメラによって捕捉された眼の正面図および側面図のスナップショット(2つの右パネル)とを示す。 図12Bおよび12Cは、それぞれ、本発明のある実施形態による、2つの検出器によって検出された眼の軌道を示す。 図12Bおよび12Cは、それぞれ、本発明のある実施形態による、2つの検出器によって検出された眼の軌道を示す。 図13Aは、本発明のある実施形態による、瞬目されたときの眼の正面図のスナップショットを示す。図13Bは、本発明のある実施形態による、眼が瞬目されたときの検出器における画像を示す。 図14Aは、本発明のある実施形態による、(i)2つの右パネルに、2つの異なる眼カメラによって同時に捕捉された眼の正面図および側面図のスナップショットを示し、(ii)2つの左パネルに、2つの異なる検出器によって捕捉されたスペックルパターンのスナップショットとを示す。図14Bは、本発明のある実施形態による、眼移動の軌道の一部を示す。図14Cは、本発明のある実施形態による、時間の関数として追跡品質スコアを示す。 図15A-15Cは、本発明のある実施形態による、図14A-14Cに類似するが、異なる時間のスナップショットである。 図16は、本発明のある実施形態による、視線追跡の方法を図示する簡略化されたフローチャートを図示する。 図17は、本発明の別の実施形態による、視線追跡の方法を図示する簡略化されたフローチャートを図示する。 図18は、本発明のある実施形態による、ユーザの眼の移動を追跡する方法を図示する簡略化されたフローチャートである。 図19は、本発明のある実施形態による、ユーザの眼の視線を追跡する方法を図示する簡略化されたフローチャートである。 図20は、本発明の別の実施形態による、ユーザの眼の視線を追跡する方法を図示する簡略化されたフローチャートである。 図21は、本発明のある実施形態による、ユーザの眼の事前に較正されたスペックルマップを取得する方法を図示する簡略化されたフローチャートである。 図22は、本発明のある実施形態による、事前に較正されたスペックルマップを使用して眼の開始位置を決定する方法を図示する簡略化されたフローチャートである。 図23は、本発明のある実施形態による、開始位置に対する眼の移動を追跡する方法を図示する簡略化されたフローチャートである。 図24は、本発明のある実施形態による、ユーザの識別の方法を図示する簡略化されたフローチャートである。
本発明は、概して、視線追跡のための方法およびシステムに関する。より具体的には、本発明は、スペックルパターンを使用した視線追跡のための方法およびシステムに関する。最も広く使用されている現在の設計は、ビデオベースの眼トラッカであり、それは、受動追跡とも称される。カメラは、片眼または両眼上に焦点を合わせ、視認者がある種類の刺激を見ると、それらの移動を記録する。図1は、眼が種々の位置を注視しているときに捕捉された眼の4つの画像(a)-(d)を示す。瞳孔の中心の(x、y)座標を追跡することによって、視線が、監視され得る。
大部分の現代の眼トラッカは、瞳孔の中心と、近赤外線非コリメート光等の赤外線とを使用して、角膜反射(CR)を作成する。瞳孔中心と角膜反射との間のベクトルは、表面上の注視点または視線方向を算出するために使用されることができる。2つの一般的タイプの赤外線または近赤外線(活性光としても知られる)眼追跡技法が使用される:明瞳孔および暗瞳孔。それらの差異は、光学に対する照明源の場所に基づく。照明が、光学経路と同軸である場合、眼は、網膜から反射する光が赤色眼に類似する明瞳孔効果を作成するように、逆反射体としての機能を果たす。照明源が、光学経路からオフセットされる場合、瞳孔は、網膜からの反射がカメラから離れるように向かわせられるので、暗く現れる。
図2は、3つの独立軸に沿った可能な眼移動を図式的に図示する:水平変位(第1のディメンジョン)、垂直変位(第2のディメンジョン)、水平回転(第3のディメンジョン)、垂直回転(第4のディメンジョン)、視軸回転(cyclotorsion)(第5のディメンジョン)、および軸方向変位(第6のディメンジョン)。
本発明の実施形態は、スペックルパターンを使用して視線を追跡する方法およびシステムを提供する。スペックルパターンは、波面の組の相互干渉によって生成される強度パターンである。スペックルパターンは、典型的には、レーザ光等のモノクロ光の拡散反射において生じる。スペックル効果は、異なる位相および振幅を有する同一周波数の多くの波の干渉の結果であり、それらは、一緒になり、その振幅、したがって、強度が、ランダムに変動する結果として生じる波を与える。図3は、緑色レーザポインタから生成された例示的スペックルパターンを図示する。
図4は、スペックルパターンが画像センサ430上に形成され得る方法を図式的に図示する。表面420が、回折理論に従って、レーザ等のコヒーレント光源410によって照明されると、照明された表面上の各点は、二次球状波源としての機能を果たす。散乱させられた明視野内の任意の点における光は、照明された表面420上の各点から散乱させられた波から成る。表面420が、1波長を超える経路長差を作成するために十分に粗面であり、2πより大きい位相変化を引き起こす場合、結果として生じる光の振幅、故に、強度は、ランダムに変動する。例えば、図4に図示されるように、散乱させられた光波は、互いに対して位相がずれて干渉し、暗スペックル442を画像センサ430上のある位置(例えば、点A)にもたらし得る。同様に、散乱させられた光波は、互いに対して同相で干渉し、明スペックル444を画像センサ430上のある位置(例えば、点B)にもたらし得る。したがって、スペックルパターンは、粗面表面によって生成されたホログラムと見なされ得る。
コヒーレント光(例えば、レーザビーム)によって照明される、粗面表面が、結像されると、スペックルパターンが、結像面に観察される。これは、「主観的スペックルパターン」と呼ばれる。スペックルパターンの詳細な構造が視認システムパラメータに依存するので、「主観的」と呼ばれる。例えば、レンズ開口のサイズが変化する場合、スペックルのサイズも変化する。粗面表面から散乱させられるコヒーレント光が、別の表面上に当たると、「客観的スペックルパターン」を形成する。写真乾板または別の2-D光学センサが、レンズを伴わずに、散乱させられた明視野内に位置する場合、客観的スペックルパターンが、取得され、その特性は、システムの幾何学形状およびコヒーレント光源の波長に依存する。
本発明の実施形態は、光ビームを眼に向かわせ、眼による光ビームの拡散および鏡面反射によって形成されるスペックルパターンの移動を追跡することによって、眼の移動を追跡する方法およびシステムを含む。スペックルパターンを使用して、視線を追跡することは、いくつかの利点をもたらし得る。眼球の表面のテクスチャは、他の手段によって検出されるために平滑すぎるが、それは、観察可能なスペックルパターンを生成することができる。スペックルパターンは、スペックルパターンが眼球によって生成され、したがって、眼球に固定されているので、眼球が移動させられると、センサに対して移動するであろう。スペックルパターンの移動を追跡することによって、例えば、ミクロンスケール以下における、眼球のわずかな移動を正確に検出することが可能であり得る。
図5Aおよび5Bは、互いに対して短時間間隔において捕捉された検出器上のスペックルパターンの2つのスナップショットを示し、標的は、その時間間隔中、短距離だけ移動させられている。図から分かるように、スペックルパターンは、検出器に対して移動している。例えば、図5A内の位置Aにおける明スポットは、図5Bにおける検出器の縁の近傍の位置A’に左に向かって移動させられている。同様に、図5A内の位置BおよびCにおける明スポットも、それぞれ、図5Bにおける位置B’およびC’に左に向かって移動させられている。スペックルパターンの移動を追跡するために、フレーム間の標的上のビームスポット移動がビームスポットサイズをはるかに下回ること、フレーム間の検出器上のスペックル移動が検出器サイズをはるかに下回ることが所望され得る。例えば、いくつかの実施形態では、約5mm~約10mmに及ぶビームスポットサイズが、利用され得る。眼がフレーム間で移動するにつれて、眼上のビームスポットの位置は、適宜、移動する。例えば、1000フレーム/秒(fps)のフレームレートに対して、ビームスポットサイズ5mmを所与として、約5,000mm/秒のレートにおける眼の移動は、ビームスポットサイズ内であろう。同様に、検出器上のスペックルパターンも、眼がフレーム間で移動するにつれて、適宜、移動する。したがって、上記要件が満たされるように、高速検出器、例えば、1000fpsまたはより高速のレートで動作する検出器を使用することが有利であり得る。
図6は、本発明のある実施形態による、視線追跡のための例示的設定を図式的に図示する。光源610は、ある傾斜角度において、光ビーム620を眼に照らし得る。眼は、光ビーム620の一部を反射し得る。検出器630が、眼に隣接して位置付けられ、眼によって反射された光ビームの一部によって形成されるスペックルパターンを検出し得る。図7Aは、カメラによって捕捉されるような眼の正面図を示す。明スポット702は、眼上のビームスポットである。図7Bは、検出器620によって捕捉されるようなスペックルパターンを示す。図7Bから分かるように、鏡面反射によって作成された干渉縞がスペックルパターン内に明確に見える。いくつかの実施形態では、光源610は、赤外線波長範囲内の光ビームを放出するように構成され得る。いくつかの実施形態では、光源610は、近赤外線波長範囲、例えば、0.75~2μm内の光ビームを放出するように構成され得る。いくつかの実施形態では、光源610は、スペックルパターンが検出され得るように、レーザソース等のコヒーレント光源または発光ダイオード(LED)等の部分的にコヒーレントな光源を備え得る。
図8は、本発明のある実施形態による、光源810、検出器830、および随意の眼カメラ840が、ユーザによって装着され得る一対の眼鏡850上に搭載され得る方法を図示する概略図を示す。光源810は、光ビーム820をユーザの眼に照らし得る。眼による光ビーム820の拡散および鏡面反射は、検出器830におけるスペックルパターンを形成し得る。いくつかの実施形態では、光源810は、レーザ等のコヒーレント光源を備え得る。眼カメラ840は、眼の画像を捕捉し得、眼の画像から、初期視線位置が、下でより詳細に議論されるように決定され得る。
図9A-9Fは、眼が片側から他の側に移動するにつれて、検出器によって10ms(すなわち、0.01秒)時間間隔で捕捉された眼による光ビームの反射によって生成されたスペックルパターンの6つの連続的なフレームを示す。図から分かるように、スペックルパターンは、図9Aから図9Fに左に向かって検出器エリアを横断して移動している。例えば、図9Aにおける明領域Aは、図9Bおよび9Cでは、左に向かって徐々に移動し、次いで、図9D-9Fでは、検出器エリアから外に移動している。同様に、図9Bにおける暗領域Bは、図9Bでは、ちょうど現れ始め、図9C-9Eでは、左に向かって徐々に移動し、次いで、図9Fでは、検出器エリアから外に移動している。
図10A-10Cは、10ms間隔で捕捉された検出器の3つの連続フレームを示し、スペックルパターンが画像センサ上に形成され得る様子を図示する。ここでは、干渉縞は、見えないが、眼の拡散反射によって作成されたスペックルパターンは、見えている。
スペックルパターンの移動を追跡することによって、眼の移動は、追跡され得る。本発明のいくつかの実施形態によると、スペックルパターンの移動は、オプティカルフローアルゴリズムを使用して追跡され得る。オプティカルフローまたはオプティックフローは、観察者(眼またはカメラ)と場面との間の相対的運動によって生じる視覚的場面内のオブジェクト、表面、および縁の見掛け運動のパターンである。順序付けられた画像のシーケンスは、瞬間画像速度または離散画像変位のいずれかとしての運動の推定を可能にし得る。オプティカルフローを決定する方法は、位相相関法、ブロックベースの方法、差動法、Horn-Schunck法、Buxton-Buxton法、Black-Jepson法、および一般的変分法、離散最適化法等を含み得る。本発明のある実施形態によると、眼の移動は、オプティカルフローの位相相関アルゴリズムを眼のスペックルパターンの連続的なフレームに適用することによって追跡される。
図11A-11Cは、本発明のある実施形態による、視線追跡のいくつかの例示的結果を図示する。図11Aは、眼カメラによって捕捉された眼の正面図のビデオのスナップショットを示す。図11Bは、眼の正面図のスナップショットが捕捉された同じ時に検出器によって捕捉された眼のスペックルパターンのスナップショットを示す。図11Cは、開始点から終了点までの眼移動の軌道を示し、そこで、図11Aおよび11Bのスナップショットが取得された。図11Cにおける水平軸および垂直軸は、それぞれ、任意単位(例えば、検出器のピクセルの観点から)における眼の水平位置および垂直位置である。較正後、視線位置は、視線角度に変換され得る。スペックルパターンを検出するためのフレームレートは、約100フレーム/秒である。追跡の持続時間は、約20秒である。図11Cから分かるように、眼の移動は、眼が左右および上下に往復して移動させられるにつれて持続的に追跡されている。
スペックルパターンを使用した視線追跡のロバスト性を示すために、2つの検出器が、眼の近傍に位置付けられ、眼の移動を追跡し得る。図12Aは、2つの異なる検出器によって捕捉されたスペックルパターンのスナップショット(2つの左パネル)と、2つの異なるカメラによって捕捉された眼の正面図および側面図のスナップショット(2つの右パネル)とを示す。図12Bおよび12Cは、それぞれ、2つの検出器によって検出された眼の軌道を示す。図12Bおよび12Cにおける水平軸および垂直軸は、それぞれ、任意単位における眼の水平位置および垂直位置である。スペックルパターンを検出するためのフレームレートは、2つの検出器の各々に対して約100フレーム/秒である。追跡の持続時間は、約20秒である。図から分かるように、2つの軌道は、互いに一致し、視線追跡の方法が非常にロバストであることを実証する。
本発明の実施形態によると、眼の移動は、眼が瞬目しない限り、眼のスペックルパターンの移動を追跡することによって、持続的に追跡され得る。眼が瞬目すると、スペックルパターンは、消失し得、その結果、1つのフレームと次のフレームとの間の相関は、失われ得る。図13Aは、眼が瞬目したときの眼の正面図のスナップショットを示す。図13Bは、眼が瞬目した時と同時に捕捉された検出器における画像を示す。図13Bから分かるように、スペックルパターンは、眼が瞬目されたときに失われる。瞬目が十分に長く、例えば、数十ミリ秒続いた場合、瞬目前後に捕捉されたスペックルパターンは、もはや互いに位相相関を有していないこともある。その結果、視線追跡は、いくつかの実施形態による視線追跡のために使用されるオプティカルフローアルゴリズム等のいくつかのアルゴリズムが、連続的なフレーム間の位相相関を要求し得るので、中断され得る。
いくつかの実施形態によると、追跡品質スコアが、視線追跡の品質の指示として使用され得る。例えば、追跡品質スコアは、スペックルパターンの連続的なフレーム間の相関の程度の尺度であり得る。いくつかの実施形態では、追跡品質スコアは、相関ピークの値から計算され得る。連続的なフレーム間の相関が、完璧である場合、相関ピークの値は、1に近くあり得る。連続的なフレーム間の相関が、おそらく、瞬目に起因して、不良である場合、相関ピークの値は、1を有意に下回り得る。
図14A-14Cおよび15A-15Cは、本発明のある実施形態による、視線追跡のいくつかの例示的結果を図示する。図14Aにおける2つの右パネルは、それぞれ、2つの異なる眼カメラによって捕捉された眼の側面図および正面図のスナップショットを示す。図14Aの2つの左パネルは、眼の側面図および正面図のスナップショットが捕捉された同じ時に2つの異なる検出器によって捕捉されたスペックルパターンのスナップショットを示す。図14Bは、眼移動の部分的軌道を示す。図14Bにおける水平軸および垂直軸は、それぞれ、任意単位における眼の水平位置および垂直位置である。図14Cは、時間の関数として追跡品質スコアを示す。垂直軸は、任意単位における追跡品質スコアである。水平軸は、(100フレーム/秒に対応する10ms間隔における)フレーム番号である。図示されるように、追跡品質スコアは、示される期間にわたって比較的に高い。図15A-15Cは、図14A-14Cに類似するが、異なる期間のスナップショットである。図15Aに示されるように、スペックルパターンは、眼の瞬目に起因して失われている。図15Cは、追跡品質スコアが眼が瞬目を開始した瞬間の約1060msにおいて急降下したことを示す。
上で例証されるように、眼の相対的運動の正確な追跡は、スペックルパターンを追跡することによって達成されることができる。しかし、スペックルパターンは、眼の絶対視線位置を提供しない。本発明のある実施形態によると、眼の初期絶対視線位置は、カメラベースの方法等の別の方法によって決定され得る。初期視線位置が決定された後、スペックル追跡が、初期視線位置に対する眼移動のより正確な追跡のために使用される。同様に、相関が、眼が瞬目されたときに失われると、新しい初期絶対視線位置が、カメラベースの方法によって決定され得る。新しい初期視線位置が確立された後、スペックル追跡は、再開され得る。
図16は、本発明のいくつかの実施形態による、視線追跡の方法1600を図示する簡略化されたフローチャートを図示する。方法1600は、カメラを使用して視線追跡を実施すること(1602)と、開始視線位置が取得されたかどうかを決定すること(1604)とを含む。カメラを使用した視線追跡は、カメラを使用して眼の複数の画像を記録することによって実施され得る。複数の画像のうちの1つは、開始視線位置を決定するために選択され得る。例えば、いくつかの画像は、おそらく眼が瞬目することにより、比較的に不良品質を有し得る。選択された画像に基づいて、開始視線位置が、事前に較正された座標系を使用して決定され得る。例えば、図1に図示されるように、瞳孔の中心の(x、y)座標が、事前に較正された原点に対して決定され得る。
開始視線位置が取得されなかった場合、方法1600は、開始視線位置が取得されるまで、カメラを使用して視線追跡を継続し得る(1602)。開始視線位置が取得されると、方法1600は、スペックルパターンを使用して視線追跡を実施することを開始し得る(1606)。上で議論されるように、スペックルパターンを使用して視線追跡することは、光ビームを眼に向かわせることと、眼から反射された光ビームの一部によって検出器において形成されたスペックルパターンを検出することとによって実施され得る。光ビームは、スペックルパターンが検出され得るように、レーザ等のコヒーレント光源または発光ダイオード(LED)等の部分的にコヒーレントな光源によって生成され得る。眼の移動は、オプティカルフロー方法の位相相関アルゴリズム等のアルゴリズムを使用して、フレーム毎にスペックルパターンを追跡することによって追跡され得る。
ユーザが瞬目する場合、スペックルパターンを使用して眼移動を追跡する能力は、連続的なフレーム間の相関の喪失に起因して失われ得る。故に、方法1600は、瞬目が生じたかどうかと、相関が瞬目の結果として失われたかどうかとを決定すること(1608)をさらに含む。いくつかの実施形態では、相関が失われたかどうかを決定することは、相関ピークの値を計算すること(上で議論されるように)と、相関ピークの値と所定の閾値を比較することとを含み得る。相関ピークの値が、所定の閾値と等しい場合またはより高い場合、相関が失われていないことが決定され得る。逆に言えば、相関ピークの値が、所定の閾値より低い場合、相関が失われたことが決定され得る。
相関が失われていないことが決定される場合、方法1600は、スペックルパターンを追跡することによって、視線追跡を継続し得る(1606)。相関が失われたことが決定される場合、方法1600は、カメラを使用して視線追跡に戻り得る(1602)。カメラ追跡を使用することによって、新しい開始視線位置が取得されると(1604)、方法1600は、スペックルパターンを追跡することによって、視線追跡を再開し得る(1606)。
上で議論されるように、スペックルパターンを使用した視線追跡は、カメラを使用した視線追跡より正確であり得る。いくつかの実施形態では、方法1600は、開始視線位置を決定するための最良カメラフレームを選定し、より良好な正確度のために、カメラフレーム間のスペックル追跡を実施し得る。いくつかの実施形態では、方法1600は、非常に高フレームレート、例えば、10,000fpsでスペックル追跡を実施し、はるかに低いフレームレート、例えば、3fpsでカメラ追跡を実施し得る。
本発明の別の実施形態によると、初期絶対視線位置は、事前に較正されたスペックルパターンを使用することによって取得され得る。眼スペックルパターンは、各個人に固有であり得る。ユーザの視線を追跡する前に、較正プロシージャが、ユーザのために実施され得る。較正プロシージャでは、ユーザの種々の視線位置に対応するスペックルパターンの数が、取得され得る。種々の視線位置は、カメラベースの方法または他の好適な視線追跡方法によって決定され得る。したがって、ユーザに固有のスペックルマップが、取得され、システム内に記憶され得る。スペックルマップは、複数の事前に較正されたスペックルパターンと、その対応する視線位置とを含み得る。
図17は、本発明のある実施形態による、視線追跡の方法1700を図示する簡略化されたフローチャートを図示する。方法1700は、ユーザのための事前に較正されたスペックルマップを使用して、視線追跡を実施すること(1702)と、開始視線位置が取得されたかどうかを決定すること(1704)とを含む。上で議論されるように、スペックルマップは、複数の事前に較正されたスペックルパターンと、それらの対応する視線位置とを含み得る。複数の初期スペックルパターンは、光ビームを眼に向かわせることと、眼に隣接して位置付けられた検出器における複数の初期スペックルパターンを検出することとによって取得され得る。光ビームは、スペックルパターンが検出され得るように、レーザ等のコヒーレント光源または発光ダイオード(LED)等の部分的にコヒーレントな光源によって生成され得る。複数の初期スペックルパターンは、スペックルマップ内の事前に較正されたスペックルパターンと比較され、初期視線位置を決定し得る。例えば、複数の初期スペックルパターンのうちの1つが、ユーザのためのスペックルマップ内に記憶されるスペックルパターンに合致することが決定され得る。次いで、合致するスペックルパターンに対する対応する視線位置が、開始視線位置として使用され得る。
開始位置が取得された場合、方法1700は、スペックルマップを使用して、視線追跡を継続し得る(1702)。開始位置が取得されると、システムは、スペックルパターンを追跡することによって、開始視線位置に対して視線を追跡することを開始し得る(1706)。眼の移動は、オプティカルフロー方法の位相相関アルゴリズム等のアルゴリズムを使用して、フレーム毎にスペックルパターンを追跡することによって追跡され得る。
方法1700は、図16に関連して上で議論される方法1600と同様に、瞬目が生じたかどうか(1708)と、相関が瞬目の結果として失われたかどうか(1708)とを決定することをさらに含む。相関が失われていないことが決定される場合、方法1700は、スペックル追跡を継続し得る(1706)。相関が失われたことが決定される場合、方法1700は、ステップ1702に戻り、スペックルマップを使用して視線追跡を実施し得る(1702)。新しい開始位置が取得されると(1704)、方法1700は、スペックル追跡を再開し得る(1706)。いくつかの実施形態では、方法1700は、非常に高フレームレート、例えば、10,000fpsでスペックル追跡を実施し、はるかに低いフレームレート、例えば、3fpsでスペックルマップを使用して追跡を実施し得る。
図18は、本発明のある実施形態による、ユーザの眼の移動を追跡する方法1800を図示する簡略化されたフローチャートである。方法1800は、光ビームを眼に向かわせること(1802)を含む。光ビームは、スペックルパターンが検出され得るように、レーザ等のコヒーレント光源または発光ダイオード(LED)等の部分的にコヒーレントな光源によって生成され得る。眼は、光ビームの一部を反射し得る。眼によって反射された光ビームの一部は、眼によって拡散または鏡面反射され得る。方法1800は、眼によって反射された光ビームの一部によって検出器において形成された複数のスペックルパターンを検出すること(1804)をさらに含む。複数のスペックルパターンは、所定のフレームレートで検出される。方法1800は、フレーム毎に複数のスペックルパターンを追跡することによって、眼の移動を追跡すること(1806)をさらに含む。いくつかの実施形態では、所定のフレームレートは、約5,000フレーム/秒より大きく、約15,000フレーム/秒より小さい。一実施形態では、所定のフレームレートは、約10,000フレーム/秒である。いくつかの他の実施形態では、所定のフレームレートは、約50フレーム/秒より大きく、約15,000フレーム/秒より小さい。いくつかの実施形態では、複数のスペックルパターンを追跡することは、オプティカルフローアルゴリズムを使用して実施される。一実施形態では、オプティカルフローアルゴリズムは、位相相関法を使用する。
図19は、本発明のある実施形態による、ユーザの眼の視線を追跡する方法1900を図示する簡略化されたフローチャートである。方法1900は、眼の第1の複数の画像をカメラを使用して第1のフレームレートで記録すること(1902)と、眼の第1の複数の画像に基づいて、眼の開始位置を決定すること(1904)とを含む。いくつかの実施形態では、第1の複数の画像のうちの1つが、眼の開始位置を決定するために選択され得る。選択された画像に基づいて、眼の開始位置が、事前に較正された座標系を使用して決定され得る。例えば、図1に図示されるように、瞳孔の中心の(x、y)座標が、事前に較正された原点に対して決定され得る。
方法1900は、光ビームを眼に向かわせること(1906)をさらに含み得る。光ビームは、レーザ等のコヒーレント光源または発光ダイオード(LED)等の部分的にコヒーレントな光源によって生成され得る。眼は、光ビームの一部を反射し得る。眼によって反射された光ビームの一部は、眼によって拡散または鏡面反射され得る。方法1900は、眼によって反射された光ビームの一部によって検出器において形成された第1の複数のスペックルパターンを検出すること(1908)と、フレーム毎に第1の複数のスペックルパターンを追跡することによって、開始位置に対する眼の移動を追跡すること(1910)とをさらに含み得る。いくつかの実施形態では、複数のスペックルパターンは、第1のフレームレートより大きい第2のフレームレートで検出される。いくつかの実施形態では、第1のフレームレートは、約10fpsより小さく、第2のフレームレートは、約50fpsより大きく、約15,000fpsより小さい。一実施形態では、第1のフレームレートは、約3フレーム/秒であり、第2のフレームレートは、約10,000フレーム/秒である。
いくつかの実施形態では、方法1900は、眼が瞬目したことを決定すること(1920)をさらに含み得る。例えば、図16および17に関連して上で議論されるように、追跡品質スコアに基づいて、眼が瞬目したかどうかが決定され得る。方法1900は、ステップ1902に戻り、眼が瞬目したことの決定に応答して、新しい開始位置を決定し得る。例えば、方法1900は、眼の第2の複数の画像をカメラを使用して記録することと、眼の第2の複数の画像に基づいて、新しい開始位置を決定することとによって、新しい開始位置を決定することと、検出器において形成された第2の複数のスペックルパターンを第2のフレームレートで検出することと、フレーム毎に第2の複数のスペックルパターンを追跡することとによって、新しい開始位置に対する眼の移動を追跡することとを含み得る。眼が瞬目されていないことが決定される場合、方法1900は、ステップ1908および1910を継続し得る。
図20は、本発明のいくつかの実施形態による、ユーザの眼の視線を追跡する方法2000を図示する簡略化されたフローチャートである。方法2000は、下記の図21-23にさらに関連して説明されるように、ユーザの眼の事前に較正されたスペックルマップを取得すること(2010)と、事前に較正されたスペックルマップを使用して眼の開始位置を決定すること(2020)と、開始位置に対する眼の移動を追跡すること(2030)とを含み得る。
図21は、本発明のある実施形態による、ユーザの眼の事前に較正されたスペックルマップを取得する方法2010を図示する簡略化されたフローチャートである。方法2010は、第1の光ビームを眼に向かわせること(2011)を含む。第1の光ビームは、レーザ等のコヒーレント光源または発光ダイオード(LED)等の部分的にコヒーレントな光源によって生成され得る。眼は、第1の光ビームの一部を反射し得る。方法2010は、眼によって反射された第1の光ビームの一部によって検出器において形成された複数の第1のスペックルパターンを検出すること(2012)をさらに含む。複数の第1のスペックルパターンの各々は、眼のそれぞれの第1の位置に対応する。方法2010は、カメラを使用して眼の複数の画像を記録すること(2013)をさらに含む。眼の複数の画像の各々は、それぞれの第1のスペックルパターンが検出されると記録される。方法2010は、眼のそれぞれの画像に基づいて、各それぞれの第1のスペックルパターンに対応する眼のそれぞれの第1の位置を決定すること(2014)と、複数の第1のスペックルパターンおよび眼の対応する第1の位置を記憶すること(2015)とをさらに含む。
図22は、本発明のある実施形態による、事前に較正されたスペックルマップを使用して眼の開始位置を決定する方法2020を図示する簡略化されたフローチャートである。方法2020は、第2の光ビームを眼に向かわせること(2021)を含む。第2の光ビームは、レーザ等のコヒーレント光源または発光ダイオード(LED)等の部分的にコヒーレントな光源によって生成され得る。眼は、第2の光ビームの一部を反射し得る。方法2020は、眼によって反射された第2の光ビームの一部によって検出器において形成された複数の第2のスペックルパターンを検出すること(2022)と、複数の第2のスペックルパターンと記憶された複数の第1のスペックルパターンおよび眼の記憶された対応する第1の位置との間の比較に基づいて、眼の開始位置を決定すること(2023)とをさらに含む。
図23は、本発明のある実施形態による、開始位置に対する眼の移動を追跡する方法2030を図示する簡略化されたフローチャートである。方法2030は、第3の光ビームを眼に向かわせること(2031)を含む。第3の光ビームは、レーザ等のコヒーレント光源または発光ダイオード(LED)等の部分的にコヒーレントな光源によって生成され得る。眼は、第3の光ビームの一部を反射し得る。方法2030は、眼によって反射された第3の光ビームの一部によって検出器において形成された複数の第3のスペックルパターンを検出すること(2032)をさらに含む。複数の第3のスペックルパターンは、所定のフレームレートで検出される。方法2030は、フレーム毎に第3の複数のスペックルパターンを追跡することによって、開始位置に対する眼の移動を追跡することをさらに含む。
上で議論されるように、眼スペックルパターンは、各個人に固有であり得る。したがって、眼スペックルパターンは、ユーザ識別のために使用されることができる。図24は、本発明のある実施形態による、ユーザの識別の方法2400を図示する簡略化されたフローチャートである。方法2400は、第1の光ビームを第1の眼に向かわせること(2402)を含む。第1の光ビームは、レーザ等のコヒーレント光源または発光ダイオード(LED)等の部分的にコヒーレントな光源によって生成され得る。第1の眼は、第1の光ビームの一部を反射し得る。方法2400は、第1の眼によって反射された第1の光ビームの一部によって検出器において形成された複数の第1のスペックルパターンを検出すること(2404)をさらに含む。複数の第1のスペックルパターンの各々は、第1の眼のそれぞれの第1の位置に対応する。方法2400は、カメラを使用して第1の眼の複数の画像を記録すること(2406)をさらに含む。第1の眼の複数の画像の各々は、それぞれの第1のスペックルパターンが検出されると記録される。方法2400は、第1の眼のそれぞれの画像に基づいて、各それぞれの第1のスペックルパターンに対応する第1の眼のそれぞれの第1の位置を決定すること(2408)と、複数の第1のスペックルパターンおよび第1の眼の対応する第1の位置を記憶すること(2410)とをさらに含む。方法2400は、第2の光ビームをユーザの眼に向かわせること(2412)をさらに含む。第2の光ビームは、レーザ等のコヒーレント光源または発光ダイオード(LED)等の部分的にコヒーレントな光源によって生成され得る。眼は、第2の光ビームの一部を反射し得る。方法2400は、眼によって反射された第2の光ビームの一部によって検出器において形成された複数の第2のスペックルパターンを検出すること(2414)をさらに含む。複数の第2のスペックルパターンの各々は、眼のそれぞれの第2の位置に対応する。方法2400は、複数の第2のスペックルパターンを複数の第1のスペックルパターンと比較することによって、ユーザが第1のユーザであることを決定すること(2416)をさらに含む。
図16-24の各々に図示される具体的ステップは、本発明のある実施形態による特定の方法を提供することを理解されたい。ステップの他のシーケンスも、代替実施形態に従って実施され得る。例えば、本発明の代替実施形態は、異なる順序で上で概略されたステップを実施し得る。さらに、図16-24に図示される個々のステップは、個々のステップの必要に応じて種々のシーケンスで実施され得る複数のサブステップを含み得る。さらに、追加のステップが、特定の用途に応じて追加または除去され得る。当業者は、多くの変形例、修正、および代替を認識するであろう。
本明細書に説明される実施例および実施形態が、例証的目的のためだけのものであり、種々の修正または変更が、それに照らして、当業者に示唆され、本願の精神および範疇ならびに添付の請求項の範囲内に含まれるべきであることも理解されたい。

Claims (7)

  1. ユーザの眼の視線を追跡する方法であって、前記方法は、
    前記ユーザの前記眼の事前に較正されたスペックルマップを取得することであって、前記ユーザの前記眼の事前に較正されたスペックルマップを取得することは、
    第1の光ビームを前記眼に向かわせることであって、前記眼は、前記第1の光ビームの一部を反射する、ことと、
    前記眼によって反射された前記第1の光ビームの前記一部によって検出器において形成された複数の第1のスペックルパターンを検出することであって、前記複数の第1のスペックルパターンのそれぞれは、前記眼のそれぞれの第1の位置に対応する、ことと、
    カメラを使用して、前記眼の複数の画像を記録することであって、前記眼の前記複数の画像のそれぞれは、それぞれの第1のスペックルパターンが検出されるときに記録される、ことと、
    前記眼の前記それぞれの画像に基づいて、各それぞれの第1のスペックルパターンに対応する前記眼の前記それぞれの第1の位置を決定することと、
    前記複数の第1のスペックルパターンと、前記眼の複数の対応する第1の位置とを記憶することと
    によって行われる、ことと、
    前記事前に較正されたスペックルマップを使用して前記眼の開始位置を決定することであって、前記事前に較正されたスペックルマップを使用して前記眼の開始位置を決定することは、
    第2の光ビームを前記眼に向かわせることであって、前記眼は、前記第2の光ビームの一部を反射する、ことと、
    前記眼によって反射された前記第2の光ビームの前記一部によって前記検出器において形成された複数の第2のスペックルパターンを検出することと、
    前記複数の第2のスペックルパターンと、前記記憶された複数の第1のスペックルパターンおよび前記眼の前記記憶された複数の対応する第1の位置との間の比較に基づいて、前記眼の前記開始位置を決定することと
    によって行われる、ことと、
    前記開始位置に対する前記眼の移動を追跡することであって、前記開始位置に対する前記眼の移動を追跡することは、
    第3の光ビームを前記眼に向かわせることであって、前記眼は、前記第3の光ビームの一部を反射する、ことと、
    前記眼によって反射された前記第3の光ビームの前記一部によって前記検出器において形成された複数の第3のスペックルパターンを検出することであって、前記複数の第3のスペックルパターンは、所定のフレームレートで検出される、ことと、
    前記複数の第3のスペックルパターンをフレームごとに追跡することによって、前記開始位置に対する前記眼の移動を追跡することと
    によって行われる、ことと
    を含む、方法。
  2. 前記眼によって反射された前記第1の光ビームの前記一部および前記眼によって反射された前記第2の光ビームの前記一部および前記眼によって反射された前記第3の光ビームの前記一部のそれぞれは、前記眼によって拡散反射または鏡面反射される、請求項1に記載の方法。
  3. 前記複数の第3のスペックルパターンを追跡することは、オプティカルフローアルゴリズムを使用して実施される、請求項1に記載の方法。
  4. 前記オプティカルフローアルゴリズムは、位相相関アルゴリズムを含む、請求項3に記載の方法。
  5. 前記所定のフレームレートは、50フレーム/秒より大きく、15,000フレーム/秒より小さい、請求項1に記載の方法。
  6. 前記方法は、
    前記眼が瞬目したことを決定することと、
    前記眼の新しい開始位置を決定することであって、前記眼の新しい開始位置を決定することは、
    第4の光ビームを前記眼に向かわせることであって、前記眼は、前記第4の光ビームの一部を反射する、ことと、
    前記眼によって反射された前記第4の光ビームの前記一部によって前記検出器において形成された複数の第4のスペックルパターンを検出することと、
    前記複数の第4のスペックルパターンと、前記記憶された複数の第1のスペックルパターンおよび前記眼の前記記憶された複数の対応する第1の位置との間の比較に基づいて、前記眼の前記新しい開始位置を決定することと
    によって行われる、ことと、
    前記新しい開始位置に対する前記眼の移動を追跡することであって、前記新しい開始位置に対する前記眼の移動を追跡することは、
    第5の光ビームを前記眼に向かわせることであって、前記眼は、前記第5の光ビームの一部を反射する、ことと、
    前記眼によって反射された前記第5の光ビームの前記一部によって前記検出器において形成された複数の第5のスペックルパターンを検出することであって、前記複数の第5のスペックルパターンは、前記所定のフレームレートで検出される、ことと、
    前記複数の第5のスペックルパターンをフレームごとに追跡することによって、前記新しい開始位置に対する前記眼の移動を追跡することと
    によって行われる、ことと
    をさらに含む、請求項1に記載の方法。
  7. 前記第1の光ビームおよび前記第2の光ビームおよび前記第3の光ビームのそれぞれは、赤外線放射を含む、請求項1に記載の方法。
JP2022002426A 2016-11-10 2022-01-11 スペックルパターンを使用した眼追跡のための方法およびシステム Active JP7186906B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201662420292P 2016-11-10 2016-11-10
US62/420,292 2016-11-10
PCT/US2017/060303 WO2018089329A1 (en) 2016-11-10 2017-11-07 Method and system for eye tracking using speckle patterns
JP2019524195A JP7008702B2 (ja) 2016-11-10 2017-11-07 スペックルパターンを使用した眼追跡のための方法およびシステム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019524195A Division JP7008702B2 (ja) 2016-11-10 2017-11-07 スペックルパターンを使用した眼追跡のための方法およびシステム

Publications (2)

Publication Number Publication Date
JP2022058561A JP2022058561A (ja) 2022-04-12
JP7186906B2 true JP7186906B2 (ja) 2022-12-09

Family

ID=62064441

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019524195A Active JP7008702B2 (ja) 2016-11-10 2017-11-07 スペックルパターンを使用した眼追跡のための方法およびシステム
JP2022002426A Active JP7186906B2 (ja) 2016-11-10 2022-01-11 スペックルパターンを使用した眼追跡のための方法およびシステム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019524195A Active JP7008702B2 (ja) 2016-11-10 2017-11-07 スペックルパターンを使用した眼追跡のための方法およびシステム

Country Status (9)

Country Link
US (2) US10948981B2 (ja)
EP (1) EP3537950A4 (ja)
JP (2) JP7008702B2 (ja)
KR (1) KR102555925B1 (ja)
CN (1) CN109922710B (ja)
AU (1) AU2017356886A1 (ja)
CA (1) CA3042263A1 (ja)
IL (1) IL266390B (ja)
WO (1) WO2018089329A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10948981B2 (en) 2016-11-10 2021-03-16 Magic Leap, Inc. Method and system for eye tracking using speckle patterns
JP7096836B2 (ja) 2017-03-22 2022-07-06 マジック リープ, インコーポレイテッド ディスプレイシステムのための深度ベース中心窩化レンダリング
AU2018257776A1 (en) * 2017-04-24 2019-10-31 Magic Leap, Inc. Tracking optical flow of backscattered laser speckle patterns
EP3765943A4 (en) 2018-03-16 2021-12-22 Magic Leap, Inc. DEPTH-BASED FOVEA REPRESENTATION FOR DISPLAY SYSTEMS
US10884492B2 (en) * 2018-07-20 2021-01-05 Avegant Corp. Relative position based eye-tracking system
CN110022321A (zh) * 2019-04-09 2019-07-16 李丰 一种基于虚拟现实的vr建筑检测方法及vr设备
CN110471532B (zh) * 2019-08-19 2023-04-18 业成科技(成都)有限公司 整合眼球追踪与手势操控之车载装置
KR20210136623A (ko) * 2020-05-08 2021-11-17 한국전자통신연구원 시선 추적 장치 및 방법
DE102020206822A1 (de) * 2020-06-02 2021-12-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Betreiben einer Datenbrille
DE102022202208A1 (de) 2022-03-04 2023-09-07 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zu einer Pupillendetektion und/oder Pupillenverfolgung, optisches System und Datenbrille
CN115760750B (zh) * 2022-11-15 2023-11-21 北京的卢铭视科技有限公司 Doe质量检测方法、系统、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150289762A1 (en) 2012-05-11 2015-10-15 Milan Momcilo Popovich Apparatus for eye tracking
US20160209657A1 (en) 2013-05-20 2016-07-21 Digilens, Inc. Holographic waveguide eye tracker

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9713658D0 (en) * 1997-06-28 1997-09-03 Travis Adrian R L View-sequential holographic display
JP3851050B2 (ja) * 2000-02-15 2006-11-29 ナイルス株式会社 眼の状態検出装置
ES2605367T3 (es) * 2006-01-26 2017-03-14 Nokia Technologies Oy Dispositivo de seguimiento ocular
IL184868A0 (en) * 2007-07-26 2008-03-20 Univ Bar Ilan Motion detection system and method
WO2010014977A1 (en) * 2008-08-01 2010-02-04 The Trustees Of Columbia University In The City Of New York Systems and methods for matching and imaging tissue characteristics
US7736000B2 (en) * 2008-08-27 2010-06-15 Locarna Systems, Inc. Method and apparatus for tracking eye movement
US9237844B2 (en) * 2010-03-22 2016-01-19 Koninklijke Philips N.V. System and method for tracking the point of gaze of an observer
ES2898981T3 (es) * 2012-08-09 2022-03-09 Tobii Ab Activación rápida en un sistema de seguimiento de la mirada
US10262462B2 (en) * 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
JP2015011579A (ja) 2013-06-28 2015-01-19 株式会社東芝 視線検出装置、及び視線検出方法
CN107219628B (zh) * 2013-11-27 2020-05-01 奇跃公司 虚拟和增强现实系统与方法
CN106028911A (zh) * 2014-03-04 2016-10-12 南加利福尼亚大学 具有延长的持续时间的光学相干断层扫描(oct)系统
WO2016046514A1 (en) * 2014-09-26 2016-03-31 LOKOVIC, Kimberly, Sun Holographic waveguide opticaltracker
US9911046B1 (en) * 2014-11-13 2018-03-06 The United States Of America, As Represented By The Secretary Of The Navy Method and apparatus for computer vision analysis of spin rate of marked projectiles
DK179537B1 (en) * 2015-02-04 2019-02-08 Itu Business Development A/S Tin traces and eye tracking methods
JP2019506017A (ja) * 2015-11-06 2019-02-28 フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc オプティカル・フローを用いる眼球追跡
US10948981B2 (en) 2016-11-10 2021-03-16 Magic Leap, Inc. Method and system for eye tracking using speckle patterns

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150289762A1 (en) 2012-05-11 2015-10-15 Milan Momcilo Popovich Apparatus for eye tracking
US20160209657A1 (en) 2013-05-20 2016-07-21 Digilens, Inc. Holographic waveguide eye tracker

Also Published As

Publication number Publication date
IL266390A (en) 2019-06-30
IL266390B (en) 2022-04-01
CN109922710A (zh) 2019-06-21
JP2022058561A (ja) 2022-04-12
CA3042263A1 (en) 2018-05-17
KR102555925B1 (ko) 2023-07-13
EP3537950A1 (en) 2019-09-18
US10948981B2 (en) 2021-03-16
US20210232221A1 (en) 2021-07-29
US20180129282A1 (en) 2018-05-10
WO2018089329A1 (en) 2018-05-17
EP3537950A4 (en) 2019-10-30
JP7008702B2 (ja) 2022-02-10
US11237631B2 (en) 2022-02-01
JP2020516326A (ja) 2020-06-11
KR20190079667A (ko) 2019-07-05
CN109922710B (zh) 2022-05-13
AU2017356886A1 (en) 2019-05-02

Similar Documents

Publication Publication Date Title
JP7186906B2 (ja) スペックルパターンを使用した眼追跡のための方法およびシステム
JP6902075B2 (ja) 構造化光を用いた視線追跡
JP6690041B2 (ja) 三次元物体上の注視点決定方法及び装置
US9070017B2 (en) Methods and apparatus for estimating point-of-gaze in three dimensions
US6659611B2 (en) System and method for eye gaze tracking using corneal image mapping
CN109558012B (zh) 一种眼球追踪方法及装置
US9311527B1 (en) Real time eye tracking for human computer interaction
US8032842B2 (en) System and method for three-dimensional interaction based on gaze and system and method for tracking three-dimensional gaze
WO2016027627A1 (ja) 角膜反射位置推定システム、角膜反射位置推定方法、角膜反射位置推定プログラム、瞳孔検出システム、瞳孔検出方法、瞳孔検出プログラム、視線検出システム、視線検出方法、視線検出プログラム、顔姿勢検出システム、顔姿勢検出方法、および顔姿勢検出プログラム
EP3542308B1 (en) Method and device for eye metric acquisition
CN108537103B (zh) 基于瞳孔轴测量的活体人脸检测方法及其设备
WO2022214737A1 (en) Gaze-tracking system and method employing selective glints
Narcizo et al. Remote eye tracking systems: technologies and applications
JP7246044B2 (ja) 視標視認判定システム及び視野検査装置
NZ793781A (en) Method and system for eye tracking using speckle patterns
Kowalik Do-it-yourself eye tracker: impact of the viewing angle on the eye tracking accuracy
Lee et al. Automated enabling of head mounted display using gaze-depth estimation
Kowalik Do-It-Yourself Eye Tracker: How Wide Viewing Angle Should the Eye Tracking Cover?

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221129

R150 Certificate of patent or registration of utility model

Ref document number: 7186906

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150