JP6918781B2 - 眼ポーズ測定を用いた眼瞼形状推定 - Google Patents

眼ポーズ測定を用いた眼瞼形状推定 Download PDF

Info

Publication number
JP6918781B2
JP6918781B2 JP2018509551A JP2018509551A JP6918781B2 JP 6918781 B2 JP6918781 B2 JP 6918781B2 JP 2018509551 A JP2018509551 A JP 2018509551A JP 2018509551 A JP2018509551 A JP 2018509551A JP 6918781 B2 JP6918781 B2 JP 6918781B2
Authority
JP
Japan
Prior art keywords
eye
eyelid
pose
eyelid shape
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018509551A
Other languages
English (en)
Other versions
JP2018523879A (ja
JP2018523879A5 (ja
Inventor
エイドリアン ケーラー,
エイドリアン ケーラー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2018523879A publication Critical patent/JP2018523879A/ja
Publication of JP2018523879A5 publication Critical patent/JP2018523879A5/ja
Priority to JP2021120383A priority Critical patent/JP7231676B2/ja
Application granted granted Critical
Publication of JP6918781B2 publication Critical patent/JP6918781B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Description

(関連出願の引用)
本願は、米国仮出願第62/208,519号(2015年8月21日出願、名称「EYELID SHAPE ESTIMATION USING EYE POSE MEASUREMENT」)の米国特許法§119(e)に基づく利益を主張し、上記出願は、その全体が参照により本明細書に引用される。
(分野)
本開示は、概して、眼画像を処理するためのシステムおよび方法、より具体的には、眼ポーズ測定を使用して眼瞼形状を推定するためのシステムおよび方法に関する。
人間の虹彩は、バイオメトリック情報の源として使用されることができる。バイオメトリック情報は、個人の認証または識別を提供することができる。広くバイオメトリックテンプレートと呼ばれる、バイオメトリック情報を抽出するプロセスは、典型的には、多くの課題を有する。
一側面では、眼瞼形状推定のための方法が、開示される。方法は、ハードウェアプロセッサの制御下で実施され、エッジ検出器を使用して眼の瞳孔境界を検出することと、瞳孔境界を使用して、眼の眼ポーズを決定することであって、眼ポーズの眼ポーズ座標系は、眼の静止向きに対する眼の方位角および天頂角を備え、眼ポーズ座標系と眼瞼形状座標系との間の関数関係は、マッピング行列を備え、眼瞼形状座標系は、眼の水平シフト、垂直シフト、および曲率を備えている、ことと、少なくとも部分的に、眼ポーズおよび関数関係に基づいて、眼の眼瞼形状を推定することと、眼瞼形状に基づいて、眼の眼瞼形状の放物曲線を適合させることとを含む。代替として、別の側面では、この分析は、逆の順序において適用され、眼瞼位置の決定で始まり、虹彩場所、瞳孔場所、または眼ポーズを推定し得る。別の側面では、眼瞼形状推定のための方法は、ヘッドマウントディスプレイシステムによって実施されることができる。
別の側面では、ヘッドマウントディスプレイシステムが、開示される。ヘッドマウントディスプレイシステムは、眼画像を捕捉するように構成されている画像捕捉デバイスと、眼瞼形状マッピングモデルを記憶するように構成されている非一過性メモリと、非一過性メモリと通信しているハードウェアプロセッサとを備え、ハードウェアプロセッサは、画像捕捉デバイスから眼画像を受信することと、眼画像内の眼の眼ポーズを決定することと、少なくとも部分的に、眼ポーズおよび眼瞼形状マッピングモデルに基づいて、眼の眼瞼形状を推定することとを行うようにプログラムされ、眼瞼形状マッピングモデルは、眼瞼形状と眼ポーズとを関連付ける。
また別の側面では、眼画像から眼瞼形状を推定する方法が、開示される。方法は、ハードウェアプロセッサの制御下で実施され、眼画像内の眼の眼ポーズを決定することと、眼ポーズに基づいて、眼瞼形状を推定することとを含む。
さらなる側面では、眼瞼形状推定のための眼瞼形状マッピングモデルを訓練する方法が、開示される。方法は、ハードウェアプロセッサの制御下で、眼瞼形状を眼ポーズに関連付ける訓練データにアクセスすることと、訓練データに基づいて眼瞼形状マッピングモデルを訓練することと、訓練された眼瞼形状マッピングモデルを出力することとを含む。
別の側面では、眼画像を処理する方法が、開示される。方法は、ハードウェアプロセッサの制御下で実施され、エッジ検出器を使用して、眼の眼瞼と眼の虹彩との間の境界を検出することと、眼の眼瞼と眼の虹彩との間の境界を使用して、眼の眼瞼形状を決定することであって、眼瞼形状の眼瞼形状座標系は、眼の水平シフト、垂直シフト、および曲率を備え、眼瞼形状座標系と眼ポーズ形状座標系との間の関数関係は、マッピング行列を備え、眼ポーズ座標系は、眼の静止向きに対する眼の方位偏向角および天頂偏向角を備えている、ことと、少なくとも部分的に、眼瞼形状および関数関係に基づいて、眼の眼ポーズを推定することとを含む。
また別の側面では、ヘッドマウントディスプレイシステムが、開示される。ヘッドマウントディスプレイシステムは、眼画像を捕捉するように構成されている画像捕捉デバイスと、眼ポーズマッピングモデルを記憶するように構成されている非一過性メモリと、非一過性メモリと通信しているハードウェアプロセッサとを備え、ハードウェアプロセッサは、画像捕捉デバイスから眼画像を受信することと、眼画像内の眼の眼瞼形状を決定することと、少なくとも部分的に、眼瞼形状および眼ポーズマッピングモデルに基づいて、眼の眼ポーズを推定することとを行うようにプログラムされ、眼瞼形状マッピングモデルは、眼瞼形状を眼ポーズに関連付ける。
さらなる側面では、眼瞼形状から眼ポーズを推定する方法が、開示される。方法は、ハードウェアプロセッサの制御下で実施され、眼画像内の眼の眼瞼形状を決定することと、少なくとも部分的に、眼瞼形状に基づいて、眼ポーズを推定することとを含む。
別の側面では、眼瞼形状から眼ポーズを推定するために眼ポーズマッピングモデルを訓練する方法が、開示される。方法は、ハードウェアプロセッサの制御下で、眼瞼形状を眼ポーズに関連付ける訓練データにアクセスすることと、訓練データに基づいて眼ポーズマッピングモデルを訓練することと、訓練された眼ポーズマッピングモデルを出力することとを含む。
本明細書に説明される主題の1つ以上の実装の詳細が、付随の図面および以下の説明に記載される。他の特徴、側面、および利点が、説明、図面、および請求項から明白となるであろう。本発明の概要または以下の発明を実施するための形態のいずれも、本発明の主題の範囲を定義もしくは限定することを意味しない。
本発明は、例えば、以下を提供する。
(項目1)
眼瞼形状推定のための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
エッジ検出器を使用して眼の瞳孔境界を検出することと、
前記瞳孔境界を使用して前記眼の眼ポーズを決定することであって、
前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備え、
前記眼ポーズ座標系と眼瞼形状座標系との間の関数関係は、マッピング行列を備え、
前記眼瞼形状座標系は、前記眼の水平シフト、垂直シフト、および曲率を備えている、
ことと、
前記眼ポーズと前記関数関係とに少なくとも部分的に基づいて、前記眼の眼瞼形状を推定することと、
前記眼瞼形状に基づいて、前記眼の眼瞼形状の放物曲線を適合させることと
を含む、方法。
(項目2)
前記放物曲線を適合させることは、前記放物曲線の曲率が正であり、かつ前記眼瞼が前記眼の上眼瞼である場合、または、前記放物曲線の曲率が負であり、かつ前記眼瞼が下眼瞼である場合、前記眼瞼形状に基づいて、前記眼の眼瞼の新しい放物曲線を適合させることを含む、項目1に記載の方法。
(項目3)
前記エッジ検出器を使用して前記眼の瞳孔境界を検出することに先立って、眼画像にモルフォロジカルフィルタを適用することをさらに含む、項目1に記載の方法。
(項目4)
前記エッジ検出器は、Cannyエッジ検出器を備えている、項目1に記載の方法。
(項目5)
前記マッピング行列は、眼瞼形状および眼ポーズの回帰分析によって決定される、項目1に記載の方法。
(項目6)
項目1−5のうちのいずれか1項に記載の方法を実施するようにプログラムされているハードウェアプロセッサ。
(項目7)
眼瞼形状推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
項目6に記載のハードウェアプロセッサと、
前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像捕捉デバイスと
を備えている、装着可能ディスプレイシステム。
(項目8)
前記ハードウェアプロセッサは、前記眼のバイオメトリック情報を決定するようにさらにプログラムされている、項目7に記載の装着可能ディスプレイシステム。
(項目9)
ヘッドマウントディスプレイシステムであって、前記ヘッドマウントディスプレイシステムは、
眼画像を捕捉するように構成されている画像捕捉デバイスと、
眼瞼形状マッピングモデルを記憶するように構成されている非一過性メモリと、
前記非一過性メモリと通信しているハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記画像捕捉デバイスから前記眼画像を受信することと、
前記眼画像内の眼の眼ポーズを決定することと、
前記眼ポーズと前記眼瞼形状マッピングモデルとに少なくとも部分的に基づいて、前記眼の眼瞼形状を推定することと
を行うようにプログラムされており、
前記眼瞼形状マッピングモデルは、前記眼瞼形状を前記眼ポーズに関連付ける、ヘッドマウントディスプレイシステム。
(項目10)
前記眼ポーズは、前記眼の静止向きに対する前記眼の方位角および天頂角の測定値を備えている、項目9に記載のヘッドマウントディスプレイシステム。
(項目11)
前記眼瞼形状は、前記眼の水平シフト、垂直シフト、および曲率の決定を備えている、項目9−10のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
(項目12)
前記眼瞼形状マッピングモデルは、前記眼ポーズと前記眼瞼形状との間のパラメトリック関係を備えている、項目9−11のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
(項目13)
前記パラメトリック関係は、放物線または多項式を備えている、項目12に記載のヘッドマウントディスプレイシステム。
(項目14)
前記眼瞼形状マッピングモデルは、ニューラルネットワークを備えている、項目9−11のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
(項目15)
前記ハードウェアプロセッサは、前記眼瞼形状を使用して前記眼のバイオメトリックデータを決定するようにさらにプログラムされている、項目9−14のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
(項目16)
眼瞼形状推定のための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
眼画像内の眼の眼ポーズを決定することと、
前記眼ポーズに基づいて、眼瞼形状を推定することと
を含む、方法。
(項目17)
前記眼ポーズは、前記眼の静止向きからの前記眼の少なくとも2つの角度偏差を備えている、項目16に記載の方法。
(項目18)
前記眼瞼形状を推定することは、眼瞼形状マッピングモデルを前記眼ポーズに適用することを含む、項目16に記載の方法。
(項目19)
前記眼瞼形状マッピングモデルは、前記眼ポーズと前記眼瞼形状との間のパラメトリック関係を備えている、項目18に記載の方法。
(項目20)
前記眼瞼形状は、多項式によって表される、項目19に記載の方法。
(項目21)
前記眼瞼形状マッピングモデルは、ニューラルネットワークを備えている、項目20に記載の方法。
(項目22)
前記眼瞼形状に基づいて前記眼ポーズを再決定することと、
前記決定された眼ポーズと前記再決定された眼ポーズとの一致を検証することと
をさらに含む、項目16に記載の方法。
(項目23)
項目16−22のうちのいずれか1項に記載の方法を実施するようにプログラムされているハードウェアプロセッサ。
(項目24)
眼瞼形状推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
項目23に記載のハードウェアプロセッサと、
前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像デバイスと
を備えている、装着可能ディスプレイシステム。
(項目25)
眼瞼形状推定のための眼瞼形状マッピングモデルを訓練する方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
眼瞼形状を眼ポーズに関連付ける訓練データにアクセスすることと、
前記訓練データに基づいて眼瞼形状マッピングモデルを訓練することと、
前記訓練された眼瞼形状マッピングモデルを出力することと
含む、方法。
(項目26)
複数の方向に向いている眼の複数の画像を備えている眼画像データを取得することと、
前記訓練データを決定するために、前記眼画像データを分析することと、
をさらに含む、項目25に記載の方法。
(項目27)
前記眼画像データを分析することは、右眼の水平に反射された鏡像および左眼の画像、または、左眼の水平に反射された鏡像および右眼の画像を備えている眼画像データを生成することを含む、項目26に記載の方法。
(項目28)
前記訓練データに基づいて前記眼瞼形状マッピングモデルを訓練することは、統計モデルまたはニューラルネットワークを前記訓練データに適用することを含む、項目26に記載の方法。
(項目29)
眼ポーズ推定のための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
エッジ検出器を使用して、眼の眼瞼と前記眼の虹彩との間の境界を検出することと、
前記眼の眼瞼と前記眼の虹彩との間の前記境界を使用して、前記眼の眼瞼形状を決定することであって、
前記眼瞼形状の眼瞼形状座標系は、前記眼の水平シフト、垂直シフト、および曲率を備え、
前記眼瞼形状座標系と眼ポーズ形状座標系との間の関数関係は、マッピング行列を備え、
前記眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位偏向角および天頂偏向角を備えている
ことと、
前記眼瞼形状と前記関数関係とに少なくとも部分的に基づいて、前記眼の眼ポーズを推定することと
を含む、方法。
(項目30)
前記眼の眼瞼形状を決定することは、放物曲線を前記眼の眼瞼と前記眼の虹彩との間の前記境界に適合させることを含む、項目29に記載の方法。
(項目31)
前記エッジ検出器を使用して前記眼の眼瞼と前記眼の虹彩との間の前記境界を検出することに先立って、眼画像にモルフォロジカルフィルタを適用することをさらに含む、項目29に記載の方法。
(項目32)
前記エッジ検出器は、Cannyエッジ検出器を備えている、項目29に記載の方法。
(項目33)
前記マッピング行列は、眼ポーズおよび眼瞼形状の回帰分析によって決定される、項目29に記載の方法。
(項目34)
項目29−33のうちのいずれか1項に記載の方法を実施するようにプログラムされているハードウェアプロセッサ。
(項目35)
眼ポーズ推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
項目34に記載のハードウェアプロセッサと、
前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像デバイスと
を備えている、装着可能ディスプレイシステム。
(項目36)
前記ハードウェアプロセッサは、前記眼のバイオメトリック情報を決定するようにさらにプログラムされている、項目35に記載の装着可能ディスプレイシステム。
(項目37)
前記バイオメトリック情報は、前記眼の虹彩コードを備えている、項目36に記載の装着可能ディスプレイシステム。
(項目38)
ヘッドマウントディスプレイシステムであって、前記ヘッドマウントディスプレイシステムは、
眼画像を捕捉するように構成されている画像捕捉デバイスと、
眼ポーズマッピングモデルを記憶するように構成されている非一過性メモリと、
前記非一過性メモリと通信しているハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記画像捕捉デバイスから前記眼画像を受信することと、
前記眼画像内の眼の眼瞼形状を決定することと、
前記眼瞼形状と前記眼ポーズマッピングモデルとに少なくとも部分的に基づいて、前記眼の眼ポーズを推定することと
を行うようにプログラムされており、
前記眼ポーズ形状マッピングモデルは、前記眼瞼形状を前記眼ポーズに関連付ける、ヘッドマウントディスプレイシステム。
(項目39)
前記眼ポーズは、前記眼の静止向きに対する前記眼の方位角および天頂角の測定値を備えている、項目38に記載のヘッドマウントディスプレイシステム。
(項目40)
前記眼瞼形状は、前記眼の水平シフト、垂直シフト、および曲率の決定を備えている、項目38に記載のヘッドマウントディスプレイシステム。
(項目41)
前記眼ポーズマッピングモデルは、前記眼瞼形状と前記眼ポーズとの間のパラメトリック関係を備えている、項目38に記載のヘッドマウントディスプレイシステム。
(項目42)
前記パラメトリック関係は、放物線を備えている、項目38に記載のヘッドマウントディスプレイシステム。
(項目43)
前記眼ポーズマッピングモデルは、ニューラルネットワークを備えている、項目38に記載のヘッドマウントディスプレイシステム。
(項目44)
前記ハードウェアプロセッサは、前記眼ポーズを使用して前記眼のバイオメトリックデータを決定するようにさらにプログラムされている、項目38に記載のヘッドマウントディスプレイシステム。
(項目45)
前記バイオメトリックデータは、前記眼の虹彩コードを備えている、項目44に記載のヘッドマウントディスプレイシステム。
(項目46)
眼ポーズ推定のための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
眼画像内の眼の眼瞼形状を決定することと、
前記眼瞼形状に少なくとも部分的に基づいて、眼ポーズを推定することと
を含む、方法。
(項目47)
前記眼ポーズは、前記眼の静止向きからの前記眼の少なくとも2つの角度偏差を備えている、項目46に記載の方法。
(項目48)
前記眼ポーズを推定することは、眼ポーズマッピングモデルを前記眼瞼形状に適用することを含む、項目46に記載の方法。
(項目49)
前記眼ポーズマッピングモデルは、前記眼瞼形状と前記眼ポーズとの間のパラメトリック関係を備えている、項目48に記載の方法。
(項目50)
前記眼瞼形状は、多項式によって表される、項目49に記載の方法。
(項目51)
前記眼瞼形状マッピングモデルは、ニューラルネットワークを備えている、項目50に記載の方法。
(項目52)
前記眼ポーズに基づいて前記眼瞼形状を再決定することと、
前記決定された眼瞼形状と前記再決定された眼瞼形状との一致を検証することと
をさらに含む、項目46に記載の方法。
(項目53)
項目46−52のうちのいずれか1項に記載の方法を実施するようにプログラムされているハードウェアプロセッサ。
(項目54)
眼ポーズ推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
項目53に記載のハードウェアプロセッサと、
前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像デバイスと
を備えている、装着可能ディスプレイシステム。
(項目55)
眼ポーズ推定のための眼ポーズマッピングモデルを訓練する方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
眼瞼形状を眼ポーズに関連付ける訓練データにアクセスすることと、
前記訓練データに基づいて眼ポーズマッピングモデルを訓練することと、
前記訓練された眼ポーズマッピングモデルを出力することと
を含む、方法。
(項目56)
複数の方向に向いている眼の複数の画像を備えている眼画像データを取得することと、
前記訓練データを決定するために、前記眼画像データを分析することと
をさらに含む、項目55に記載の方法。
(項目57)
前記眼画像データを分析することは、右眼の水平に反射された鏡像および左眼の画像、または、左眼の水平に反射された鏡像および右眼の画像を備えている眼画像データを生成することを含む、項目56に記載の方法。
(項目58)
前記訓練データに基づいて眼ポーズマッピングモデルを訓練することは、統計モデルまたはニューラルネットワークを前記訓練データに適用することを含む、項目56−57のうちのいずれか1項に記載の方法。
図1は、眼の例を図式的に例証する。 図1Aは、眼の眼ポーズを決定するための例示的座標系を図式的に例証する。 図2は、例示的眼瞼形状推定ルーチンのフロー図である。 図3は、眼瞼形状推定の例を図式的に例証する。 図4は、例示的眼ポーズ推定ルーチンのフロー図である。 図5は、眼ポーズ推定の例を図式的に例証する。 図6は、装着可能ディスプレイシステムの例を図式的に例証する。
図面全体を通して、参照番号は、参照される要素間の対応を示すために再使用され得る。図面は、本明細書に説明される例示的実施形態を図示するために提供され、本開示の範囲を限定することを意図されない。
(概観)
眼からバイオメトリック情報を抽出することは、概して、眼画像内の虹彩のセグメント化のためのプロシージャを含む。虹彩セグメント化は、虹彩境界を見つけることを含む動作を伴うことができ、虹彩境界を見つけることは、虹彩の瞳孔および縁郭境界を見出すこと、上眼瞼または下眼瞼が虹彩を閉塞する場合、それらを見つけること、睫毛の閉塞、陰影、または反射を検出し、除外すること等を含む。例えば、眼画像は、顔の画像内に含まれることができるか、または、眼周囲領域の画像であり得る。虹彩セグメント化を実施するために、瞳孔(虹彩の内部境界)および縁郭(虹彩の外部境界)の両方の境界は、画像データの別個のセグメントとして識別されることができる。虹彩のこのセグメント化に加えて、眼瞼(上側または下側)によって閉塞される虹彩の部分が、推定されることができる。この推定は、通常の人間の活動中、人物の虹彩全体が可視であることは殆どないので、実施される。言い換えると、虹彩全体は、概して、眼瞼の閉塞を免れない。
眼瞼によって閉塞される虹彩の部分を推定することは、課題を提示している。しかしながら、本明細書に説明される技法を使用して、虹彩推定に存在する課題は、最初に、眼瞼の形状を推定することによって軽減されることができる。眼瞼形状のこの推定は、虹彩セグメント化のための開始点として使用されることができる。同様に、眼の指示方向の既存の推定が、眼瞼位置推定、および、眼、多くの場合、特に虹彩についての詳細な情報の後の抽出のための開始点として使用されることができる。
眼瞼は、眼によって、例えば、眼の表面全体に涙および他の分泌物を分散することによって、眼を湿潤に保つために使用され得る。眼瞼は、眼を異物から保護するためにも使用され得る。ある例として、瞬目反射は、眼を急性外傷から保護する。別の例として、眼が外界を能動的に視認しているときであっても、眼瞼は、例えば、眼の指示方向の変化に応答して自動的に移動することによって、眼を保護し得る。眼瞼によるそのような移動は、瞳孔の閉塞を回避しながら、眼の表面の保護を最大化することができる。しかしながら、この移動は、虹彩セグメント化等の虹彩ベースのバイオメトリック測定を用いてバイオメトリック情報を抽出するとき、さらなる課題を提示する。例えば、虹彩セグメント化を使用するために、眼瞼によって閉塞される虹彩のエリアは、推定され、同一性検証計算からマスクされなければならない。
本明細書に開示される技法では、瞳孔のポーズを使用して、眼瞼形状推定が、虹彩を覆う眼瞼による閉塞のエリアを実質的に予測するために使用されることができる。本明細書に説明される眼瞼形状推定の実施形態は、有利なこととして、眼瞼によって閉塞される虹彩の部分を推定するために使用されることができる。加えて、いくつかの実装では、この眼瞼形状推定は、眼瞼場所のためのモデルを生成するために使用されることができ、モデルは、眼瞼セグメント化アルゴリズム等のセグメント化アルゴリズムの代わりに、またはそのための開始点としてのいずれかで使用され得る。
本開示は、眼ポーズ決定を使用する眼瞼形状の推定の例のみならず、眼指示方向が眼瞼形状から推定される代替プロセスも説明するであろう。眼ポーズ決定は、眼画像から決定されることができる。眼ポーズは、眼が見ている方向の決定である(多くの場合、眼の自然静止方向に対して決定される)。いくつかの実装では、眼ポーズ決定を使用して、曲線が、眼瞼の形状をモデル化するために適合させられることができる。曲線は、眼ポーズ決定のパラメトリック形式から眼瞼形状を表すパラメトリック曲線に値をマッピングするために回帰を使用するマッピング行列と適合させられることができる。例えば、このパラメトリック形式は、放物曲線であり得る。そのようなマッピング行列は、眼瞼形状座標系に対する眼ポーズ座標系の関係を関連付けることができる。故に、眼瞼の場所は、眼画像から推定されることができ、逆もまた同様である。さらに、本明細書に説明されるように、開示される眼瞼形状推定技法は、眼ポーズ決定に基づいて、眼瞼検出アルゴリズム(例えば、眼瞼セグメント化)において使用されることができる。
本明細書で使用される場合、ビデオは、その通常の意味において使用され、限定ではないが、一連の視覚画像の記録を含む。ビデオ内の各画像は、時として、画像フレームまたは単純にフレームと称される。ビデオは、オーディオチャネルの有無を問わず、複数の連続フレームまたは非連続フレームを含むことができる。ビデオは、時間において順序付けられる複数のフレーム、または時間において順序付けられない複数のフレームを含むことができる。故に、ビデオ内の画像は、眼画像フレームまたは眼画像と称され得る。
(眼画像の例)
図1は、眼瞼104、強膜108(眼の「白眼」)、虹彩112、および瞳孔116を伴う、眼100の画像を図示する。曲線116aは、瞳孔116と虹彩112との間の瞳孔境界を示し、曲線112aは、虹彩112と強膜108との間の縁郭境界を示す。眼瞼104は、上眼瞼104aと、下眼瞼104bとを含む。眼100は、自然静止ポーズ(例えば、ユーザの顔および注視の両方が、それらがユーザの直前の遠隔の物体に向かうであろうように向けられている)において図示される。眼100の自然静止ポーズは、自然静止方向120によって示されることができ、自然静止方向は、自然静止ポーズにあるとき、眼100の表面に直交する(例えば、図1に示される眼100に対する平面から真っ直ぐな)方向であり、この例では、瞳孔116内の中心に置かれる。
眼100が異なる物体を見るために移動すると、眼ポーズは、自然静止方向120に対して変化するであろう。現在の眼ポーズは、眼ポーズ方向122を基準にして決定されることができ、眼ポーズ方向は、眼の表面に直交する(および瞳孔116内の中心に置かれる)が、眼が現在向けられている物体の方に向けられた方向である。図1Aに示される例示的座標系を参照すると、眼100のポーズは、眼の眼ポーズ方向124の方位偏向と天頂偏向とを示す2つの角度パラメータとして表されることができ、両方とも眼の自然静止方向120に対する。例証を目的として、これらの角度パラメータは、θ(基準方位から決定される方位偏向)およびφ(時として、極偏向とも称される、天頂偏向)として表されることができる。いくつかの実装では、眼ポーズ方向124の周りの眼の角度ロールが、眼ポーズの決定において含まれることができ、角度ロールは、以下の分析において含まれることができる。他の実装では、眼ポーズを決定するための他の技法、例えば、ピッチ、ヨー、および随意のロール系も、使用されることができる。
眼画像が、任意の適切なプロセスを使用して、例えば、1つ以上の連続フレームから画像を抽出し得るビデオ処理アルゴリズムを使用して、ビデオから取得されることができる。眼のポーズは、種々の眼追跡技法を使用して、眼画像から決定されることができる。例えば、眼ポーズは、提供される光源に対する角膜のレンズ効果を考慮することによって決定されることができる。任意の好適な眼追跡技法が、本明細書に説明される眼瞼形状推定技法において眼ポーズを決定するために使用されることができる。
(例示的眼瞼形状推定ルーチン)
図2は、例示的眼瞼形状推定ルーチン200のフロー図である。眼瞼形状推定ルーチン200は、ハードウェアプロセッサ等のプロセッサによって実装されることができる。眼瞼形状推定は、眼瞼形状検出とも称され得る。ルーチン200が、ブロック204において開始される。ブロック208において、眼画像が、受信される。眼画像は、例えば、画像捕捉デバイス、ヘッドマウントディスプレイシステム、サーバ、非一過性コンピュータ読み取り可能な媒体、またはクライアントコンピューティングデバイス(例えば、スマートフォン)を含む種々の源から受信されることができる。いくつかの実装では、眼画像は、ビデオから抽出されることができる。
ブロック212において、眼画像の眼ポーズが、決定される。例えば、エッジ検出が、眼ポーズを決定するために、眼画像に適用されることができる。エッジ検出は、種々のエッジ検出器、エッジ検出アルゴリズム、またはフィルタによって適用されることができる。例えば、Cannyエッジ検出器が、画像の線におけるエッジを検出するために、画像に適用されることができる。エッジは、極大微分に対応する線に沿って位置する点である。例えば、瞳孔境界116aが、Cannyエッジ検出器を使用して見つけられることができる。瞳孔の場所が決定されると、種々の画像処理技法が、瞳孔116の「ポーズ」を検出するために使用されることができる。眼画像の眼ポーズを決定することは、眼画像の眼ポーズを検出することとも称され得る。ポーズは、眼の注視、指示方向、または向きとも称され得る。例えば、瞳孔116は、物体に向かって左向きに見ていることもあり、瞳孔116のポーズは、左向きポーズとして分類され得る。
他の方法も、瞳孔の場所を検出するために使用されることができる。例えば、同心環が、Cannyエッジ検出器を使用して、眼画像内で見つけられることができる。別の例として、積分微分演算子が、虹彩の瞳孔または縁郭境界を見出すために使用されることができる。例えば、Daugman積分微分演算子、ハフ変換、または他の虹彩セグメント化技法が、瞳孔または虹彩の境界を推定する曲線を返すために使用されることができる。
いくつかの実装では、眼画像は、随意に、画像から高周波数雑音を除去するために、フィルタを用いて前処理されることができる。フィルタは、ローパスフィルタまたはオープンフィルタ等のモルフォロジカルフィルタであり得る。フィルタは、瞳孔境界116aから高周波数雑音を除去し、それによって、眼ポーズ決定を妨げ得る雑音を除去することができる。
前述の例は、ポーズを決定するために、眼画像内の瞳孔を見つける文脈において説明されたが、これは、例証のためであり、限定することは意図されない。他の実装では、任意の好適な画像処理技法または検出技法が、眼のポーズを決定するために使用されることができる。ある例として、縁郭境界112aおよび虹彩112の場所は、それぞれ、虹彩の場所を検出するために使用されることができ、虹彩のポーズを決定するために使用されることができる。虹彩112のための関数形式は、そうである必要はないが、瞳孔116のための関数形式とは異なり得る。決定されると、眼のポーズは、種々の関数形式において表されることができ、例えば、図1Aに示される方位角および天頂角等の2つの角度偏向を用いて表されることができる。
継続して図2を参照すると、ブロック216において、眼瞼の関数形式が、ブロック212において決定された眼ポーズを使用して推定されることができる。種々の実装では、眼瞼のこの関数形式は、眼瞼形状への眼ポーズ決定のマッピングを使用して推定されることができる。マッピングは、個人、個人の種々の集団(例えば、男性、女性、民族性、または任意の人口統計グループ)、非ヒト動物等に対して実施されることができる。
曲線が、眼瞼形状を近似するために使用されることができる。非限定的例示的実装では、眼瞼は、放物線(二次形式)等の多項式形式によって表されることができる。他の実装も、可能である。他の実装では、任意の好適な数学的定式化または曲線が、眼瞼を表すために使用されることができる。つまり、眼瞼曲線の表現は、任意の次数の多項式形式である必要はない。例えば、曲線が、別の非線形数式表現であり得る。異なる定式化または曲線が、各眼瞼のために可能である。以下に議論されるように、眼瞼形状のノンパラメトリック表現が、使用されることができる(例えば、ニューラルネットワーク分類子)。後の例は、放物曲線を適合させる3つのパラメータの文脈において説明されるであろうが、これは、例証のためであり、限定することは意図されない。他の実装では、任意の好適な数のパラメータが、選定された曲線を適合させるために使用されることができる。加えて、放物線形式以外の任意の関数形式が、使用されることができる。
ブロック212において決定される眼ポーズ決定は、例えば、座標xおよびyによって表される座標系において表されることができ、座標系は、瞳孔が自然静止向きにあるとき、瞳孔の中心に置かれ、xは、水平方向を表し、yは、直交する垂直方向を表す。眼瞼形状に適合する放物曲線の例では、放物曲線は、3つのパラメータによってパラメータ化されることができる。例証として、これらの3つのパラメータは、眼瞼の水平シフト、垂直シフト、および曲率と称され得る。
故に、本実施形態では、眼瞼形状に関する放物線の式は、以下である。
Figure 0006918781
眼ポーズ決定(例えば、(θ,φ))は、対応する眼瞼形状パラメータ(例えば、(u,v,k))を決定するために使用されることができる。1つの観点から、これは、2パラメータ空間(θ,φ)から3パラメータ空間(u,v,k)へのマッピングと見られることができる。種々の実装では、このマッピングは、眼瞼をセグメント化するため、または眼瞼形状パラメータの初期近似を生成するために使用されることができ、それは、他の眼瞼セグメント化アルゴリズムの性能を改良するために使用され得る。以下に議論されるように、他の実装も、可能である。マッピングは、マッピング関数とも称され得る。後の例は、眼ポーズマッピングを使用して眼瞼形状に適合する文脈において説明されるであろうが、これは、例証のためであり、限定することは意図されない。他の実装では、眼ポーズ決定に基づく任意のマッピング関数(パラメトリックまたはノンパラメトリック)が、眼瞼形状に適合するために使用されることができる。加えて、このマッピングを実施するためのさまざまな関数形式が、可能である。概して言えば、マッピング関数は、眼瞼形状座標系に対する眼ポーズ座標系の関係を関連付ける。例証として、眼ポーズ決定は、Pパラメータとして表され、Qパラメータによって表される眼瞼関数形式を適合させるためにマッピングされることができる。例えば、眼瞼関数形式は、Qパラメータによって表されることができ、Qは、ディスプレイ(例えば、以下の図6のディスプレイ608)内のピクセルの幅であり得る。関数形式への非線形決定のマッピングも、可能であり、逆も同様である。
ブロック220において、眼瞼形状が、眼ポーズマッピングに基づいて、眼瞼形状であるべきと決定された曲線に適合させられることができる。3パラメータ空間の例を継続すると、マッピングは、3つの別個のマッピングに分解されることができる:u(θ,φ)、v(θ,φ)、およびk(θ,φ)。例えば、そのような分解は、特定の次数の多項式としてモデル化されることができる。これらの関数のための1つの可能なパラメータ化は、形式
Figure 0006918781
であり得、式中、
Figure 0006918781
のそれぞれの要素は、以下の定義
Figure 0006918781
を有する。
式(2)では、
Figure 0006918781
は、(θ,φ)の眼ポーズ決定から決定されるべき眼瞼形状パラメータの列ベクトル[u,v,k]である。式(2)のマッピングAは、眼瞼形状パラメータを角度眼ポーズ決定の多項式(この例では二次)関数
Figure 0006918781
に関連させる。3パラメータ空間の例では、マッピング、u(θ,φ)、v(θ,φ)、およびk(θ,φ)、以下の定義を有する。
Figure 0006918781
Figure 0006918781
および、
Figure 0006918781
他の実施形態では、関数
Figure 0006918781
は、2とは異なる次数(例えば、1、3、4、5、またはそれを上回るもの)の多項式、非多項式関数、有理関数、または任意の他の適切な関数形式であり得る。また他の実施形態では、眼ポーズ決定は、眼ポーズ方向の周りの眼のロールを含むことができ、列ベクトル
Figure 0006918781
は、ロール角における関数形式(例えば、二次等の多項式)を含むことができる。さらに、
Figure 0006918781
との間の関係は、式(2)において線形であるが、他の実装では、非線形関係が、利用されることができる。
故に、眼瞼形状パラメータ
Figure 0006918781
は、眼ポーズ角度決定から決定される眼ポーズ関数
Figure 0006918781
が与えられると、マッピング行列Aによって推定されることができる。種々の実装では、マッピング行列Aは、個人または個人のグループの眼ポーズおよび眼瞼形状決定を含む訓練データから決定されることができる。例えば、訓練データは、個人の眼が異なる注視方向に移動中、ある期間にわたって、個人(または個人のグループ)に対する眼ポーズおよび眼瞼形状を観察ならびに決定することによって、取得されることができる。これらの観察中、眼のポーズおよび眼瞼の位置の両方が、記録される。そのようなデータ点は、例えば、それらの関数を特徴付けるパラメータの回帰によって、マッピング、u(θ,φ)、v(θ,φ)、およびk(θ,φ)を決定するために使用されることができる。この例では、値aijは、利用可能な訓練データを適合させることによって(例えば、回帰または任意の他の統計的適合もしくは最適化技法によって)見出されるべき係数である。
ノンパラメトリックモデルを含む眼瞼形状の他のモデルも、可能である。眼瞼形状と眼ポーズとの間の関係は、ニューラルネットワーク等の潜在学習マッピングによって決定されることもできる。
いくつかの実装では、顔は、2つの眼の間の中心線に対して対称であるので、左眼および右眼の別個のモデルは、使用されない。代わりに、一方の眼(例えば、右眼)の画像が、水平に反射された鏡像に変換るので、鏡像と他方の眼(例えば、左眼)の画像とは、類似するか、または区別不可能である。つまり、一方の眼(例えば、右眼)の鏡像および他方の眼(例えば、左眼)の画像は、類似するか、または区別不可能であり得る。適合プロシージャは、次いで、単一の眼形状(例えば、左眼形状)に対して実施されることができ、それは、適合プロシージャにおいて使用されることができる眼または眼画像の数を効果的に倍にする。事実上、そのような実装は、左眼または右眼のいずれかに対して使用され得る一般的眼瞼形状モデルを決定する。例えば、左眼のための眼瞼形状モデルが与えられると、右眼のためのデータ(例えば、眼画像および眼ポーズ決定)が、反射されることができ、次いで、左眼モデルが、適用され、次いで、対応する眼瞼形状決定が、再び反射して返される。
いくつかの実装では、ブロック212において眼画像から決定された眼ポーズは、少なくとも部分的に、ブロック220において推定された眼瞼形状に基づいて、再決定される。再決定された眼瞼形状は、(ブロック212からの)初期眼瞼形状と比較されることができ、実質的に類似する(例えば、パラメトリック表現における差異が、ある閾値を下回る)場合、ルーチン200は、決定された眼ポーズが十分に正確であると決定することができる。したがって、ルーチン200は、(随意に)眼ポーズ決定の一貫性を検証することができる。
したがって、この例から分かり得るように、眼瞼形状は、眼瞼形状への眼ポーズ決定のマッピングに従って、適合させられることができる。別の言い方をすれば、ルーチン200は、眼ポーズ決定を使用し、眼瞼の形状である曲線を適合させることができる。その後、ブロック224において、ルーチン200は、終了する。
種々の実施形態では、ルーチン200は、例えば、図6を参照して以下に説明されるようなヘッドマウントディスプレイシステムのハードウェアプロセッサによって実施され得る。他の実施形態では、コンピュータ実行可能命令を伴う遠隔コンピューティングデバイスが、ヘッドマウントディスプレイシステムに、ルーチン200を実施させることができる。ルーチン200のいくつかの実施形態では、要素は、上で説明されるもの以外の順で起こり得る。
(眼瞼形状推定の例)
図3は、上記の図2に説明される眼瞼形状推定ルーチンを使用する、眼瞼形状推定の例を図式的に例証する。例えば、図3は、眼瞼形状が、眼ポーズマッピングに基づいて、眼瞼形状であるべきと決定される曲線に適合させられるときのブロック220における結果を図示する。図3に描写されるように、放物線適合線128aは、上眼瞼104aに適合することができ、放物線適合線128cは、下眼瞼104bに適合することができる。いくつかの場合では、複数の放物線適合線が、ルーチン200によってマッピングされる。例えば、異なる回帰または統計的決定が、マッピング行列Aを決定するために使用されることができる。故に、図示されるように、放物線適合線128bが、上眼瞼104aの別の適合を示し、放物線適合線128dが、下眼瞼104bの別の適合を示す。
本明細書に説明される適合プロセス中、眼瞼への適合は、特定の眼瞼に対して誤った方向に湾曲した線をもたらし得る。例えば、上眼瞼が、概して、下向きに湾曲し、下眼瞼が、概して、上向きに湾曲する。適合線が、特定の眼瞼に関して誤った曲率(例えば、上眼瞼のための上向き曲率または下眼瞼のための下向き曲率)を有する場合、適合線は、ルーチン200から(例えば、ブロック220において)拒絶され、それによって、処理リソースを節約し、プロセスの効率を改良することができる。
故に、いくつかの実施形態では、適合線は、適合線の曲率の符号に基づいて拒絶され、正の曲率は、上眼瞼に対して拒絶され、負の曲率は、下眼瞼に対して拒絶されることができる。種々の実装では、適合線の曲率は、適合プロセスの一部として決定される(例えば、特定の適合係数が、曲率を表し得る)、または適合線の曲率は、適合線を表す関数の二次導関数をとることによって決定されることができる。
前述の例は、放物線を眼瞼に適合させる文脈において説明されたが、これは、例証のためであり、限定することは意図されない。他の実装では、眼瞼のための任意の好適な関数形式が、適合プロシージャ中に使用されることができる。上眼瞼のための関数形式は、そうである必要はないが、下眼瞼のための関数形式とは異なり得る。眼瞼のための関数形式は、円錐形式(特定の場合として、放物線を含む)、多項式(例えば、円錐形式を表す3以上の次数を伴う)、スプライン、有理関数、または任意の他の適切な関数であり得る。
(例示的眼瞼形状推定アルゴリズム)
以下の疑似コードは、眼瞼形状推定プロセスの別の例を提供する。プロセスは、眼画像で開始される。
マッピング行列Aが、以下によって決定されることができる。
(1)眼画像のデータ組Dを収集する。
(2)各画像に対して、
(2a)ユーザの頭部のフレーム内の眼の眼ポーズ決定
Figure 0006918781
を算出する。
(2b)眼瞼への最良適合を算出し、この適合に対する眼瞼関数パラメータ
Figure 0006918781
を抽出する(算出された眼ポーズ決定
Figure 0006918781
に対する算出された適合
Figure 0006918781
は、訓練データの例である)。
(3)パラメータ{aij}を伴うマッピング行列Aを仮定し、訓練データをモデル
Figure 0006918781
に適合させるためのパラメータ{aij}の最適な値を決定する。
眼瞼形状が、マッピング行列Aに対応する眼瞼に対して推定されることができる。
(4)眼画像に対して、頭部座標における眼の眼ポーズ決定
Figure 0006918781
を算出する。
(5)行列Aを使用し、モデル
Figure 0006918781
を使用して、眼瞼関数パラメータ
Figure 0006918781
を推定する。
(6)以下のうちの一方または両方を実施する。
(6a)対応する眼瞼に対して
Figure 0006918781
を使用して画像マスクを算出し、このマスクを使用して虹彩ピクセルを抽出する。または、
(6b)眼瞼関数パラメータ
Figure 0006918781
を使用して、それによって決定される眼瞼境界がさらに精緻化されることができる後続のアルゴリズムを初期化する。
この推定プロセスは、他方の眼瞼に対して繰り返されることができる。
本明細書に議論されるように、ある実装は、眼瞼形状を決定し、次いで、推定された眼瞼形状から眼ポーズを推定することによって、前述の逆を実施することができる。
(ビデオ処理のための眼瞼形状推定の例示的用途)
眼瞼形状推定を使用するシステムおよび方法は、ビデオ画像の文脈内で対処されると、画像処理における古典的問題の多くが改善されることを可能にする。加えて、他の問題も、対処されることができる。例えば、眼瞼形状推定は、ビデオからの画像分類(例えば、眼の虹彩を識別すること)のために、ならびにビデオの1つ以上のフレーム内の特定の物体タイプの位置特定(例えば、上眼瞼の場所)のために使用されることができる。別の例として、眼瞼形状推定は、眼追跡の用途(例えば、眼の向きまたは方向を決定すること)のためにビデオに適用されることができる。
いくつかのそのような用途では、以下にさらに議論されるであろうように、装着可能ディスプレイシステムが、装着可能ディスプレイシステムに動作可能に結合された(例えば、それに取り付けられた、またはその中に含まれた)画像捕捉デバイスによって取得されるビデオデータに対して眼瞼形状推定を実施するプロセッサを含むことができる。画像捕捉デバイスは、眼瞼形状を推定することにおいて使用するために、装着者の眼または装着者の身体の他の構成要素(例えば、手または指)のビデオを取得し得る。
眼瞼形状推定の使用は、有利なこととして、(例えば、装着可能ディスプレイシステム内の画像捕捉デバイスから取得される)ビデオ内の眼瞼の認識を可能にし、それは、バイオメトリック情報等のビデオ内の物体の改良された認識または分類を可能にし得る。例えば、従来のバイオメトリックテンプレートは、眼のセグメント化を決定することにおいて困難を有し得る。しかしながら、本明細書に説明される眼瞼形状推定アプローチは、(概して)虹彩の一部が眼瞼によって閉塞されるであろう一方、瞳孔は(概して)閉塞されないであろうため、瞳孔の境界と虹彩の境界をより良好に区別することができる。したがって、バイオメトリック情報を抽出する能力を提供することによって、図2に説明され、図3に図示されるような眼瞼形状推定は、眼瞼によって閉塞されない眼の部分をより良好に認識することができ、バイオメトリック抽出において使用されるより正確な虹彩セグメント化を提供することができる。本明細書に開示される眼瞼形状推定技法は、バイオメトリック抽出または識別(例えば、虹彩識別)のために、ヘッドマウントディスプレイ(例えば、図6のヘッドマウントディスプレイ)によって使用されることができる。
(例示的眼ポーズ推定ルーチン)
種々の実施形態では、眼瞼形状に基づく眼ポーズ推定のためのルーチンは、ルーチン200(眼瞼形状が眼ポーズから推定される)と同様に実施されることができる。例えば、眼画像の眼ポーズがブロック212において決定されるのではなく、眼瞼形状が、眼画像を使用して、ブロック212において決定されることができる。眼瞼形状は、パラメータ的に(例えば、放物線パラメータ化のために(u,v,k)として)表されることができる。眼ポーズ(例えば、角度(θ,φ))は、眼瞼のパラメトリック表現の関数として決定されることができる。例えば、眼ポーズ角度は、眼瞼形状パラメータの関数形式(例えば、線形、二次、多項式、またはその他)として推定されることができる。実際には、式(2)を参照して説明される技法の逆が、眼瞼形状決定から眼ポーズを推定するために使用されることができる。いくつかの実装では、眼瞼形状は、推定された眼ポーズ方向を使用して再決定されることができ、初期眼瞼形状と再決定された眼瞼形状との間の比較が、眼ポーズ推定の一貫性を検証するために実施されることができる。例えば、再決定された眼瞼形状が、初期眼瞼形状決定と実質的に同一である(例えば、ある閾値差よりも小さい)場合、眼ポーズ推定値は、正確である可能性が高い。
図4は、例示的眼ポーズ推定ルーチン400のフロー図である。眼ポーズ推定ルーチン400は、ハードウェアプロセッサ等のプロセッサによって実装されることができる。眼ポーズ推定は、眼ポーズ検出とも称され得る。ルーチン400が、ブロック404において開始される。ブロック408において、眼画像が、受信される。眼画像は、例えば、画像捕捉デバイス、ヘッドマウントディスプレイシステム、サーバ、非一過性コンピュータ読み取り可能な媒体、またはクライアントコンピューティングデバイス(例えば、スマートフォン)を含む、種々の源から受信されることができる。いくつかの実装では、眼画像は、ビデオから抽出されることができる。
ブロック412において、眼画像の眼瞼が、決定される。例えば、エッジ検出が、眼瞼を決定するために、眼画像に適用されることができる。エッジ検出は、種々のエッジ検出器、エッジ検出アルゴリズム、またはフィルタによって適用されることができる。例えば、Cannyエッジ検出器が、画像の線におけるエッジを検出するために、画像に適用されることができる。エッジは、極大微分に対応する線に沿って位置する点である。例えば、上眼瞼104aまたは下眼瞼104bは、Cannyエッジ検出器を使用して見つけられることができる。
いくつかの実装では、眼画像は、随意に、画像から高周波数雑音を除去するために、フィルタを用いて前処理されることができる。フィルタは、ローパスフィルタまたはオープンフィルタ等のモルフォロジカルフィルタであり得る。フィルタは、虹彩112と眼瞼との間の境界から高周波数雑音を除去し、それによって、眼瞼形状決定を妨げ得る雑音を除去することができる。
ブロック416において、眼瞼の関数形式が、ブロック412において決定された眼瞼を使用して決定されることができる。種々の実装では、眼瞼のこの関数形式は、曲線を使用して表されることができる。非限定的例示的実装では、眼瞼は、放物線(二次形式)等の多項式形式によって表されることができる。他の実装も、可能である。他の実装では、任意の好適な数学的定式化または曲線が、眼瞼を表すために使用されることができる。つまり、眼瞼曲線の表現は、任意の次数の多項式形式である必要はない。例えば、曲線が、別の非線形数式表現であり得る。異なる定式化または曲線が、各眼瞼のために可能である。以下に議論されるように、眼瞼形状のノンパラメトリック表現が、使用されることができる(例えば、ニューラルネットワーク分類子)。後の例は、放物曲線を適合させる3つのパラメータの文脈において説明されるであろうが、これは、例証のためであり、限定することは意図されない。他の実装では、任意の好適な数のパラメータが、選定された曲線を適合させるために使用されることができる。加えて、放物線形式以外の任意の関数形式が、使用されることができる。
ブロック412において決定される眼瞼は、例えば、座標xおよびyによって表される座標系において表されることができ、座標系は、瞳孔が自然静止向きにあるとき、瞳孔の中心に置かれ、xは、水平方向を表し、yは、直交する垂直方向を表す。眼瞼形状に適合する放物曲線の例では、放物曲線は、3つのパラメータによってパラメータ化されることができる。例証として、これらの3つのパラメータは、眼瞼の水平シフトu、垂直シフトv、および曲率kと称され得る。上記の式(1)は、眼瞼形状のための放物線の式を示す。
眼瞼形状パラメータ(例えば、(u,v,k))は、対応する眼ポーズパラメータ(例えば、(θ,φ))を決定するために使用されることができる。1つの観点から、これは、3パラメータ空間(u,v,k)から2パラメータ空間(θ,φ)へのマッピングと見られることができる。種々の実装では、このマッピングは、眼ポーズを決定するため、または眼ポーズパラメータの初期近似を生成するために使用されることができ、それは、他の眼ポーズ決定アルゴリズムの性能を改良するために使用され得る。以下に議論されるように、他の実装も、可能である。マッピングは、マッピング関数とも称され得る。後の例は、眼瞼マッピングを使用して眼ポーズを決定する文脈において説明されるであろうが、これは、例証のためであり、限定することは意図されない。他の実装では、眼瞼形状パラメータに基づく任意のマッピング関数(パラメトリックまたはノンパラメトリック)が、眼ポーズを決定するために使用されることができる。加えて、このマッピングを実施するためのさまざまな関数形式が、可能である。概して言えば、マッピング関数は、眼ポーズ座標系に対する眼瞼形状座標系の関係を関連付ける。例証として、眼瞼関数形式は、Qパラメータによって表され、Pパラメータとして表される眼ポーズ決定にマッピングされることができる。例えば、眼瞼関数形式は、Qパラメータによって表されることができ、Qは、ディスプレイ(例えば、以下の図6のディスプレイ608)内のピクセルの幅であり得る。
ブロック420において、眼ポーズが、眼瞼マッピングに基づいて決定されることができる。2パラメータ空間の例を継続すると、マッピングが、2つの別個のマッピング、すなわち、θ(u,v,k)およびφ(u,v,k)に分解されることができる。そのような分解は、特定の次数の多項式としてモデル化されることができる。これらの関数のための1つの可能なパラメータ化は、
Figure 0006918781
の形式であり得、式中、
Figure 0006918781
のそれぞれの要素は、以下の定義を有する。
Figure 0006918781
式(6)では、
Figure 0006918781
は、(u,v,k)の眼瞼形状決定から決定されるべき眼ポーズパラメータの列ベクトル[θ φ]である。式(6)のマッピングBは、角度眼ポーズパラメータを眼瞼形状パラメータの多項式(この例では線形)関数
Figure 0006918781
に関連させる。他の実施形態では、関数
Figure 0006918781
は、1とは異なる次数(例えば、2、3、4、5、またはそれを上回るもの)の多項式、非多項式関数、有理関数、または任意の他の適切な関数形式であり得る。
Figure 0006918781
との間の関係は、式(6)において線形であるが、他の実装では、非線形関係が、利用されることができる。
2パラメータ空間の例では、マッピングθ(u,v,k)およびφ(u,v,k)は、以下の定義を有する。
Figure 0006918781
Figure 0006918781
故に、眼ポーズパラメータ
Figure 0006918781
は、眼瞼形状決定から決定される眼瞼形状関数
Figure 0006918781
を与えられると、マッピング行列Bによって推定されることができる。種々の実装では、マッピング行列Bは、個人または個人のグループの眼ポーズおよび眼瞼形状決定を含む訓練データから決定されることができる。例えば、訓練データは、個人の眼が異なる注視方向に移動中、ある期間にわたって、個人(または個人のグループ)に対する眼ポーズおよび眼瞼形状を観察ならびに決定することによって、取得されることができる。これらの観察中、眼のポーズおよび眼瞼の位置の両方が、記録される。そのようなデータ点は、例えば、それらの関数を特徴付けるパラメータの回帰によって、マッピングθ(u,v,k)およびφ(u,v,k)を決定するために使用されることができる。この例では、値bijは、利用可能な訓練データを適合させることによって(例えば、回帰または任意の他の統計的適合もしくは最適化技法によって)見出される係数である。いくつかの実装では、眼瞼形状と眼ポーズとの間の関係は、ニューラルネットワークによって学習されるマッピングによって決定されることができる。
いくつかの実装では、顔は、2つの眼の間の中心線に対して対称であるので、左眼および右眼の別個のモデルは、使用されない。代わりに、一方の眼(例えば、右眼)の画像が、鏡像に変換されるので、鏡像と他方の眼(例えば、左眼)の画像とは、類似するか、または区別不可能である。つまり、一方の眼(例えば、右眼)の鏡像と他方の眼(例えば、左眼)の画像とは、類似するか、または区別不可能であり得る。関数眼瞼形式は、単一の眼形状(例えば、左眼形状)に対して実施されることができ、それは、マッピングBを決定することにおいて使用され得る眼または眼画像の数を効果的に倍にする。事実上、そのような実装は、左眼または右眼のいずれかに対して使用され得る一般的眼瞼形状モデルを決定する。例えば、左眼のための眼瞼形状モデルが与えられると、右眼のためのデータ(例えば、眼画像および眼瞼形状決定)が、反射されることができ、そして、左眼モデルが、適用され、そして、対応する眼瞼形状決定が、再び反射されて返される。
いくつかの実装では、ブロック416において眼画像から決定された関数眼瞼形式は、少なくとも部分的に、ブロック420において決定された眼ポーズに基づいて、再決定される。再決定された眼瞼関数形式は、(ブロック416からの)初期眼瞼関数と比較されることができ、実質的に類似する(例えば、パラメトリック表現における差異が、ある閾値を下回る)場合、ルーチン400は、眼瞼関数形式決定が十分に正確であると決定することができる。したがって、ルーチン400は、(随意に)眼瞼形状決定の一貫性を検証することができる。その後、ブロック424において、ルーチン400は、終了する。
種々の実施形態では、ルーチン400は、例えば、図6を参照して以下に説明されるようなヘッドマウントディスプレイシステムのハードウェアプロセッサによって実施され得る。他の実施形態では、コンピュータ実行可能命令を伴う遠隔コンピューティングデバイスが、ヘッドマウントディスプレイシステムに、ルーチン400を実施させることができる。ルーチン400のいくつかの実施形態では、要素は、上で説明されるもの以外の順で起こり得る。
(眼ポーズ推定の例)
図5は、上記の図4に説明される眼ポーズ推定ルーチンを使用する、眼ポーズ推定の例を図式的に例証する。例えば、図4は、眼ポーズが、眼瞼マッピングに基づいて推定されるときのブロック420における結果を図示する。図5に描写されるように、放物線適合線128aが、上眼瞼104aに適合することができ、放物線適合線128cが、下眼瞼104bに適合することができる。放物線適合線128aおよび放物線適合線128bのうちの一方または両方が、眼ポーズを推定するために使用されることができる。例えば、放物線適合線128aは、眼ポーズ124aを推定するために使用されることができ、放物線適合線128bは、眼ポーズ124bを推定するために使用されることができる。別の例として、放物線適合線128aおよび放物線適合線128bは、眼ポーズ124aを推定するために使用されることができる。複数の眼ポーズが、1つの眼瞼形状からルーチン400によって推定されることができる。例えば、2つの異なる回帰または統計的決定が、マッピング行列Bおよびマッピング行列B’を決定するために使用されることができる。マッピング行列Bは、眼ポーズ124aを推定するために使用されることができ、マッピング行列B’は、眼ポーズ124bを推定するために使用されることができる。
(ビデオ処理に関する眼ポーズ推定の例示的用途)
眼ポーズ推定を使用するシステムおよび方法は、ビデオ画像の文脈内で対処されると、画像処理における古典的問題の多くが改善されることを可能にする。加えて、他の問題も、対処されることができる。例えば、眼ポーズ推定は、ビデオからの画像分類(例えば、眼の虹彩を識別すること)のために、ならびにビデオの1つ以上のフレーム内の特定の物体タイプ(例えば、虹彩の場所)の位置特定のために使用されることができる。別の例として、眼ポーズ推定は、眼追跡の用途(例えば、眼の向きまたは方向を決定すること)のためにビデオに適用されることができる。
いくつかのそのような用途では、以下にさらに議論されるであろうように、装着可能ディスプレイシステムが、装着可能ディスプレイシステムに動作可能に結合された(例えば、それに取り付けられた、またはその中に含まれた)画像捕捉デバイスによって取得されるビデオデータに対して眼ポーズ推定を実施するプロセッサを含むことができる。画像捕捉デバイスは、眼ポーズを推定することにおいて使用するために、装着者の眼または装着者の身体の他の構成要素(例えば、手または指)のビデオを取得し得る。
眼ポーズ推定の使用は、有利なこととして、(例えば、装着可能ディスプレイシステム内の画像捕捉デバイスから取得される)ビデオ内の眼ポーズの認識を可能にし、それは、バイオメトリック情報等のビデオ内の物体の改良された認識または分類を可能にし得る。例えば、従来のバイオメトリックテンプレートは、眼のセグメント化を決定することにおいて困難を有し得る。しかしながら、本明細書に説明される眼ポーズ推定アプローチは、眼ポーズが虹彩の場所および向きに関連するので、より良好な虹彩セグメント化を可能にすることができる。したがって、バイオメトリック情報を抽出する能力を提供することによって、図4に説明され、図5に図示されるような眼ポーズ推定は、眼ポーズをより良好に認識することができ、バイオメトリック抽出において使用されるより正確な虹彩セグメント化を提供することができる。本明細書に開示される眼ポーズ推定技法は、バイオメトリック抽出または識別(例えば、虹彩識別)のために、ヘッドマウントディスプレイ(例えば、図6のもの等)によって使用されることができる。
(眼瞼形状推定を使用する例示的装着可能ディスプレイシステム)
いくつかの実施形態では、ディスプレイシステムは、装着可能であり得、それは、有利なこととして、より没入型の仮想現実(VR)、拡張現実(AR)、または複合現実(MR)体験を提供し得、デジタル的に再現された画像またはその一部が、それらが現実のように見える、または現実として知覚され得る様式で装着者に提示される。
理論によって限定されるわけではないが、人間の眼は、典型的には、奥行知覚を提供するために、有限数の奥行面を解釈し得ると考えられる。その結果、知覚される奥行の高度に真実味のあるシミュレーションが、これらの限定された数の奥行面の各々に対応する画像の異なる表現を眼に提供することによって達成され得る。例えば、導波管のスタックを含むディスプレイが、ユーザまたは視認者の眼の正面に位置付けられ、装着されるように構成され得る。導波管のスタックは、複数の導波管を使用し、画像投入デバイス(例えば、1つ以上の光ファイバを介して画像情報を送る多重化ディスプレイの個別のディスプレイまたは出力端)から、特定の導波管に関連付けられる奥行面に対応する特定の角度(および発散量)で視認者の眼に光を向かわせることによって、3次元知覚を眼/脳に提供するために利用され得る。
いくつかの実施形態では、導波管の2つのスタック(視認者の各眼のために1つ)が、異なる画像を各眼に提供するために利用され得る。一例として、拡張現実シーンは、AR技術の装着者が、人物、木、背景の建物、およびコンクリートプラットフォームを特徴とする現実世界の公園のような設定を見るようなものであり得る。これらのアイテムに加えて、AR技術の装着者はまた、自身が、現実世界プラットフォーム上に立つロボットの像およびマルハナバチの擬人化のように見える飛行する漫画的アバタキャラクタも、そのロボットの像およびマルハナバチが現実世界に存在していないにもかかわらず、「見ている」と知覚し得る。導波管のスタックは、入力画像に対応する明視野を生成するために使用され得、いくつかの実装では、装着可能ディスプレイは、装着可能明視野ディスプレイを備えている。明視野画像を提供するための装着可能ディスプレイデバイスおよび導波管スタックの例が、米国特許公開第2015/0016777号(参照することによって、これが含むあらゆるものに関してその全体として本明細書に組み込まれる)に説明されている。
図6は、装着者604にVR、AR、またはMR体験を提示するために使用され得る、装着可能ディスプレイシステム600の例を図示する。装着可能ディスプレイシステム600は、眼ポーズ決定、眼瞼形状推定、眼瞼形状決定、または眼ポーズ推定を実施し、本明細書に説明される用途もしくは実施形態のいずれかを提供するようにプログラムされ得る。ディスプレイシステム600は、ディスプレイ608と、そのディスプレイ608の機能をサポートするための種々の機械的ならびに電子的モジュールおよびシステムとを含む。ディスプレイ608は、フレーム612に結合され得、フレームは、ディスプレイシステム装着者または視認者604によって装着可能であり、装着者604の眼の正面にディスプレイ608を位置付けるように構成される。ディスプレイ608は、明視野ディスプレイであり得る。いくつかの実施形態では、スピーカ616が、フレーム612に結合され、ユーザの外耳道に隣接して位置付けられ、いくつかの実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音響制御を提供する。ディスプレイ608は、有線導線または無線接続等によって、ローカルデータ処理モジュール624に動作可能に結合され(620)、ローカルデータ処理モジュールは、フレーム612に固定して取り付けられるか、ユーザによって装着されるヘルメットもしくは帽子に固定して取り付けられるか、ヘッドホンに内蔵されるか、または別様にユーザ604に(例えば、バックパック式構成において、ベルト結合式構成において)取り外し可能に取り付けられる等、種々の構成において搭載され得る。
ローカル処理およびデータモジュール624は、ハードウェアプロセッサと、不揮発性メモリ、例えば、フラッシュメモリ等の非一過性デジタルメモリとを備え得、それらの両方は、データの処理、キャッシュ、および記憶を補助するために利用され得る。データは、(a)画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/もしくはジャイロ等の(例えば、フレーム612に動作可能に結合される、または別様に装着者604に取り付けられ得る)センサから捕捉されるデータ、ならびに/または、(b)場合によってはそのような処理もしくは読み出し後のディスプレイ608への通過のために、遠隔処理モジュール628および/もしくは遠隔データリポジトリ632を使用して取得および/もしくは処理されるデータを含む。ローカル処理およびデータモジュール624は、有線または無線通信リンクを介する等、通信リンク636、640によって、遠隔処理モジュール628および遠隔データリポジトリ632に動作可能に結合され得、したがって、これらの遠隔モジュール628、632は、互いに動作可能に結合され、ローカル処理およびデータモジュール624へのリソースとして利用可能である。画像捕捉デバイスは、眼瞼形状推定プロシージャにおいて使用される眼画像を捕捉するために使用されることができる。
いくつかの実施形態では、遠隔処理モジュール628は、画像捕捉デバイスによって捕捉されたビデオ情報等のデータおよび/または画像情報を分析ならびに処理するように構成される1つ以上のプロセッサを備え得る。ビデオデータは、ローカル処理およびデータモジュール624内に、ならびに/または遠隔データリポジトリ632内にローカルに記憶され得る。いくつかの実施形態では、遠隔データリポジトリ632は、デジタルデータ記憶設備を備え得、これは、「クラウド」リソース構成におけるインターネットまたは他のネットワーキング構成を通して利用可能であり得る。いくつかの実施形態では、全てのデータが、記憶され、全ての算出が、ローカル処理およびデータモジュール624において実施され、遠隔モジュールからの完全に自律的な使用を可能にする。
いくつかの実装では、ローカル処理およびデータモジュール624ならびに/または遠隔処理モジュール628は、本明細書に説明されるように、眼ポーズを決定し、眼瞼形状を推定する実施形態を実施するようにプログラムされる。例えば、ローカル処理およびデータモジュール624ならびに/または遠隔処理モジュール628は、図2を参照して説明されるプロセス200の実施形態を実施するようにプログラムされることができる。ローカル処理およびデータモジュール624ならびに/または遠隔処理モジュール628は、バイオメトリック抽出において、例えば、装着者604の識別を識別もしくは認証するために、または、眼注視もしくはポーズ決定もしくは眼瞼形状推定において、例えば、各眼が見ている方向を決定するために、本明細書に開示される眼瞼形状推定技法を使用するようにプログラムされることができる。画像捕捉デバイスは、特定の用途のためのビデオ(例えば、眼追跡用途のための装着者の眼のビデオまたはジェスチャ識別用途のための装着者の手もしくは指のビデオ)を捕捉することができる。ビデオは、処理モジュール624、628のうちの一方または両方によって、眼瞼形状推定技法を使用して分析されることができる。この分析では、処理モジュール624、628は、眼瞼形状推定もしくは検出および/またはバイオメトリック抽出、眼ポーズ決定等を実施することができる。ある例として、ローカル処理およびデータモジュール624ならびに/または遠隔処理モジュール628は、遠隔データリポジトリ632内にルックアップテーブルとしてマッピング行列Aを記憶するようにプログラムされることができる。いくつかの場合では、遠隔処理モジュールに眼瞼形状推定の少なくとも一部を(例えば、「クラウド」内に)オフロードすることは、算出の効率または速度を改良し得る。眼瞼形状推定のための種々のパラメータ(例えば、重み、バイアス項、ランダムサブセットサンプリング係数、フィルタ(例えば、Sobel微分演算子)のサイズ等)が、データモジュール624および/または632内に記憶されることができる。
画像処理の例証的例として、処理モジュール624は、画像捕捉デバイスから受信された眼画像からバイオメトリック情報を抽出し、数値表現に定式化することができる。処理モジュール624は、眼画像から抽出されたバイオメトリック情報を画像処理結果に変換する伝達関数として図2に説明されるマッピング行列を表すために、数値計算を実施することもできる。順に、画像処理結果は、例えば、本明細書に説明されるような眼瞼形状推定方法におけるさらなる処理のために使用されることができる。画像処理結果および伝達関数の両方は、遠隔データリポジトリ632内に記憶されることができる。画像処理のこの例証的例は、処理モジュール624を用いて処理されているが、種々の実装では、処理モジュール628が、眼画像のそのような画像処理を実施することができる。加えて、処理モジュール624、628は、一緒に、眼画像のそのような画像処理を実施することができる。
ビデオ分析の結果(例えば、眼瞼の推定された形状)は、追加の動作または処理のために、処理モジュール624、628のうちの一方もしくは両方によって使用されることができる。例えば、種々の用途では、物体、ポーズ等のバイオメトリック識別、眼追跡、認識、または分類が、装着可能ディスプレイシステム600によって使用され得る。例えば、装着者の眼のビデオが、眼瞼形状推定のために使用されることができ、それは、順に、ディスプレイ608を通した装着者604の注視の方向を決定するために、処理モジュール624、628によって使用されることができる。装着可能ディスプレイシステム600の処理モジュール624、628は、本明細書に説明されるビデオまたは画像処理用途のいずれかを実施するように、眼ポーズ決定または眼瞼形状推定の1つ以上の実施形態とともにプログラムされることができる。
(追加の側面)
本明細書に説明される眼瞼形状推定技法は、眼の画像を処理するために、眼の(例えば、ビデオからの)画像に適用されることができる。
第1の側面では、眼瞼形状推定のための方法が、開示される。方法は、ハードウェアプロセッサの制御下で実施され、エッジ検出器を使用して眼の瞳孔境界を検出することと、瞳孔境界を使用して、眼の眼ポーズを決定することであって、眼ポーズの眼ポーズ座標系は、眼の静止向きに対する眼の方位角および天頂角を備え、眼ポーズ座標系と眼瞼形状座標系との間の関数関係は、マッピング行列を備え、眼瞼形状座標系は、眼の水平シフト、垂直シフト、および曲率を備えている、ことと、少なくとも部分的に、眼ポーズおよび関数関係に基づいて、眼の眼瞼形状を推定することと、眼瞼形状に基づいて、眼の眼瞼形状の放物曲線を適合させることとを含む。
第2の側面では、放物曲線を適合させることは、放物曲線の曲率が正であり、かつ眼瞼が眼の上眼瞼である場合、または、放物曲線の曲率が負であり、かつ眼瞼が下眼瞼である場合、眼瞼形状に基づいて、眼の眼瞼の新しい放物曲線を適合させることを含む、側面1に記載の方法。
第3の側面では、エッジ検出器を使用して眼の瞳孔境界を検出することに先立って、眼画像にモルフォロジカルフィルタを適用することをさらに含む、側面1−2のうちのいずれか1つに記載の方法。
第4の側面では、エッジ検出器は、Cannyエッジ検出器を備えている、側面1−3のうちのいずれか1つに記載の方法。
第5の側面では、マッピング行列は、眼瞼形状および眼ポーズの回帰分析によって決定される、側面1−4のうちのいずれか1つに記載の方法。
第6の側面では、ハードウェアプロセッサが、開示される。ハードウェアプロセッサは、側面1−5のうちのいずれか1つに記載の方法を実施するようにプログラムされる。
第7の側面では、眼瞼形状推定のための装着可能ディスプレイシステムが、開示される。装着可能ディスプレイシステムは、第6の側面に記載のハードウェアプロセッサと、眼画像を捕捉し、眼画像をハードウェアプロセッサに伝送するように構成されている画像捕捉デバイスとを備えている。
第8の側面では、ハードウェアプロセッサはさらに、眼のバイオメトリック情報を決定するようにプログラムされる、側面7に記載の装着可能ディスプレイシステム。
第9の側面では、ヘッドマウントディスプレイシステムが、開示される。ヘッドマウントディスプレイシステムは、眼画像を捕捉するように構成されている画像捕捉デバイスと、眼瞼形状マッピングモデルを記憶するように構成されている非一過性メモリと、非一過性メモリと通信しているハードウェアプロセッサとを備え、ハードウェアプロセッサは、画像捕捉デバイスから眼画像を受信することと、眼画像内の眼の眼ポーズを決定することと、少なくとも部分的に、眼ポーズおよび眼瞼形状マッピングモデルに基づいて、眼の眼瞼形状を推定することとを行うようにプログラムされ、眼瞼形状マッピングモデルは、眼瞼形状および眼ポーズを関連させる。
第10の側面では、眼ポーズは、眼の静止向きに対する眼の方位角および天頂角の測定値を備えている、側面9に記載のヘッドマウントディスプレイシステム。
第11の側面では、眼瞼形状は、眼の水平シフト、垂直シフト、および曲率の決定を備えている、側面9−10のうちのいずれか1つに記載のヘッドマウントディスプレイシステム。
第12の側面では、眼瞼形状マッピングモデルは、眼ポーズと眼瞼形状との間のパラメトリック関係を備えている、側面9−11のうちのいずれか1つに記載のヘッドマウントディスプレイシステム。
第13の側面では、パラメトリック関係は、放物線または多項式を備えている、側面9−12のうちのいずれか1つに記載のヘッドマウントディスプレイシステム。
第14の側面では、眼瞼形状マッピングモデルは、ニューラルネットワークを備えている、側面9−13のうちのいずれか1つに記載のヘッドマウントディスプレイシステム。
第15の側面では、ハードウェアプロセッサはさらに、眼瞼形状を使用して、眼のバイオメトリックデータを決定するようにプログラムされる、側面9−14のうちのいずれか1つに記載のヘッドマウントディスプレイシステム。
第16の側面では、バイオメトリックデータは、眼の虹彩コードを備えている、側面15に記載のヘッドマウントディスプレイシステム。
第17の側面では、眼画像から眼瞼形状を推定する方法が、開示される。方法は、ハードウェアプロセッサの制御下で実施され、眼画像内の眼の眼ポーズを決定することと、眼ポーズに基づいて、眼瞼形状を推定することとを含む。
第18の側面では、眼ポーズは、眼の静止向きからの眼の少なくとも2つの角度偏差を備えている、側面17に記載の方法。
第19の側面では、眼瞼形状を推定することは、眼瞼形状マッピングモデルを眼ポーズに適用することを含む、側面17−18のうちのいずれか1つに記載の方法。
第20の側面では、眼瞼形状マッピングモデルは、眼ポーズと眼瞼形状との間のパラメトリック関係を備えている、側面19に記載の方法。
第21の側面では、眼瞼形状は、多項式によって表される、側面20に記載の方法。
第22の側面では、眼瞼形状マッピングモデルは、ニューラルネットワークを備えている、側面21に記載の方法。
第23の側面では、眼瞼形状に基づいて、眼ポーズを再決定することと、決定された眼ポーズと再決定された眼ポーズとの一致を検証することとをさらに含む、側面17−22のうちのいずれか1つに記載の方法。
第24の側面では、ハードウェアプロセッサが、開示される。ハードウェアプロセッサは、側面17−23のうちのいずれか1つに記載の方法を実施するようにプログラムされる。
第25の側面では、眼瞼形状推定のための装着可能ディスプレイシステムが、開示される。装着可能ディスプレイシステムは、第24の側面に記載のハードウェアプロセッサと、眼画像を捕捉し、眼画像をハードウェアプロセッサに伝送するように構成されている画像デバイスとを備えている。
第26の側面では、眼瞼形状推定のための眼瞼形状マッピングモデルを訓練する方法が、開示される。方法は、ハードウェアプロセッサの制御下で、眼瞼形状を眼ポーズに関連付ける訓練データにアクセスすることと、訓練データに基づいて眼瞼形状マッピングモデルを訓練することと、訓練された眼瞼形状マッピングモデルを出力することとを含む。
第27の側面では、複数の方向に向いている眼の複数の画像を備えている眼画像データを取得することと、訓練データを決定するために、眼画像データを分析することとをさらに含む、側面26に記載の方法。
第28の側面では、眼画像データを分析することは、右眼の水平に反射された鏡像および左眼の画像、または、左眼の水平に反射された鏡像および右眼の画像を備えている眼画像データを生成することを含む、側面27に記載の方法。
第29の側面では、訓練データに基づいて眼瞼形状マッピングモデルを訓練することは、統計モデルまたはニューラルネットワークを訓練データに適用することを含む、側面26−28のうちのいずれか1つに記載の方法。
第30の側面では、眼画像を処理する方法が、開示される。方法は、ハードウェアプロセッサの制御下で実施され、エッジ検出器を使用して、眼の眼瞼と眼の虹彩との間の境界を検出することと、眼の眼瞼と眼の虹彩との間の境界を使用して、眼の眼瞼形状を決定することであって、眼瞼形状の眼瞼形状座標系は、眼の水平シフト、垂直シフト、および曲率を備え、眼瞼形状座標系と眼ポーズ形状座標系との間の関数関係は、マッピング行列を備え、眼ポーズ座標系は、眼の静止向きに対する眼の方位偏向角および天頂偏向角を備えている、ことと、少なくとも部分的に、眼瞼形状および関数関係に基づいて、眼の眼ポーズを推定することとを含む。
第31の側面では、眼の眼瞼形状を決定することは、放物曲線を眼の眼瞼と眼の虹彩との間の境界に適合させることを含む、側面30に記載の方法。
第32の側面では、エッジ検出器を使用して、眼の眼瞼と眼の虹彩との間の境界を検出することに先立って、眼画像にモルフォロジカルフィルタを適用することをさらに含む、側面30−31のうちのいずれか1項に記載の方法。
第33の側面では、エッジ検出器は、Cannyエッジ検出器を備えている、側面30−32のうちのいずれか1つに記載の方法。
第34の側面では、マッピング行列は、眼ポーズおよび眼瞼形状の回帰分析によって決定される、側面30−33のうちのいずれか1つに記載の方法。
第35の側面では、ハードウェアプロセッサが、開示される。ハードウェアプロセッサは、側面30−34のうちのいずれか1つに記載の方法を実施するようにプログラムされる。
第36の側面では、眼ポーズ推定のための装着可能ディスプレイシステムが、開示される。装着可能ディスプレイシステムは、第35の側面に記載のハードウェアプロセッサと、眼画像を捕捉し、眼画像をハードウェアプロセッサに伝送するように構成されている画像デバイスとを備えている。
第37の側面では、ハードウェアプロセッサはさらに、眼のバイオメトリック情報を決定するようにプログラムされる、側面36に記載の装着可能ディスプレイシステム。
第38の側面では、バイオメトリック情報は、眼の虹彩コードを備えている、側面37に記載の装着可能ディスプレイシステム。
第39の側面では、ヘッドマウントディスプレイシステムが、開示される。ヘッドマウントディスプレイシステムは、眼画像を捕捉するように構成されている画像捕捉デバイスと、眼ポーズマッピングモデルを記憶するように構成されている非一過性メモリと、非一過性メモリと通信しているハードウェアプロセッサとを備え、ハードウェアプロセッサは、画像捕捉デバイスから眼画像を受信することと、眼画像内の眼の眼瞼形状を決定することと、少なくとも部分的に、眼瞼形状および眼ポーズマッピングモデルに基づいて、眼の眼ポーズを推定することとを行うようにプログラムされ、眼瞼形状マッピングモデルは、眼瞼形状を眼ポーズに関連付ける。
第40の側面では、眼ポーズは、眼の静止向きに対する眼の方位角および天頂角の測定値を備えている、側面39に記載のヘッドマウントディスプレイシステム。
第41の側面では、眼瞼形状は、眼の水平シフト、垂直シフト、および曲率の決定を備えている、側面39−40のうちのいずれか1つに記載のヘッドマウントディスプレイシステム。
第42の側面では、眼ポーズマッピングモデルは、眼瞼形状と眼ポーズとの間のパラメトリック関係を備えている、側面39−41のうちのいずれか1つに記載のヘッドマウントディスプレイシステム。
第43の側面では、パラメトリック関係は、放物線を備えている、側面39−42のうちのいずれか1つに記載のヘッドマウントディスプレイシステム。
第44の側面では、眼ポーズマッピングモデルは、ニューラルネットワークを備えている、側面39−43のうちのいずれか1つに記載のヘッドマウントディスプレイシステム。
第45の側面では、本明細書では、ハードウェアプロセッサはさらに、眼ポーズを使用して、眼のバイオメトリックデータを決定するようにプログラムされる、側面39−44のうちのいずれか1つに記載のヘッドマウントディスプレイシステム。
第46の側面では、眼瞼形状から眼ポーズを推定する方法が、開示される。方法は、ハードウェアプロセッサの制御下で実施され、眼画像内の眼の眼瞼形状を決定することと、少なくとも部分的に、眼瞼形状に基づいて、眼ポーズを推定することとを含む。
第47の側面では、眼ポーズを推定することは、眼ポーズマッピングモデルを眼瞼形状に適用することを含む、側面46に記載の方法。
第48の側面では、眼ポーズを推定することは、眼ポーズマッピングモデルを眼瞼形状に適用することを含む、側面46−47のうちのいずれか1つに記載の方法。
第49の側面では、眼ポーズマッピングモデルは、眼瞼形状と眼ポーズとの間のパラメトリック関係を備えている、側面48に記載の方法。
第50の側面では、眼瞼形状は、多項式によって表される、側面49に記載の方法。
第51の側面では、眼瞼形状マッピングモデルは、ニューラルネットワークを備えている、側面50に記載の方法。
第52の側面では、眼ポーズに基づいて、眼瞼形状を再決定することと、決定された眼瞼形状と再決定された眼瞼形状との一致を検証することとをさらに含む、側面46−51のうちのいずれか1つに記載の方法。
第53の側面では、ハードウェアプロセッサが、開示される。ハードウェアプロセッサは、側面46−52のうちのいずれか1つに記載の方法を実施するようにプログラムされる。
第54の側面では、眼瞼形状を検出するための装着可能ディスプレイシステムが、開示される。装着可能ディスプレイシステムは、側面53に記載のハードウェアプロセッサと、眼画像を捕捉し、眼画像をハードウェアプロセッサに伝送するように構成されている画像デバイスとを備えている。
第55の側面では、眼瞼形状から眼ポーズを推定するために眼ポーズマッピングモデルを訓練する方法が、開示される。方法は、ハードウェアプロセッサの制御下で、眼瞼形状を眼ポーズに関連付ける訓練データにアクセスすることと、訓練データに基づいて眼ポーズマッピングモデルを訓練することと、訓練された眼瞼形状マッピングモデルを出力することとを含む。
第56の側面では、複数の方向に向いている眼の複数の画像を備えている眼画像データを取得することと、訓練データを決定するために、眼画像データを分析することとをさらに含む、側面55に記載の方法。
第57の側面では、眼画像データを分析することは、右眼の水平に反射された鏡像および左眼の画像、または、左眼の水平に反射された鏡像および右眼の画像を備えている眼画像データを生成することを含む、側面56に記載の方法。
第58の側面では、訓練データ上の眼ポーズマッピングモデルを訓練することは、統計モデルまたはニューラルネットワークを訓練データに適用することを含む、側面55−57のうちのいずれか1つに記載の方法。
第59の側面では、眼画像内の眼の眼ポーズからパラメータの組への眼瞼形状マッピングモデルを推定する方法が、開示される。方法は、眼の眼ポーズから眼のパラメータの組への眼瞼形状マッピングモデルを決定するために、眼画像の組Dを使用することを含み、パラメータの組は、眼の上眼瞼または眼の下眼瞼における眼瞼境界のための関数形式を規定する。
第60の側面では、識別決定または検証のために、虹彩ピクセルを抽出するために関数形式を使用することをさらに含む、側面59に記載の方法。
第61の側面では、関数形式は、ピクセルマスクを備えている、側面59−60のうちのいずれか1つに記載の方法。
第62の側面では、眼瞼検索アルゴリズムを初期化するために、関数形式を使用することをさらに含む、側面59−61のうちのいずれか1つに記載の方法。
第63の側面では、精緻化された眼瞼境界決定の最終曲線におけるメンバーシップのための候補としての当て推量を除外するために、関数形式を使用することをさらに含む、側面59−62のうちのいずれか1つに記載の方法。
第64の側面では、精緻化された眼瞼境界決定の最終曲線におけるメンバーシップのための候補としての当て推量を除外するために、関数形式を使用することは、ランダムサンプルコンセンサス(RANSAC)アルゴリズムまたはランダムサブセットベースの適合アルゴリズムにおける候補を除外するために、関数形式を使用することを含む、側面63に記載の方法。
第65の側面では、眼瞼形状マッピングモデルは、3つのパラメータを有する放物曲線を備えている、側面59−64のうちのいずれか1つに記載の方法。
第66の側面では、眼瞼形状マッピングモデルは、3つの二次多項式を備え、3つの二次多項式の入力は、眼ポーズの2つの角度パラメータを備えている、側面59−65のうちのいずれか1つに記載の方法。
第67の側面では、2つの角度パラメータは、5つのパラメータとして表される、側面66に記載の方法。
第68の側面では、眼瞼形状マッピングモデルは、1つ以上の隠れ層を備えているニューラルネットワークによって学習される、側面59−67のうちのいずれか1つに記載の方法。
第69の側面では、1つ以上の隠れ層は、出力論理層を備えている、側面68に記載の方法。
第70の側面では、眼画像の組Dは、左眼および右眼の眼画像を備えている、側面59−69のうちのいずれか1つに記載の方法。
第71の側面では、眼は、右眼であり、眼瞼形状マッピングモデルは、眼画像の水平鏡像を使用して決定される、側面70に記載の方法。
(結論)
本明細書に説明される、ならびに/または添付される図に描写されるプロセス、方法、およびアルゴリズムの各々は、具体的かつ特定のコンピュータ命令を実行するように構成される1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/もしくは電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全もしくは部分的に自動化され得る。例えば、コンピューティングシステムは、特定のコンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされる、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特定の回路によって実施され得る。
さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるため、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つ以上の物理的コンピューティングデバイスは、例えば、関与する計算の量もしくは複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、ビデオは、多くのフレームを含み、各フレームは、数百万のピクセルを有し得、特にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。
コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、光学ディスク、揮発性もしくは不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む、物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ読み取り可能な媒体上に記憶され得る。方法およびモジュール(またはデータ)はまた、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ読み取り可能な伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログもしくはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一もしくは多重化アナログ信号の一部として、または複数の離散デジタルパケットもしくはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的もしくは別様に記憶され得るか、またはコンピュータ読み取り可能な伝送媒体を介して通信され得る。
本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、もしくは機能性は、プロセスにおいて具体的機能(例えば、論理もしくは算術)またはステップを実装するための1つ以上の実行可能命令を含む、コードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられる、再配列されること、追加されること、削除されること、修正されること、または別様に本明細書に提供される例証的例から変更されることができる。いくつかの実施形態では、追加のまたは異なるコンピューティングシステムもしくはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスはまた、任意の特定の順に限定されず、それに関連するブロック、ステップ、または状態は、適切な他の順で、例えば、連続して、並行に、またはある他の様式で実施されることができる。タスクまたはイベントが、開示される例示的実施形態に追加されるか、またはそれから除去され得る。さらに、本明細書に説明される実装における種々のシステムコンポーネントの分離は、例証を目的とし、全ての実装においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品において一緒に統合されるか、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。多くの実装変形例が、可能である。
プロセス、方法、およびシステムは、ネットワーク(または分散)コンピューティング環境において実装され得る。ネットワーク環境は、企業全体コンピュータネットワーク、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、パーソナルエリアネットワーク(PAN)、クラウドコンピューティングネットワーク、クラウドソースコンピューティングネットワーク、インターネット、およびワールドワイドウェブを含む。ネットワークは、有線もしくは無線ネットワークまたは任意の他のタイプの通信ネットワークであり得る。
本開示のシステムおよび方法の各々は、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されない。上で説明される種々の特徴およびプロセスは、互いに独立して使用され得るか、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。本開示に説明される実装の種々の修正が、当業者に容易に明白であり得、本明細書に定義される一般原理は、本開示の精神または範囲から逸脱することなく、他の実装に適用され得る。したがって、請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
別個の実装の文脈において本明細書に説明されるある特徴は、単一の実装における組み合わせにおいて実装されることもできる。逆に、単一の実装の文脈において説明される種々の特徴も、複数の実装において別個に、または任意の好適な副次的組み合わせにおいて実装されることができる。さらに、特徴がある組み合わせにおいて作用するものとして上で説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つ以上の特徴は、いくつかの場合では、組み合わせから削除されることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。いかなる単一の特徴または特徴の群も、あらゆる実施形態に必要または必須ではない。
とりわけ、「〜できる(can)」、「〜し得る(could)」、「〜し得る(might)」、「〜し得る(may)」、「例えば(e.g.,)」等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、および/またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図される。したがって、そのような条件文は、概して、特徴、要素、および/もしくはステップが、1つ以上の実施形態に対していかようにも要求されること、または1つ以上の実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/もしくはステップが任意の特定の実施形態において含まれる、もしくは実施されるべきかどうかを決定するための論理を必然的に含むことを示唆することを意図されない。用語「〜を備えている」、「〜を含む」、「〜を有する」等は、同義語であり、非限定的方式で包括的に使用され、追加の要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つ以上の」または「少なくとも1つ」を意味するように解釈されるべきである。
本明細書で使用されるように、項目のリスト「のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、ならびにA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つがそれぞれ存在するように要求することを示唆することを意図されない。
同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序で、もしくは連続的順序で実施される、または全ての図示される動作が実施される必要はないと認識されるべきである。さらに、図面は、フローチャートの形態で1つ以上の例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的方法およびプロセス内に組み込まれることができる。例えば、1つ以上の追加の動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。加えて、動作は、他の実装において再配列される、または再順序付けられ得る。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上で説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。

Claims (45)

  1. 眼瞼形状推定のための方法であって、前記方法は、
    ハードウェアプロセッサの制御下で、
    エッジ検出器を使用して眼の瞳孔境界を検出することと、
    前記瞳孔境界を使用して前記眼の眼ポーズを決定することであって、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備え、前記眼ポーズ座標系と眼瞼形状座標系との間の関数関係は、マッピング行列を備え、前記眼瞼形状座標系は、前記眼の眼瞼の水平シフト、垂直シフト、曲率を備えている、ことと、
    前記眼ポーズと前記関数関係とに少なくとも部分的に基づいて、前記眼の眼瞼形状を推定することと、
    前記眼瞼形状に基づいて、前記眼の眼瞼形状の放物曲線を適合させることと
    を含む、方法。
  2. 前記放物曲線を適合させることは、前記放物曲線の曲率が正であり、かつ、前記眼瞼が前記眼の上眼瞼である場合、または、前記放物曲線の曲率が負であり、かつ、前記眼瞼が下眼瞼である場合、前記眼瞼形状に基づいて、前記眼の眼瞼の新しい放物曲線を適合させることを含む、請求項1に記載の方法。
  3. 前記方法は、前記エッジ検出器を使用して前記眼の瞳孔境界を検出することに先立って、モルフォロジカルフィルタを眼画像に適用することをさらに含む、請求項1に記載の方法。
  4. 前記エッジ検出器は、Cannyエッジ検出器を備えている、請求項1に記載の方法。
  5. 前記マッピング行列は、眼瞼形状および眼ポーズの回帰分析によって決定される、請求項1に記載の方法。
  6. 請求項1〜5のうちのいずれか1項に記載の方法を実行するようにプログラムされているハードウェアプロセッサ。
  7. 眼瞼形状推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
    請求項3に記載の方法を実行するようにプログラムされているハードウェアプロセッサと、
    前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像捕捉デバイスと
    を備えている、装着可能ディスプレイシステム。
  8. 前記ハードウェアプロセッサは、前記眼のバイオメトリック情報を決定するようにさらにプログラムされている、請求項7に記載の装着可能ディスプレイシステム。
  9. ヘッドマウントディスプレイシステムであって、前記ヘッドマウントディスプレイシステムは、
    眼画像を捕捉するように構成されている画像捕捉デバイスと、
    眼瞼形状マッピングモデルを記憶するように構成されている非一過性メモリと、
    前記非一過性メモリと通信するハードウェアプロセッサと
    を備え、
    前記ハードウェアプロセッサは、
    眼の瞳孔境界を決定することと、
    前記決定された瞳孔境界を使用して前記眼画像内の眼の眼ポーズを決定することであって、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備え、前記眼ポーズ座標系と眼瞼形状座標系との間の関数関係は、前記眼瞼形状マッピングモデルを備え、前記眼瞼形状座標系は、前記眼の眼瞼の水平シフト、垂直シフト、曲率を備えている、ことと、
    前記眼ポーズと前記眼瞼形状マッピングモデルとに少なくとも部分的に基づいて、前記眼の眼瞼形状を推定することと
    を行うようにプログラムされており、
    前記眼瞼形状マッピングモデルは、前記眼瞼形状を前記眼ポーズに関連付ける、ヘッドマウントディスプレイシステム。
  10. 前記眼瞼形状マッピングモデルは、前記眼ポーズと前記眼瞼形状との間のパラメトリック関係を備えている、請求項9に記載のヘッドマウントディスプレイシステム。
  11. 前記パラメトリック関係は、放物線または多項式を備えている、請求項10に記載のヘッドマウントディスプレイシステム。
  12. 前記眼瞼形状マッピングモデルは、ニューラルネットワークを備えている、請求項9に記載のヘッドマウントディスプレイシステム。
  13. 前記ハードウェアプロセッサは、前記眼瞼形状を使用して前記眼のバイオメトリックデータを決定するようにさらにプログラムされている、請求項9〜12のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
  14. 眼瞼形状推定のための方法であって、前記方法は、
    ハードウェアプロセッサの制御下で、
    眼画像内の眼の眼ポーズを決定することであって、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備える、ことと、
    前記眼ポーズに基づいて、眼瞼形状を推定することと
    を含む、方法。
  15. 前記眼ポーズは、前記眼の静止向きからの前記眼の少なくとも2つの角度偏差を備えている、請求項14に記載の方法。
  16. 前記眼瞼形状を推定することは、眼瞼形状マッピングモデルを前記眼ポーズに適用することを含む、請求項14に記載の方法。
  17. 前記眼瞼形状マッピングモデルは、前記眼ポーズと前記眼瞼形状との間のパラメトリック関係を備えている、請求項16に記載の方法。
  18. 前記眼瞼形状は、多項式によって表される、請求項17に記載の方法。
  19. 前記眼瞼形状マッピングモデルは、ニューラルネットワークを備えている、請求項18に記載の方法。
  20. 前記眼瞼形状に基づいて前記眼ポーズを再決定することと、
    前記決定された眼ポーズと前記再決定された眼ポーズとの一致を検証することと
    をさらに含む、請求項14に記載の方法。
  21. 請求項14〜20のうちのいずれか1項に記載の方法を実行するようにプログラムされているハードウェアプロセッサ。
  22. 眼瞼形状推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
    請求項21に記載のハードウェアプロセッサと、
    前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像デバイスと
    を備えている、装着可能ディスプレイシステム。
  23. 眼ポーズ推定のための方法であって、前記方法は、
    ハードウェアプロセッサの制御下で、
    エッジ検出器を使用して、眼の眼瞼と前記眼の虹彩との間の境界を検出することと、
    前記眼の眼瞼と前記眼の虹彩との間の前記境界を使用して、前記眼の眼瞼形状を決定することであって、前記眼瞼形状の眼瞼形状座標系は、前記眼瞼の水平シフト、垂直シフト、曲率を備え、前記眼瞼形状座標系と眼ポーズ座標系との間の関数関係は、マッピング行列を備え、前記眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位偏向角および天頂偏向角を備えている、ことと、
    前記眼瞼形状と前記関数関係とに少なくとも部分的に基づいて、前記眼の眼ポーズを推定することと
    を含む、方法。
  24. 前記眼の眼瞼形状を決定することは、放物曲線を前記眼の眼瞼と前記眼の虹彩との間の前記境界に適合させることを含む、請求項23に記載の方法。
  25. 前記エッジ検出器を使用して前記眼の眼瞼と前記眼の虹彩との間の前記境界を検出することに先立って、モルフォロジカルフィルタを眼画像に適用することをさらに含む、請求項23に記載の方法。
  26. 前記エッジ検出器は、Cannyエッジ検出器を備えている、請求項23に記載の方法。
  27. 前記マッピング行列は、眼ポーズおよび眼瞼形状の回帰分析によって決定される、請求項23に記載の方法。
  28. 請求項23〜27のうちのいずれか1項に記載の方法を実行するようにプログラムされているハードウェアプロセッサ。
  29. 眼ポーズ推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
    請求項25に記載の方法を実行するようにプログラムされているハードウェアプロセッサと、
    前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像デバイスと
    を備えている、装着可能ディスプレイシステム。
  30. 前記ハードウェアプロセッサは、前記眼のバイオメトリック情報を決定するようにさらにプログラムされている、請求項29に記載の装着可能ディスプレイシステム。
  31. 前記バイオメトリック情報は、前記眼の虹彩コードを備えている、請求項30に記載の装着可能ディスプレイシステム。
  32. ヘッドマウントディスプレイシステムであって、前記ヘッドマウントディスプレイシステムは、
    眼画像を捕捉するように構成されている画像捕捉デバイスと、
    眼ポーズマッピングモデルを記憶するように構成されている非一過性メモリと、
    前記非一過性メモリと通信するハードウェアプロセッサと
    を備え、
    前記ハードウェアプロセッサは、
    前記画像捕捉デバイスから前記眼画像を受信することと、
    前記眼画像内の眼の眼瞼形状を決定することと、
    前記眼瞼形状と前記眼ポーズマッピングモデルとに少なくとも部分的に基づいて、前記眼の眼ポーズを推定することと
    を行うようにプログラムされており、
    前記眼ポーズマッピングモデルは、前記眼瞼形状を前記眼ポーズに関連付け、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備え
    前記眼ポーズマッピングモデルは、前記眼瞼形状と前記眼ポーズとの間のパラメトリック関係を備えている、ヘッドマウントディスプレイシステム。
  33. 前記眼ポーズは、前記眼の静止向きに対する前記眼の方位角および天頂角の測定値を備えている、請求項32に記載のヘッドマウントディスプレイシステム。
  34. 前記眼瞼形状は、前記眼の眼瞼の水平シフト、垂直シフト、曲率の決定を備えている、請求項32に記載のヘッドマウントディスプレイシステム。
  35. 前記パラメトリック関係は、放物線を備えている、請求項32に記載のヘッドマウントディスプレイシステム。
  36. ヘッドマウントディスプレイシステムであって、前記ヘッドマウントディスプレイシステムは、
    眼画像を捕捉するように構成されている画像捕捉デバイスと、
    眼ポーズマッピングモデルを記憶するように構成されている非一過性メモリと、
    前記非一過性メモリと通信するハードウェアプロセッサと
    を備え、
    前記ハードウェアプロセッサは、
    前記画像捕捉デバイスから前記眼画像を受信することと、
    前記眼画像内の眼の眼瞼形状を決定することと、
    前記眼瞼形状と前記眼ポーズマッピングモデルとに少なくとも部分的に基づいて、前記眼の眼ポーズを推定することと
    を行うようにプログラムされており、
    前記眼ポーズマッピングモデルは、前記眼瞼形状を前記眼ポーズに関連付け、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備え、
    前記眼ポーズマッピングモデルは、ニューラルネットワークを備えているヘッドマウントディスプレイシステム。
  37. 前記ハードウェアプロセッサは、前記眼ポーズを使用して前記眼のバイオメトリックデータを決定するようにさらにプログラムされている、請求項32に記載のヘッドマウントディスプレイシステム。
  38. 前記バイオメトリックデータは、前記眼の虹彩コードを備えている、請求項37に記載のヘッドマウントディスプレイシステム。
  39. 眼ポーズ推定のための方法であって、前記方法は、
    ハードウェアプロセッサの制御下で、
    眼画像内の眼の眼瞼形状を決定することと、
    前記眼瞼形状に少なくとも部分的に基づいて、眼ポーズを推定することであって、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備える、ことと
    を含み、
    前記眼ポーズを推定することは、眼ポーズマッピングモデルを前記眼瞼形状に適用することを含み、
    前記眼ポーズマッピングモデルは、前記眼瞼形状と前記眼ポーズとの間のパラメトリック関係を備えている、方法。
  40. 前記眼ポーズは、前記眼の静止向きからの前記眼の少なくとも2つの角度偏差を備えている、請求項39に記載の方法。
  41. 前記眼瞼形状は、多項式によって表される、請求項39に記載の方法。
  42. 前記眼ポーズマッピングモデルは、ニューラルネットワークを備えている、請求項41に記載の方法。
  43. 眼ポーズ推定のための方法であって、前記方法は、
    ハードウェアプロセッサの制御下で、
    眼画像内の眼の眼瞼形状を決定することと、
    前記眼瞼形状に少なくとも部分的に基づいて、眼ポーズを推定することであって、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備える、ことと、
    前記眼ポーズに基づいて前記眼瞼形状を再決定することと、
    前記決定された眼瞼形状と前記再決定された眼瞼形状との一致を検証することと
    含む方法。
  44. 請求項3943のうちのいずれか1項に記載の方法を実行するようにプログラムされているハードウェアプロセッサ。
  45. 眼ポーズ推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
    請求項44に記載のハードウェアプロセッサと、
    前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像デバイスと
    を備えている、装着可能ディスプレイシステム。
JP2018509551A 2015-08-21 2016-08-16 眼ポーズ測定を用いた眼瞼形状推定 Active JP6918781B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021120383A JP7231676B2 (ja) 2015-08-21 2021-07-21 眼ポーズ測定を用いた眼瞼形状推定

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562208519P 2015-08-21 2015-08-21
US62/208,519 2015-08-21
PCT/US2016/047177 WO2017034860A1 (en) 2015-08-21 2016-08-16 Eyelid shape estimation using eye pose measurement

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021120383A Division JP7231676B2 (ja) 2015-08-21 2021-07-21 眼ポーズ測定を用いた眼瞼形状推定

Publications (3)

Publication Number Publication Date
JP2018523879A JP2018523879A (ja) 2018-08-23
JP2018523879A5 JP2018523879A5 (ja) 2019-09-26
JP6918781B2 true JP6918781B2 (ja) 2021-08-11

Family

ID=58101125

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018509551A Active JP6918781B2 (ja) 2015-08-21 2016-08-16 眼ポーズ測定を用いた眼瞼形状推定
JP2021120383A Active JP7231676B2 (ja) 2015-08-21 2021-07-21 眼ポーズ測定を用いた眼瞼形状推定

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021120383A Active JP7231676B2 (ja) 2015-08-21 2021-07-21 眼ポーズ測定を用いた眼瞼形状推定

Country Status (10)

Country Link
US (3) US10146997B2 (ja)
EP (1) EP3337385A4 (ja)
JP (2) JP6918781B2 (ja)
KR (2) KR102591552B1 (ja)
CN (2) CN112836664A (ja)
AU (2) AU2016310451B2 (ja)
CA (1) CA2996039A1 (ja)
IL (1) IL257485B (ja)
NZ (1) NZ740299A (ja)
WO (1) WO2017034860A1 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112836664A (zh) 2015-08-21 2021-05-25 奇跃公司 使用眼睛姿态测量的眼睑形状估计
AU2016310452B2 (en) * 2015-08-21 2021-04-22 Magic Leap, Inc. Eyelid shape estimation
CA3170014A1 (en) 2015-10-16 2017-04-20 Magic Leap, Inc. Eye pose identification using eye features
KR102442569B1 (ko) 2016-07-14 2022-09-08 매직 립, 인코포레이티드 각막 곡률을 이용한 홍채 경계 추정
KR102648770B1 (ko) 2016-07-14 2024-03-15 매직 립, 인코포레이티드 홍채 식별을 위한 딥 뉴럴 네트워크
KR102529137B1 (ko) 2016-08-22 2023-05-03 매직 립, 인코포레이티드 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스
RU2016138608A (ru) 2016-09-29 2018-03-30 Мэджик Лип, Инк. Нейронная сеть для сегментации изображения глаза и оценки качества изображения
US10489680B2 (en) 2016-10-04 2019-11-26 Magic Leap, Inc. Efficient data layouts for convolutional neural networks
AU2017361061B2 (en) 2016-11-15 2022-02-03 Magic Leap, Inc. Deep learning system for cuboid detection
KR102595171B1 (ko) 2016-11-16 2023-10-26 매직 립, 인코포레이티드 웨어러블 컴포넌트들을 위한 열 관리 시스템들
EP3549109B1 (en) 2016-12-05 2023-04-19 Magic Leap, Inc. Virtual user input controls in a mixed reality environment
EP3355214A1 (de) * 2017-01-27 2018-08-01 Carl Zeiss Vision International GmbH Verfahren, recheneinrichtung und computerprogramm zum bereitstellen eines fassungsrandmodells
US11347054B2 (en) 2017-02-16 2022-05-31 Magic Leap, Inc. Systems and methods for augmented reality
US10657376B2 (en) 2017-03-17 2020-05-19 Magic Leap, Inc. Room layout estimation methods and techniques
CA3058160A1 (en) 2017-03-30 2018-10-04 Magic Leap, Inc. Non-blocking dual driver earphones
AU2018308418A1 (en) 2017-07-26 2020-01-16 Magic Leap, Inc. Training a neural network with representations of user interface devices
CN107633206B (zh) * 2017-08-17 2018-09-11 平安科技(深圳)有限公司 眼球动作捕捉方法、装置及存储介质
JP7178403B2 (ja) * 2017-09-01 2022-11-25 マジック リープ, インコーポレイテッド ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル
US10521661B2 (en) 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications
US10719951B2 (en) 2017-09-20 2020-07-21 Magic Leap, Inc. Personalized neural network for eye tracking
CA3078530A1 (en) 2017-10-26 2019-05-02 Magic Leap, Inc. Gradient normalization systems and methods for adaptive loss balancing in deep multitask networks
US11036843B2 (en) * 2017-11-24 2021-06-15 Electronics And Telecommunications Research Institute Biometric information-based authentication method and apparatus
KR102384748B1 (ko) * 2017-11-24 2022-04-08 한국전자통신연구원 생체정보 기반의 인증방법 및 장치
WO2019111257A1 (en) * 2017-12-07 2019-06-13 Eyefree Assisting Communication Ltd. Communication methods and systems
WO2019118886A1 (en) * 2017-12-15 2019-06-20 Magic Leap, Inc. Enhanced pose determination for display device
IL275822B2 (en) 2018-01-17 2024-02-01 Magic Leap Inc Eye center for determining rotation, choosing depth plane and processing camera position in display systems
CA3088116A1 (en) 2018-01-17 2019-07-25 Magic Leap, Inc. Display systems and methods for determining registration between a display and a user's eyes
IL312231A (en) 2018-02-06 2024-06-01 Magic Leap Inc Systems and methods for augmented reality
CN112513711B (zh) 2018-07-23 2023-03-07 奇跃公司 用于使用位置向量解析半球模糊度的方法和系统
US11567336B2 (en) 2018-07-24 2023-01-31 Magic Leap, Inc. Display systems and methods for determining registration between display and eyes of user
CN109145788B (zh) * 2018-08-08 2020-07-07 北京云舶在线科技有限公司 基于视频的姿态数据捕捉方法和系统
CN109190548B (zh) * 2018-08-28 2021-04-20 武汉真元生物数据有限公司 基于gabor滤波的快速眼睑检测方法及系统
US11103763B2 (en) 2018-09-11 2021-08-31 Real Shot Inc. Basketball shooting game using smart glasses
US11141645B2 (en) 2018-09-11 2021-10-12 Real Shot Inc. Athletic ball game using smart glasses
CN111127537A (zh) * 2018-10-29 2020-05-08 托比股份公司 用于检测头戴式装置中的阴影的方法和装置
CN109717830B (zh) * 2019-01-22 2021-09-17 中国科学院苏州生物医学工程技术研究所 基于眼动及头动参数监测的疲劳检测及促醒系统
JP7431246B2 (ja) 2019-01-25 2024-02-14 マジック リープ, インコーポレイテッド 異なる露光時間を有する画像を使用した眼追跡
CN114127610A (zh) 2019-05-20 2022-03-01 奇跃公司 用于估计眼睛姿势的系统和技术
CN110956068B (zh) * 2019-05-29 2022-06-10 魔门塔(苏州)科技有限公司 一种基于人眼状态识别的疲劳检测方法及装置
US11327341B2 (en) * 2019-06-14 2022-05-10 Johnson & Johnson Vision Care, Inc Toric contact lens stabilization design based on thickness gradients orthogonal to eyelid margin
US11868525B2 (en) 2019-07-16 2024-01-09 Magic Leap, Inc. Eye center of rotation determination with one or more eye tracking cameras
CN110807364B (zh) * 2019-09-27 2022-09-30 中国科学院计算技术研究所 三维人脸与眼球运动的建模与捕获方法及系统
KR102294029B1 (ko) * 2019-12-04 2021-08-26 서울대학교산학협력단 동공검출과 눈꺼풀 곡률을 이용한 시선 추적 장치 및 그 방법
CN115053270A (zh) 2019-12-09 2022-09-13 奇跃公司 用于基于用户身份来操作头戴式显示系统的系统和方法
KR20210073135A (ko) 2019-12-10 2021-06-18 삼성전자주식회사 눈 복원 기반의 눈 추적 방법 및 장치
JP7545564B2 (ja) 2020-07-15 2024-09-04 マジック リープ, インコーポレイテッド 非球面角膜モデルを使用した眼追跡
JP7219787B2 (ja) * 2021-04-09 2023-02-08 本田技研工業株式会社 情報処理装置、情報処理方法、学習方法、およびプログラム
US20220383502A1 (en) * 2021-05-28 2022-12-01 Blinktbi, Inc. Systems and methods for eyelid localization
WO2023054756A1 (ko) * 2021-09-29 2023-04-06 주식회사 아이디랩 안검 영역을 검출하는 방법 및 이를 위한 서버
CN117860380B (zh) * 2024-03-11 2024-07-30 北京壹点灵动科技有限公司 膝关节置换的数据处理方法和装置、存储介质及电子设备

Family Cites Families (177)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3040466B2 (ja) 1990-07-17 2000-05-15 ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー 画像処理方法
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5481479A (en) * 1992-12-10 1996-01-02 Loral Fairchild Corp. Nonlinear scanning to optimize sector scan electro-optic reconnaissance system performance
US6095989A (en) 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
US6463176B1 (en) * 1994-02-02 2002-10-08 Canon Kabushiki Kaisha Image recognition/reproduction method and apparatus
US5583795A (en) * 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
US5774591A (en) * 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
US6154559A (en) 1998-10-01 2000-11-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for classifying an individual's gaze direction
EP1197094B1 (en) 1999-07-13 2004-02-11 Surgivision Ltd. Stereoscopic video observation and image magnification system
AUPQ896000A0 (en) 2000-07-24 2000-08-17 Seeing Machines Pty Ltd Facial image processing system
US6999612B1 (en) 2000-08-31 2006-02-14 Nec Laboratories America, Inc. Method for recovering 3D scene structure and camera motion directly from image intensities
EP1357831A2 (en) 2001-02-09 2003-11-05 Sensomotoric Instruments GmbH Multidimensional eye tracking and position measurement system
US7505604B2 (en) * 2002-05-20 2009-03-17 Simmonds Precision Prodcuts, Inc. Method for detection and recognition of fog presence within an aircraft compartment using video images
JP3984191B2 (ja) * 2002-07-08 2007-10-03 株式会社東芝 仮想化粧装置及びその方法
JP4128837B2 (ja) 2002-09-30 2008-07-30 佐藤 淳 路面走行レーン検出装置
WO2004089214A2 (en) 2003-04-11 2004-10-21 Bausch & Lomb Inc. System and method for acquiring data and aligning and tracking of an eye
US7379567B2 (en) 2003-07-17 2008-05-27 Matsushita Electric Industrial Co., Ltd. Iris code generation method, individual authentication method, iris code entry device, individual authentication device, and individual certification program
US20050027386A1 (en) 2003-07-30 2005-02-03 Michele Weigand Decentralized project management system
US7664322B1 (en) * 2003-08-11 2010-02-16 Adobe Systems Incorporated Feature-based color adjustment
US7756301B2 (en) * 2005-01-26 2010-07-13 Honeywell International Inc. Iris recognition system and method
US8090157B2 (en) 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US7593550B2 (en) 2005-01-26 2009-09-22 Honeywell International Inc. Distance iris recognition
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
KR20050025927A (ko) 2003-09-08 2005-03-14 유웅덕 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법
US7524064B2 (en) * 2004-03-09 2009-04-28 Research Foundation Of The State University Of New York Apparatus and method for assessing retinal damage
JP4506250B2 (ja) 2004-04-12 2010-07-21 日産自動車株式会社 上瞼検出装置
JP2005334402A (ja) 2004-05-28 2005-12-08 Sanyo Electric Co Ltd 認証方法および認証装置
USD514570S1 (en) 2004-06-24 2006-02-07 Microsoft Corporation Region of a fingerprint scanning device with an illuminated ring
WO2006017771A1 (en) 2004-08-06 2006-02-16 University Of Washington Variable fixation viewing distance scanned light displays
JP4529635B2 (ja) * 2004-10-22 2010-08-25 日産自動車株式会社 開閉眼判定装置
JP4449723B2 (ja) 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US7746235B2 (en) 2005-03-10 2010-06-29 Delphi Technologies, Inc. System and method of detecting eye closure based on line angles
WO2006108017A2 (en) 2005-04-04 2006-10-12 Lc Technologies, Inc. Explicit raytracing for gimbal-based gazepoint trackers
JP5008269B2 (ja) 2005-04-08 2012-08-22 キヤノン株式会社 情報処理装置、情報処理方法
US7327860B2 (en) 2005-05-04 2008-02-05 West Virginia University Conjunctival scans for personal identification
JP2007011667A (ja) 2005-06-30 2007-01-18 Matsushita Electric Ind Co Ltd 虹彩認証装置および虹彩認証方法
WO2007025258A2 (en) 2005-08-25 2007-03-01 Sarnoff Corporation Methods and systems for biometric identification
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
US8233672B2 (en) 2007-06-11 2012-07-31 Matos Jeffrey A Apparatus and method for verifying the identity of an author
KR100651753B1 (ko) 2005-11-19 2006-12-01 한국전자통신연구원 객체의 대칭 특성과 모멘트 특성을 이용한 눈 검출 방법 및그 장치
US10709610B2 (en) * 2006-01-20 2020-07-14 Lensar, Inc. Laser methods and systems for addressing conditions of the lens
US11090190B2 (en) 2013-10-15 2021-08-17 Lensar, Inc. Iris registration method and system
KR101299074B1 (ko) 2006-03-03 2013-08-30 허니웰 인터내셔널 인코포레이티드 홍채 인코딩 시스템
DE602007007062D1 (de) 2006-03-03 2010-07-22 Honeywell Int Inc Iriserkennungssystem mit bildqualitätsmetrik
US7542210B2 (en) 2006-06-29 2009-06-02 Chirieleison Sr Anthony Eye tracking head mounted display
US8077914B1 (en) 2006-08-07 2011-12-13 Arkady Kaplan Optical tracking apparatus using six degrees of freedom
US7682026B2 (en) * 2006-08-22 2010-03-23 Southwest Research Institute Eye location and gaze detection system and method
WO2008091401A2 (en) 2006-09-15 2008-07-31 Retica Systems, Inc Multimodal ocular biometric system and methods
EP2062197A4 (en) 2006-09-15 2010-10-06 Retica Systems Inc MULTIMODAL BIOMETRIC SYSTEM AND METHOD FOR LARGE DISTANCES
US7970179B2 (en) 2006-09-25 2011-06-28 Identix Incorporated Iris data extraction
JP4895797B2 (ja) 2006-12-26 2012-03-14 アイシン精機株式会社 瞼検出装置、瞼検出方法及びプログラム
JP4309927B2 (ja) 2007-03-14 2009-08-05 株式会社豊田中央研究所 まぶた検出装置及びプログラム
JP4309928B2 (ja) 2007-03-15 2009-08-05 アイシン精機株式会社 瞼検出装置、瞼検出方法、及び、プログラム
JP4307496B2 (ja) 2007-03-19 2009-08-05 株式会社豊田中央研究所 顔部位検出装置及びプログラム
WO2008142740A1 (ja) * 2007-04-16 2008-11-27 Fujitsu Limited 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
FR2915301A1 (fr) * 2007-04-20 2008-10-24 Groupe Ecoles Telecomm Procede de comparaison d'images d'une biometrie entre au moi ns une image de reference et au moins une image de test dont on cherche a evaluer un degre de correlation avec l'image d e reference
EP2143041A4 (en) 2007-05-01 2011-05-25 Compulink Man Ct Inc PHOTODOCUMENTEGMENTATION METHOD AND METHOD
US20100202669A1 (en) 2007-09-24 2010-08-12 University Of Notre Dame Du Lac Iris recognition using consistency information
JP5097514B2 (ja) 2007-11-22 2012-12-12 国立大学法人東京工業大学 ワイヤ電極式イオナイザ
US20090252382A1 (en) 2007-12-06 2009-10-08 University Of Notre Dame Du Lac Segmentation of iris images using active contour processing
DE102008003906B4 (de) 2008-01-10 2009-11-26 Rodenstock Gmbh Verwendung eines Fixationstargets und Vorrichtung
JP2009169745A (ja) * 2008-01-17 2009-07-30 Toyota Motor Corp 閉眼検出装置
JP5262243B2 (ja) 2008-03-31 2013-08-14 アイシン精機株式会社 眼開閉判別装置、及びプログラム
US7883071B2 (en) 2008-05-21 2011-02-08 Raytheon Company Methods and apparatus for isolation system
ATE484804T1 (de) 2008-06-25 2010-10-15 Deutsche Telekom Ag System zur extraktion, identifizierung und überprüfung von irismerkmalen auf der basis von directionlets
WO2010011785A1 (en) * 2008-07-23 2010-01-28 Indiana University Research & Technology Corporation System and method for a non-cooperative iris image acquisition system
JP2010033305A (ja) * 2008-07-29 2010-02-12 Hitachi Ltd 画像情報処理方法、及び装置
US8345922B2 (en) 2008-09-03 2013-01-01 Denso Corporation Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
WO2010129074A1 (en) 2009-01-14 2010-11-11 Indiana University Research & Technology Corporation System and method for identifying a person with reference to a sclera image
JP5387007B2 (ja) * 2009-01-22 2014-01-15 日本電気株式会社 画像処理装置、生体認証装置、画像処理方法及びプログラム
JP5221436B2 (ja) * 2009-04-02 2013-06-26 トヨタ自動車株式会社 顔特徴点検出装置及びプログラム
US8693745B2 (en) * 2009-05-04 2014-04-08 Duke University Methods and computer program products for quantitative three-dimensional image correction and clinical parameter computation in optical coherence tomography
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
CN102404510B (zh) 2009-06-16 2015-07-01 英特尔公司 手持装置中的摄像机应用
CN101692980B (zh) 2009-10-30 2011-06-08 深圳市汉华安道科技有限责任公司 疲劳驾驶检测方法及装置
US8403479B2 (en) * 2009-12-17 2013-03-26 Johnson & Johnson Vision Care, Inc. Contact lens eye model
US8948467B2 (en) 2010-08-06 2015-02-03 Honeywell International Inc. Ocular and iris processing system and method
US9092371B2 (en) 2010-09-02 2015-07-28 The Aerospace Corporation Signal parameter estimator
KR101697181B1 (ko) 2010-09-07 2017-01-17 삼성전자주식회사 사용자의 시선 추적을 이용한 영상 처리 장치 및 방법
DE102011054833A1 (de) 2010-10-29 2012-05-03 Hoya Corp. Verfahren zum Messen der binokularen Sehleistung, Programm zum Messen der binokularen Sehleistung, Verfahren zum Entwerfen von Brillengläsern und Verfahren zur Herstellung von Brillengläsern
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
CA2822978C (en) 2010-12-24 2019-02-19 Hong Hua An ergonomic head mounted display device and optical system
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
JP5402964B2 (ja) 2011-03-11 2014-01-29 オムロン株式会社 相互監視システム、管理装置およびシステム
JP4893862B1 (ja) 2011-03-11 2012-03-07 オムロン株式会社 画像処理装置、および画像処理方法
EP2701122B1 (en) * 2011-04-19 2020-02-26 Aisin Seiki Kabushiki Kaisha Eyelid detection device, eyelid detection method, and program
JP5755012B2 (ja) * 2011-04-21 2015-07-29 キヤノン株式会社 情報処理装置、その処理方法、プログラム及び撮像装置
US8755607B2 (en) 2011-04-28 2014-06-17 Sri International Method of normalizing a digital image of an iris of an eye
JP6316186B2 (ja) 2011-05-06 2018-04-25 マジック リープ, インコーポレイテッドMagic Leap,Inc. 広範囲同時遠隔ディジタル提示世界
US8854491B2 (en) 2011-06-05 2014-10-07 Apple Inc. Metadata-assisted image filters
CN103380625A (zh) 2011-06-16 2013-10-30 松下电器产业株式会社 头戴式显示器及其位置偏差调整方法
DE112011105441B4 (de) * 2011-07-11 2019-11-14 Toyota Jidosha Kabushiki Kaisha Augenliderfassungsvorrichtung
JP5737399B2 (ja) * 2011-07-11 2015-06-17 トヨタ自動車株式会社 赤目判定装置
US9213163B2 (en) 2011-08-30 2015-12-15 Microsoft Technology Licensing, Llc Aligning inter-pupillary distance in a near-eye display system
KR20140059213A (ko) 2011-08-30 2014-05-15 마이크로소프트 코포레이션 홍채 스캔 프로파일링을 이용하는 헤드 마운티드 디스플레이
CA2845567C (en) 2011-09-07 2019-05-21 Improved Vision Systems (I.V.S.) Ltd. Method and system for treatment of visual impairment
US10795448B2 (en) 2011-09-29 2020-10-06 Magic Leap, Inc. Tactile glove for human-computer interaction
IL215883A0 (en) 2011-10-24 2012-03-01 Iriss Medical Technologies Ltd System and method for indentifying eye conditions
RU2017115669A (ru) 2011-10-28 2019-01-28 Мэджик Лип, Инк. Система и способ для дополненной и виртуальной реальности
ITVR20110201A1 (it) * 2011-11-02 2013-05-03 Milano Politecnico Dispositivo per il monitoraggio della posizione e deimovimenti dell'occhio, particolarmente adatto per la radioterapia oculare
KR102116697B1 (ko) 2011-11-23 2020-05-29 매직 립, 인코포레이티드 3차원 가상 및 증강 현실 디스플레이 시스템
CN102592260B (zh) 2011-12-26 2013-09-25 广州商景网络科技有限公司 证照图像裁剪方法及系统
US9075453B2 (en) 2011-12-29 2015-07-07 Khalifa University of Science, Technology & Research (KUSTAR) Human eye controlled computer mouse interface
US8958599B1 (en) 2012-01-06 2015-02-17 Google Inc. Input method and system based on ambient glints
JP2013192196A (ja) 2012-02-16 2013-09-26 Panasonic Corp カーソル合成装置およびカーソル合成方法
CN102629319B (zh) 2012-03-27 2014-02-19 中国科学院自动化研究所 基于特定边界检测子的鲁棒虹膜区域分割方法
KR102028732B1 (ko) 2012-04-05 2019-10-04 매직 립, 인코포레이티드 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들
US20130321389A1 (en) 2012-05-29 2013-12-05 General Electric Company System and method for 3d imaging
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9310559B2 (en) 2012-06-11 2016-04-12 Magic Leap, Inc. Multiple depth plane three-dimensional display using a wave guide reflector array projector
JP6131540B2 (ja) 2012-07-13 2017-05-24 富士通株式会社 タブレット端末、操作受付方法および操作受付プログラム
US9122926B2 (en) 2012-07-19 2015-09-01 Honeywell International Inc. Iris recognition using localized Zernike moments
AU2013315607A1 (en) 2012-09-11 2015-04-02 Magic Leap, Inc Ergonomic head mounted display device and optical system
JP6020576B2 (ja) 2012-09-19 2016-11-02 株式会社ニコン 視線検出装置較正方法、視線情報検出方法、眼鏡レンズ設計方法、眼鏡レンズ選択方法、および、眼鏡レンズ製造方法
CN105303772A (zh) * 2012-09-24 2016-02-03 由田新技股份有限公司 瞌睡提醒装置
JP5873982B2 (ja) 2012-10-09 2016-03-01 パナソニックIpマネジメント株式会社 3次元表示装置、3次元画像処理装置および3次元表示方法
CN102901970A (zh) 2012-11-08 2013-01-30 天津理工大学 一种单调制连续波激光测距装置与测距方法
US9152847B2 (en) 2012-11-27 2015-10-06 Adobe Systems Incorporated Facial landmark localization by exemplar-based graph matching
US9224036B2 (en) 2012-12-20 2015-12-29 Google Inc. Generating static scenes
IL293789B2 (en) 2013-01-15 2023-08-01 Magic Leap Inc A system for scanning electromagnetic imaging radiation
JP6318462B2 (ja) * 2013-01-30 2018-05-09 株式会社ニコン 表示装置
KR20150122666A (ko) * 2013-02-27 2015-11-02 톰슨 라이센싱 교정-프리 응시 추정을 위한 방법 및 디바이스
CN105188516B (zh) 2013-03-11 2017-12-22 奇跃公司 用于增强和虚拟现实的系统与方法
US9424467B2 (en) 2013-03-14 2016-08-23 Disney Enterprises, Inc. Gaze tracking and recognition with image location
KR102458124B1 (ko) 2013-03-15 2022-10-21 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
US9335547B2 (en) 2013-03-25 2016-05-10 Seiko Epson Corporation Head-mounted display device and method of controlling head-mounted display device
CN103164704B (zh) * 2013-04-12 2016-05-11 山东师范大学 一种基于混合高斯模型的虹膜图像分割算法
CN103258343B (zh) * 2013-05-07 2015-09-16 中南大学 一种基于图像编辑的眼部图像处理方法
US9801539B2 (en) 2013-05-23 2017-10-31 Stiftung Caesar—Center Of Advanced European Studies And Research Ocular Videography System
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
GB201310368D0 (en) 2013-06-11 2013-07-24 Sony Comp Entertainment Europe Head-mountable apparatus and systems
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
JP2015015563A (ja) 2013-07-04 2015-01-22 セイコーエプソン株式会社 画像表示装置
IL302408B2 (en) 2013-10-16 2024-09-01 Magic Leap Inc An augmented or virtual reality head device with intrapupillary distance adjustment
JP2015090569A (ja) 2013-11-06 2015-05-11 ソニー株式会社 情報処理装置及び情報処理方法
KR101470243B1 (ko) 2013-11-15 2014-12-05 현대자동차주식회사 시선 검출 장치 및 그 시선 검출 방법
TWI498769B (zh) 2013-11-18 2015-09-01 Quanta Comp Inc 頭戴式顯示裝置及其登入方法
CN110542938B (zh) 2013-11-27 2023-04-18 奇跃公司 虚拟和增强现实系统与方法
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
EP2886041A1 (en) 2013-12-17 2015-06-24 ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) Method for calibrating a head-mounted eye tracking device
US20170046813A1 (en) * 2014-01-08 2017-02-16 Nokia Technologies Oy An apparatus and associated methods for image capture
JP5956479B2 (ja) 2014-01-29 2016-07-27 株式会社東芝 表示装置及び視線推定装置
US9804395B2 (en) 2014-01-29 2017-10-31 Ricoh Co., Ltd Range calibration of a binocular optical augmented reality system
NZ722903A (en) 2014-01-31 2020-05-29 Magic Leap Inc Multi-focal display system and method
CN106461955B (zh) 2014-01-31 2019-08-13 奇跃公司 显示增强现实的方法
US10203762B2 (en) 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
WO2016018488A2 (en) 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification
USD759657S1 (en) 2014-05-19 2016-06-21 Microsoft Corporation Connector with illumination region
CN113253476B (zh) 2014-05-30 2022-12-27 奇跃公司 采用虚拟或增强现实装置生成虚拟内容显示的方法和系统
USD752529S1 (en) 2014-06-09 2016-03-29 Comcast Cable Communications, Llc Electronic housing with illuminated region
JP6550642B2 (ja) * 2014-06-09 2019-07-31 パナソニックIpマネジメント株式会社 皺検出装置および皺検出方法
ES2883563T3 (es) * 2014-06-16 2021-12-09 Fondation De Linstitut De Rech Idiap Método y aparato de estimación de la mirada
CN104537334B (zh) 2014-07-08 2019-09-10 珠海易胜电子技术有限公司 一种改善在非理想环境下虹膜识别性能的方法
US9563805B2 (en) 2014-09-02 2017-02-07 Hong Kong Baptist University Method and apparatus for eye gaze tracking
US9798383B2 (en) 2014-09-19 2017-10-24 Intel Corporation Facilitating dynamic eye torsion-based eye tracking on computing devices
CN104680016A (zh) 2014-11-05 2015-06-03 河南科技大学 基于几何优化逼近的抛物线轮廓最小区域拟合方法
CN104484649B (zh) 2014-11-27 2018-09-11 北京天诚盛业科技有限公司 虹膜识别的方法和装置
CN104502329B (zh) 2014-12-28 2017-02-22 冶金自动化研究设计院 一种libs成分分析中元素最优工作曲线的建立方法
CN104484694B (zh) 2014-12-31 2018-01-30 立德高科(北京)数码科技有限责任公司 通过扫描任一二维码以对多媒体信息相绑定与查看的方法
US9710707B1 (en) 2014-12-31 2017-07-18 Morphotrust Usa, Llc Detecting iris orientation
CN105812777B (zh) 2015-01-21 2018-02-09 成都理想境界科技有限公司 双目ar头戴显示设备及其信息显示方法
CN104793741A (zh) 2015-04-03 2015-07-22 深圳市虚拟现实科技有限公司 带眼球跟踪虚拟现实成像系统和方法
CN105157563B (zh) 2015-04-28 2016-08-03 湖南大学 一种基于机器视觉的啤酒瓶口定位方法
USD758367S1 (en) 2015-05-14 2016-06-07 Magic Leap, Inc. Virtual reality headset
AU2016310452B2 (en) 2015-08-21 2021-04-22 Magic Leap, Inc. Eyelid shape estimation
CN112836664A (zh) 2015-08-21 2021-05-25 奇跃公司 使用眼睛姿态测量的眼睑形状估计
US10082865B1 (en) 2015-09-29 2018-09-25 Rockwell Collins, Inc. Dynamic distortion mapping in a worn display
CA3170014A1 (en) 2015-10-16 2017-04-20 Magic Leap, Inc. Eye pose identification using eye features
US9983709B2 (en) * 2015-11-02 2018-05-29 Oculus Vr, Llc Eye tracking using structured light
USD805734S1 (en) 2016-03-04 2017-12-26 Nike, Inc. Shirt
USD794288S1 (en) 2016-03-11 2017-08-15 Nike, Inc. Shoe with illuminable sole light sequence
US10565433B2 (en) 2017-03-30 2020-02-18 George Mason University Age invariant face recognition using convolutional neural networks and set distances
US10521661B2 (en) * 2017-09-01 2019-12-31 Magic Leap, Inc. Detailed eye shape model for robust biometric applications

Also Published As

Publication number Publication date
US11538280B2 (en) 2022-12-27
CA2996039A1 (en) 2017-03-02
EP3337385A1 (en) 2018-06-27
KR20230150397A (ko) 2023-10-30
IL257485B (en) 2021-01-31
CN108135469B (zh) 2021-03-09
WO2017034860A1 (en) 2017-03-02
NZ740299A (en) 2019-08-30
IL257485A (en) 2018-05-31
JP7231676B2 (ja) 2023-03-01
AU2021206778A1 (en) 2021-08-12
US10671845B2 (en) 2020-06-02
JP2018523879A (ja) 2018-08-23
US10146997B2 (en) 2018-12-04
KR102591552B1 (ko) 2023-10-18
CN108135469A (zh) 2018-06-08
CN112836664A (zh) 2021-05-25
JP2021166107A (ja) 2021-10-14
US20170053165A1 (en) 2017-02-23
US20200293744A1 (en) 2020-09-17
AU2016310451B2 (en) 2021-04-22
KR20180044331A (ko) 2018-05-02
US20190087634A1 (en) 2019-03-21
EP3337385A4 (en) 2019-04-03
AU2016310451A1 (en) 2018-03-22

Similar Documents

Publication Publication Date Title
JP6918781B2 (ja) 眼ポーズ測定を用いた眼瞼形状推定
JP7538186B2 (ja) ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル
JP2022051873A (ja) 眼瞼形状推定
JP6917444B2 (ja) 角膜曲率を用いた虹彩境界推定
JP6885935B2 (ja) 眼の特徴を用いる眼ポーズ識別
US11227158B2 (en) Detailed eye shape model for robust biometric applications
JP7542563B2 (ja) 眼追跡待ち時間向上

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190815

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210526

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210721

R150 Certificate of patent or registration of utility model

Ref document number: 6918781

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150