JP2022132550A - ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル - Google Patents
ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル Download PDFInfo
- Publication number
- JP2022132550A JP2022132550A JP2022115475A JP2022115475A JP2022132550A JP 2022132550 A JP2022132550 A JP 2022132550A JP 2022115475 A JP2022115475 A JP 2022115475A JP 2022115475 A JP2022115475 A JP 2022115475A JP 2022132550 A JP2022132550 A JP 2022132550A
- Authority
- JP
- Japan
- Prior art keywords
- eye
- shape
- iris
- pupil
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 210000001747 pupil Anatomy 0.000 abstract description 80
- 238000000034 method Methods 0.000 abstract description 78
- 210000000744 eyelid Anatomy 0.000 abstract description 77
- 230000003190 augmentative effect Effects 0.000 abstract description 4
- 230000002349 favourable effect Effects 0.000 abstract description 2
- 210000001508 eye Anatomy 0.000 description 304
- 210000000554 iris Anatomy 0.000 description 94
- 230000006870 function Effects 0.000 description 59
- 238000012545 processing Methods 0.000 description 43
- 238000000605 extraction Methods 0.000 description 29
- 238000004422 calculation algorithm Methods 0.000 description 28
- 238000012549 training Methods 0.000 description 25
- 210000003786 sclera Anatomy 0.000 description 17
- 230000008569 process Effects 0.000 description 14
- 238000001514 detection method Methods 0.000 description 13
- 230000000284 resting effect Effects 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 7
- 210000004204 blood vessel Anatomy 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000001052 transient effect Effects 0.000 description 5
- 238000000926 separation method Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000004424 eye movement Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 230000001179 pupillary effect Effects 0.000 description 3
- 241000284156 Clerodendrum quadriloculare Species 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 210000004087 cornea Anatomy 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000000720 eyelash Anatomy 0.000 description 2
- 230000004438 eyesight Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241000256837 Apidae Species 0.000 description 1
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000004321 blink reflex Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000003778 catagen phase Effects 0.000 description 1
- 238000001235 constant-final-state spectroscopy Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001144 postural effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 231100000241 scar Toxicity 0.000 description 1
- 230000028327 secretion Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000008733 trauma Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Security & Cryptography (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
- Image Input (AREA)
Abstract
Description
本発明は、例えば、以下を提供する。
(項目1)
ウェアラブルディスプレイシステムであって、
ユーザの眼を照明するように構成される赤外光源と、
前記眼の眼画像を捕捉するように構成される画像捕捉デバイスと、
前記眼画像を記憶するように構成される非一過性のメモリと、
前記非一過性のメモリと通信するハードウェアプロセッサであって、前記ハードウェアプロセッサは、
前記非一過性のメモリから前記眼画像を受信することと、
カスケード式形状回帰を使用して、前記眼画像からの眼形状を推定することであって、前記眼形状は、瞳孔形状、虹彩形状、または眼瞼形状を備える、ことと、
少なくとも部分的に前記眼形状に基づいて、バイオメトリックアプリケーションを実施することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、ウェアラブルディスプレイシステム。
(項目2)
前記ハードウェアプロセッサはさらに、少なくとも部分的に前記眼形状に基づいて、眼特徴を決定するようにプログラムされ、前記眼特徴は、前記赤外光源からの閃光、血管、虹彩特徴、または瞳孔の中心のうちの少なくとも1つを備える、項目1に記載のウェアラブルディスプレイシステム。
(項目3)
前記バイオメトリックアプリケーションは、眼の注視の決定を含む、項目1に記載のウェアラブルディスプレイシステム。
(項目4)
前記眼形状は、前記虹彩形状を備え、前記ハードウェアプロセッサは、前記虹彩形状内にある前記赤外光源からの閃光を調査するようにプログラムされる、項目3に記載のウェアラブルディスプレイシステム。
(項目5)
前記眼形状は、前記瞳孔形状と、前記眼瞼形状とを備え、前記ハードウェアプロセッサは、前記眼瞼によって閉塞される前記瞳孔の一部を識別するようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目6)
前記ハードウェアプロセッサは、前記眼瞼によって閉塞される前記瞳孔の一部を伴わない前記瞳孔形状に基づいて、瞳孔境界を決定するようにプログラムされる、項目5に記載のウェアラブルディスプレイシステム。
(項目7)
前記眼形状は、前記虹彩形状と、前記眼瞼形状とを備え、前記ハードウェアプロセッサは、前記眼瞼によって閉塞される前記虹彩の一部を識別するようにプログラムされる、項目1に記載のウェアラブルディスプレイシステム。
(項目8)
前記ハードウェアプロセッサは、前記眼瞼によって閉塞される前記虹彩の一部を伴わない前記虹彩形状に基づいて、縁郭境界を決定するようにプログラムされる、項目7に記載のウェアラブルディスプレイシステム。
(項目9)
眼形状は、前記眼瞼形状を備え、前記バイオメトリックアプリケーションは、瞬目の決定を含む、項目1に記載のウェアラブルディスプレイシステム。
(項目10)
前記ハードウェアプロセッサは、上眼瞼と下眼瞼との間の距離が閾値未満である場合に、前記眼画像を拒絶するかまたはより低い加重を前記眼画像に割り当てるようにプログラムされる、項目9に記載のウェアラブルディスプレイシステム。
(項目11)
前記眼形状は、瞳孔、虹彩、または眼瞼に対する境界を備える、項目1に記載のウェアラブルディスプレイシステム。
(項目12)
前記バイオメトリックアプリケーションは、バイオメトリック識別またはバイオメトリック認証を含む、項目1に記載のウェアラブルディスプレイシステム。
(項目13)
カスケード式形状回帰を使用して、前記眼画像から前記眼形状を推定するために、前記ハードウェアプロセッサは、
複数の段階にわたって形状インクリメントを決定するための回帰関数を反復するようにプログラムされ、前記回帰関数は、形状インデックス化抽出関数を含む、項目1-12のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目14)
前記回帰関数を反復するために、前記ハードウェアプロセッサは、前記反復の段階tにおける形状インクリメントΔStに関して、
を評価するようにプログラムされ、ftは、段階tにおける前記回帰関数であり、Φtは、段階tにおける前記形状インデックス化抽出関数であり、Iは、前記眼画像であり、St-1は、前記反復の段階t-1における前記眼形状である、項目13に記載のウェアラブルディスプレイシステム。
(項目15)
前記形状インデックス化抽出関数は、一対のピクセル場所の間の眼画像値の比較を提供する、項目13に記載のウェアラブルディスプレイシステム。
(項目16)
眼形状計算エンジンを訓練するための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
注釈付き訓練眼画像のセットを受信することであって、前記セットの中の各画像は、眼形状で標識される、ことと、
前記注釈付き訓練眼画像のセットに適用される機械学習技法を使用して、回帰関数および形状インデックス化抽出関数を学習することであって、前記回帰関数および前記形状インデックス化抽出関数は、前記眼形状を認識することを学習する、ことと
を含む、方法。
(項目17)
前記眼形状は、瞳孔の形状、虹彩の形状、または眼瞼の形状を備える、項目16に記載の方法。
(項目18)
前記回帰関数および前記形状インデックス化抽出関数は、反復の段階tにおける形状インクリメントΔStに関して、
の反復に従って眼形状を認識するように学習され、ftは、段階tにおける前記回帰関数であり、Φtは、段階tにおける前記形状インデックス化抽出関数であり、Iは、非標識眼画像であり、St-1は、前記反復の段階t-1における前記眼形状である、項目16または項目17に記載の方法。
(項目19)
前記形状インデックス化抽出関数は、一対のピクセル場所の間の眼画像値の比較を提供する、項目18に記載の方法。
(項目20)
前記比較は、2進値またはブール値を備える、項目19に記載の方法。
眼からバイオメトリック情報を抽出するステップは、概して、眼画像内の虹彩のセグメント化に関するプロシージャを含む。虹彩セグメント化は、虹彩の瞳孔および縁郭境界を見出すステップ、上眼瞼または下眼瞼が虹彩を閉塞する場合、それらを位置特定するステップ、睫毛、陰影、または反射の閉塞を検出および除外するステップ等を含む、虹彩境界を位置特定するステップを含む動作を伴うことができる。例えば、眼画像は、顔の画像内に含まれることができる、または眼周囲領域の画像であり得る。虹彩セグメント化を実施するために、瞳孔(虹彩の内部境界)および縁郭(虹彩の外部境界)の両方の境界が、画像データの別個のセグメントとして識別されることができる。虹彩の本セグメント化に加えて、(上または下)眼瞼によって閉塞される虹彩の一部が、推定されることができる。本推定は、通常の人間の活動中に、個人の虹彩全体が殆ど可視ではないため、実施される。換言すると、虹彩全体は、概して、(例えば、瞬目中に)眼瞼の閉塞を含まない。
図1Aは、眼瞼110、虹彩112、および瞳孔114を伴う、眼100の画像を図示する。曲線114aは、瞳孔114と虹彩112との間の瞳孔境界を示し、曲線112aは、虹彩112と強膜113(眼の「白眼」)との間の縁郭境界を示す。眼瞼110は、上眼瞼110aと、下眼瞼110bと、睫毛117とを含む。眼100は、自然静止姿勢(例えば、ユーザの顔および注視の両方が、それらがユーザの直前の遠隔の物体に向かうであろうように配向される)において図示される。眼100の自然静止姿勢は、自然静止方向180によって示されることができ、これは、自然静止姿勢にあるとき、眼100の表面に直交する(例えば、図1Aに示される眼100の平面からまっすぐ出る)方向であり、本実施例では、瞳孔114内で中心合わせされる。
いくつかの実施形態では、ディスプレイシステムは、ウェアラブルであり得、これは、有利なこととして、より没入型の仮想現実(VR)、拡張現実(AR)、または複合現実(MR)体験を提供し得、デジタル的に再現された画像またはその一部が、それらが現実のように見える、または現実として知覚され得る様式で装着者に提示される。
図3は、例示的眼形状推定ルーチン300のフロー図である。眼形状推定ルーチン300は、図2を参照して説明される、ローカル処理およびデータモジュール224または遠隔処理モジュール228およびデータリポジトリ232によって実装されることができる。眼形状推定はまた、眼形状検出または詳細な眼形状モデル化と称されることもできる。ルーチン300は、眼画像324が受信されるときにブロック308から開始する。眼画像324は、例えば、画像捕捉デバイス、ヘッドマウントディスプレイシステム、サーバ、非一過性のコンピュータ可読媒体、またはクライアントコンピューティングデバイス(例えば、スマートフォン)を含む、種々のソースから受信されることができる。眼画像324は、眼追跡カメラ252aから受信されてもよい。いくつかの実装では、眼画像324は、ビデオから抽出されることができる。
初期眼形状S0を伴う入力画像Iを考慮すると、カスケード式形状回帰が、段階的に形状インクリメントΔSを推定することによって形状Sを次第に精緻化する。初期形状S0は、眼形状(例えば、瞳孔、縁郭、および眼瞼境界)またはデフォルト形状(例えば、眼画像Iの中心に中心合わせされる円形瞳孔および虹彩境界)への最良推測を表し得る。一般的形態では、段階tにおける形状インクリメントΔStは、以下のように回帰され、
ftは、段階tにおける回帰関数であり、Φtは、形状インデックス化抽出関数である。Φtは、前の段階St-1における入力画像Iおよび形状の両方に依存し得ることに留意されたい。形状インデックス化抽出関数Φtは、「非形状インデックス化」特徴と比較して、より大きい形状変動に対処することができる。大域的照明変化に不変であり得る、一対ピクセル比較特徴が、使用されてもよい。回帰は、形状インクリメントΔStを前の段階St-1における形状に加算し、St=St-1+ΔStを生じさせることによって、次の段階t+1に進む。
いくつかの実施形態では、回帰関数ftおよび形状インデックス化抽出関数Φtは、注釈付き(例えば、標識)訓練データのセットから学習され得る。図5は、((a)から(h)としてインデックス化される)大きい形状および外観変動を伴う異なる対象からの8つの例示的眼画像を含む、訓練データ500の実施例を図示する。標識眼画像は、有利なこととして、(異なる性別、民族等の)広範囲の対象からの広範囲の眼の変形例(例えば、正常に開いた眼、瞬目する眼、自然静止方向に対して広範囲の方向(上、下、左、右)を指し示す眼等)を示すはずである。
図6は、訓練画像のセット(例えば、図5に示される画像500)から回帰関数ftおよび形状インデックス化抽出関数Φtを学習するために使用される、例示的眼形状訓練ルーチン600のフロー図である。眼形状訓練ルーチン600は、処理モジュール224、228、232によって実装されることができる。ルーチン600は、注釈付き眼画像を備える訓練データ(例えば、データ500)がアクセスされるときに、ブロック608から開始する。訓練眼画像は、注釈付き眼画像を記憶する、非一過性のデータ記憶部からアクセスされることができる。処理モジュールは、有線または無線技法を介して非一過性のデータ記憶部にアクセスすることができる。ブロック612では、機械学習技法(例えば、注釈付きまたは標識画像のための教師付き学習)が、回帰関数ftおよび形状インデックス化抽出関数Φtを学習するように適用される。カスケード式形状回帰モデルが、次いで、ブロック616において生成されることができる。本回帰モデルは、ルーチン300がブロック312において詳細な眼形状モデルを推定することを可能にする。上記に説明されるように、カスケード式形状回帰モデルは、使用中にウェアラブルディスプレイシステム200によって取得されるユーザの眼画像について回帰関数および形状インデックス化抽出関数をさらに訓練することによって、特定のユーザに個人化されることができる。
(瞳孔または虹彩の眼瞼閉塞)
図7Aは、眼瞼によって部分的に閉塞される瞳孔の境界点424を図示する。詳細な眼形状モデルを使用するロバストな特徴検出のための一実施形態では、瞳孔検出は、誤った瞳孔境界点704(上眼瞼110aに沿って瞳孔境界420内の境界点の弧として示される)を除去することによって改良され得る。誤った瞳孔境界点704は、図7A(上眼瞼110aが瞳孔114を部分的に閉塞する)に示されるように、眼瞼が瞳孔を部分的に閉塞するときに作成され得る。点704は、したがって、(眼瞼によって閉塞される)瞳孔の真の境界ではなく眼瞼の位置を反映する。瞳孔の不正確なモデルの生成につながり得る、誤った境界点704を含むのではなく、誤った境界点704は、瞳孔境界発見方法が実施される前に識別および除去されてもよい。いくつかの実施形態では、誤った瞳孔境界点704は、上眼瞼または下眼瞼のある距離内に位置する任意の瞳孔境界点であってもよい。いくつかの実施形態では、誤った瞳孔境界点704は、上眼瞼または下眼瞼に隣接する任意の瞳孔境界点であってもよい。いくつかの実施形態では、いったん誤った瞳孔境界点704が識別および除去されると、楕円が、残りの瞳孔境界点を使用して瞳孔に適合されてもよい。そのような楕円適合のために実装され得るアルゴリズムは、微分積分演算子、最小二乗方法、ランダムサンプルコンセンサス(RANSAC)、または楕円または曲線適合アルゴリズムを含む。
従来の注視推定では、瞳孔境界(例えば、いくつかの技法における楕円)および閃光が、眼画像全体を調査することによって検出される。本明細書に説明される詳細な眼形状モデルを考慮すると、特徴検出は、特徴に関して眼全体を調査する必要性を排除することによって、より高速かつより効率的であり得る。いくつかの実施形態では、最初に眼の異なる領域(例えば、強膜、瞳孔、または虹彩)を識別することによって、詳細な眼形状モデルは、眼の特定の領域中の特徴検出(例えば、選択的特徴検出)を可能にし得る。図7Bは、選択的特徴検出の実施例を図示する。閃光115a、115bは、強膜113、虹彩112、または瞳孔114の中で出現し得る。あるバイオメトリックアプリケーションでは、眼のある領域(例えば、角膜反射を表す虹彩)中の閃光115a、115bを識別しながら、これらの領域の外側(例えば、強膜)の閃光115a、115bを無視することが必要である、または望ましくあり得る。例えば、ある技法において注視を決定するとき、強膜113の中に位置する強膜閃光115bは、角膜からの光源の反射を表さず、注視技法の中のそれらの包含は、推定注視の不正確性につながる。したがって、詳細な眼形状モデルを使用して、虹彩112内または縁郭境界416内に位置する虹彩閃光115aを調査および識別することが有利であり得る。図7Bに図示されるように、虹彩閃光115aは、虹彩112内にあり、したがって、注視推定のために好ましくあり得る。他方では、強膜閃光115bは、強膜113の中で出現し、したがって、注視推定のために好ましくあり得ない。故に、本明細書に開示される技法の実施形態は、閃光が発生する可能性が高い眼領域を識別するために、使用されることができ、これらの領域の外側の眼領域は、調査される必要がなく、これは、本技法の正確度、速度、および効率を改良する。
いくつかの実施形態では、特徴検出は、詳細な眼形状モデルを使用し、受信される眼画像がある品質閾値を満たすかどうかを決定することによって、よりロバストかつ効率的であり得る。例えば、詳細な眼形状モデルは、眼が確実な眼形状を推定するため、および特徴を抽出するため、およびバイオメトリックアプリケーション(例えば、注視発見またはバイオメトリック認証/識別)を実施するために十分に開いているかどうかを決定するために、使用されてもよい。いくつかの実施形態では、上眼瞼110aと下眼瞼110bとの間の距離が閾値未満である場合、眼画像は、使用不可能と見なされ、破棄され、故に、いかなる特徴もバイオメトリックアプリケーションのために抽出されない。いくつかの実施形態では、眼画像は、上眼瞼110aおよび下眼瞼110bが5mm以下だけ分離される場合に拒絶され得る。別の実施形態では、眼画像は、瞳孔114または虹彩112のある割合(例えば、40%、50%、60%、75%を上回る、またはそれを上回る)が眼瞼110a、110bのうちの1つ以上のものによって閉塞される場合に、拒絶され得る。別の実施形態では、眼画像は、いくつかの瞳孔境界点704が上眼瞼110aまたは下眼瞼110bに隣接する場合に拒絶され得る。例えば、瞳孔境界点704bのほぼ半分が眼瞼110a、110bに隣接する場合、瞳孔114のほぼ半分が眼瞼によって閉塞され、したがって、眼画像がバイオメトリックアプリケーションのために不適切であることが結論付けられ得る。他の実施形態では、眼画像を拒絶および破棄するのではなく、眼画像は、バイオメトリックアプリケーションにおいて、眼のより少ない閉塞が存在する眼画像(例えば、上眼瞼110aと下眼瞼110bとの間の距離が閾値を上回る画像)よりも低い加重を割り当てられる。
第1の側面では、ウェアラブルディスプレイシステムであって、ユーザの眼を照明するように構成される、光源と、眼の眼画像を捕捉するように構成される、画像捕捉デバイスと、眼画像を記憶するように構成される、非一過性のメモリと、非一過性のメモリと通信するハードウェアプロセッサであって、ハードウェアプロセッサは、非一過性のメモリから眼画像を受信することと、カスケード式形状回帰を使用して、眼画像から眼形状を推定することであって、眼形状は、瞳孔形状、虹彩形状、または眼瞼形状を備える、ことと、少なくとも部分的に眼形状に基づいて、バイオメトリックアプリケーションを実施することとを行うようにプログラムされる、ハードウェアプロセッサとを備える、ウェアラブルディスプレイシステム。
を評価するようにプログラムされ、ftは、段階tにおける回帰関数であり、Φtは、段階tにおける形状インデックス化抽出関数であり、Iは、眼画像であり、St-1は、反復の段階t-1における眼形状である、側面17に記載のウェアラブルディスプレイシステム。
の反復に従って眼形状を認識するように学習され、ftは、段階tにおける回帰関数であり、Φtは、段階tにおける形状インデックス化抽出関数であり、Iは、非標識眼画像であり、St-1は、反復の段階t-1における眼形状である、側面26または側面27に記載の方法。
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされ得る、動的リンクライブラリ内にインストールされ得る、またはインタープリタ型プログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
Claims (1)
- 本明細書に記載の発明。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022115475A JP7538186B2 (ja) | 2017-09-01 | 2022-07-20 | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020505767A JP7178403B2 (ja) | 2017-09-01 | 2017-09-01 | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル |
PCT/US2017/049860 WO2019045750A1 (en) | 2017-09-01 | 2017-09-01 | DETAILED EYE SHAPE MODEL FOR ROBUST BIOMETRIC APPLICATIONS |
JP2022115475A JP7538186B2 (ja) | 2017-09-01 | 2022-07-20 | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020505767A Division JP7178403B2 (ja) | 2017-09-01 | 2017-09-01 | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022132550A true JP2022132550A (ja) | 2022-09-08 |
JP7538186B2 JP7538186B2 (ja) | 2024-08-21 |
Family
ID=65525936
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020505767A Active JP7178403B2 (ja) | 2017-09-01 | 2017-09-01 | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル |
JP2022115475A Active JP7538186B2 (ja) | 2017-09-01 | 2022-07-20 | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020505767A Active JP7178403B2 (ja) | 2017-09-01 | 2017-09-01 | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル |
Country Status (8)
Country | Link |
---|---|
EP (1) | EP3676688A4 (ja) |
JP (2) | JP7178403B2 (ja) |
KR (1) | KR102209595B1 (ja) |
CN (1) | CN111033442B (ja) |
AU (1) | AU2017430168A1 (ja) |
CA (1) | CA3071819A1 (ja) |
IL (1) | IL272360A (ja) |
WO (1) | WO2019045750A1 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10521661B2 (en) | 2017-09-01 | 2019-12-31 | Magic Leap, Inc. | Detailed eye shape model for robust biometric applications |
JP2020018474A (ja) * | 2018-07-31 | 2020-02-06 | 株式会社デンソー | 瞳孔推定装置および瞳孔推定方法 |
CN110275608B (zh) * | 2019-05-07 | 2020-08-04 | 清华大学 | 人眼视线追踪方法 |
US11516374B2 (en) | 2019-06-05 | 2022-11-29 | Synaptics Incorporated | Under-display image sensor |
JP7323159B2 (ja) * | 2019-06-21 | 2023-08-08 | 株式会社トーメーコーポレーション | 眼科装置 |
EP3994510A4 (en) * | 2019-07-05 | 2023-08-02 | Magic Leap, Inc. | EYE TRACKING LATENCY IMPROVEMENTS |
US11153513B2 (en) | 2019-08-19 | 2021-10-19 | Synaptics Incorporated | Light source for camera |
KR102294029B1 (ko) * | 2019-12-04 | 2021-08-26 | 서울대학교산학협력단 | 동공검출과 눈꺼풀 곡률을 이용한 시선 추적 장치 및 그 방법 |
US11076080B2 (en) | 2019-12-05 | 2021-07-27 | Synaptics Incorporated | Under-display image sensor for eye tracking |
JP7430082B2 (ja) * | 2020-03-19 | 2024-02-09 | 株式会社トプコン | 眼科装置及びその作動方法 |
US11620855B2 (en) * | 2020-09-03 | 2023-04-04 | International Business Machines Corporation | Iterative memory mapping operations in smart lens/augmented glasses |
CN112308071B (zh) * | 2020-11-02 | 2024-03-05 | 沈阳民航东北凯亚有限公司 | 一种行李托运的入侵检测方法、装置及电子设备 |
KR102464704B1 (ko) | 2021-09-01 | 2022-11-09 | 주식회사 델타엑스 | 데이터 게시 방법 및 데이터 게시 장치 |
JP7510401B2 (ja) * | 2021-10-13 | 2024-07-03 | 株式会社モリタ製作所 | データ処理装置、眼球運動データ処理システム、データ処理方法、およびプログラム |
KR20240020960A (ko) * | 2022-08-09 | 2024-02-16 | 삼성전자주식회사 | 시선 방향을 식별하는 전자 장치 및 그 작동 방법 |
CN115886717B (zh) * | 2022-08-18 | 2023-09-29 | 上海佰翊医疗科技有限公司 | 一种眼裂宽度的测量方法、装置和存储介质 |
WO2024182845A1 (en) * | 2023-03-06 | 2024-09-12 | Newsouth Innovations Pty Limited | Eye models for mental state analysis |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005296382A (ja) * | 2004-04-13 | 2005-10-27 | Honda Motor Co Ltd | 視線検出装置 |
JP2009211370A (ja) * | 2008-03-04 | 2009-09-17 | Oki Electric Ind Co Ltd | 虹彩認証装置 |
JP2010057683A (ja) * | 2008-09-03 | 2010-03-18 | Denso Corp | 瞳孔検出装置、瞳孔検出装置用プログラム及び瞳孔検出方法 |
US20150378431A1 (en) * | 2014-06-26 | 2015-12-31 | Thomas Alan Donaldson | Eye-controlled user interface |
WO2016018488A2 (en) * | 2014-05-09 | 2016-02-04 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
US20160055368A1 (en) * | 2014-08-22 | 2016-02-25 | Microsoft Corporation | Face alignment with shape regression |
JP2016115119A (ja) * | 2014-12-15 | 2016-06-23 | アイシン精機株式会社 | 開閉眼判定装置、及び開閉眼判定方法 |
US20170053165A1 (en) * | 2015-08-21 | 2017-02-23 | Magic Leap, Inc. | Eyelid shape estimation using eye pose measurement |
US20170053166A1 (en) * | 2015-08-21 | 2017-02-23 | Magic Leap, Inc. | Eyelid shape estimation |
US20170109580A1 (en) * | 2015-10-16 | 2017-04-20 | Magic Leap, Inc. | Eye pose identification using eye features |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20040026905A (ko) * | 2002-09-26 | 2004-04-01 | 주식회사 세넥스테크놀로지 | 실시간 홍채인식을 위한 영상품질 평가장치 및 방법과 그프로그램을 저장한 기록매체 |
WO2008091401A2 (en) * | 2006-09-15 | 2008-07-31 | Retica Systems, Inc | Multimodal ocular biometric system and methods |
US8958608B2 (en) * | 2013-06-04 | 2015-02-17 | Ut-Battelle, Llc | Frontal view reconstruction for iris recognition |
KR102227284B1 (ko) * | 2014-01-16 | 2021-03-12 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어 방법 |
EP3218844A4 (en) * | 2014-11-13 | 2018-07-04 | Intel Corporation | Spoofing detection in image biometrics |
US9704038B2 (en) * | 2015-01-07 | 2017-07-11 | Microsoft Technology Licensing, Llc | Eye tracking |
CN106650688A (zh) * | 2016-12-30 | 2017-05-10 | 公安海警学院 | 基于卷积神经网络的眼部特征检测方法,装置及识别系统 |
CN107657240B (zh) * | 2017-10-09 | 2020-11-24 | 上海天马微电子有限公司 | 一种显示装置及其指纹识别校准方法、以及电子设备 |
-
2017
- 2017-09-01 JP JP2020505767A patent/JP7178403B2/ja active Active
- 2017-09-01 CA CA3071819A patent/CA3071819A1/en not_active Abandoned
- 2017-09-01 CN CN201780094430.6A patent/CN111033442B/zh active Active
- 2017-09-01 EP EP17923055.2A patent/EP3676688A4/en active Pending
- 2017-09-01 WO PCT/US2017/049860 patent/WO2019045750A1/en active Application Filing
- 2017-09-01 AU AU2017430168A patent/AU2017430168A1/en not_active Abandoned
- 2017-09-01 KR KR1020207006703A patent/KR102209595B1/ko active IP Right Grant
-
2020
- 2020-01-30 IL IL272360A patent/IL272360A/en unknown
-
2022
- 2022-07-20 JP JP2022115475A patent/JP7538186B2/ja active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005296382A (ja) * | 2004-04-13 | 2005-10-27 | Honda Motor Co Ltd | 視線検出装置 |
JP2009211370A (ja) * | 2008-03-04 | 2009-09-17 | Oki Electric Ind Co Ltd | 虹彩認証装置 |
JP2010057683A (ja) * | 2008-09-03 | 2010-03-18 | Denso Corp | 瞳孔検出装置、瞳孔検出装置用プログラム及び瞳孔検出方法 |
WO2016018488A2 (en) * | 2014-05-09 | 2016-02-04 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
US20150378431A1 (en) * | 2014-06-26 | 2015-12-31 | Thomas Alan Donaldson | Eye-controlled user interface |
US20160055368A1 (en) * | 2014-08-22 | 2016-02-25 | Microsoft Corporation | Face alignment with shape regression |
JP2016115119A (ja) * | 2014-12-15 | 2016-06-23 | アイシン精機株式会社 | 開閉眼判定装置、及び開閉眼判定方法 |
US20170053165A1 (en) * | 2015-08-21 | 2017-02-23 | Magic Leap, Inc. | Eyelid shape estimation using eye pose measurement |
US20170053166A1 (en) * | 2015-08-21 | 2017-02-23 | Magic Leap, Inc. | Eyelid shape estimation |
US20170109580A1 (en) * | 2015-10-16 | 2017-04-20 | Magic Leap, Inc. | Eye pose identification using eye features |
Non-Patent Citations (1)
Title |
---|
SUMAN SEDAI ET AL.: "Segmentation of Optic Disc and Optic Cup in Retinal Fundus Images using Shape Regression", 2016 38TH ANNUAL INTERNATIONAL CONFERENCE OF THE IEEE ENGINEERING IN MEDICINE AND BIOLOGY SOCIETY(EM, JPN6023038239, 20 August 2016 (2016-08-20), ISSN: 0005152415 * |
Also Published As
Publication number | Publication date |
---|---|
CN111033442A (zh) | 2020-04-17 |
KR20200044835A (ko) | 2020-04-29 |
CA3071819A1 (en) | 2019-03-07 |
CN111033442B (zh) | 2024-07-02 |
JP2021501385A (ja) | 2021-01-14 |
EP3676688A1 (en) | 2020-07-08 |
JP7178403B2 (ja) | 2022-11-25 |
AU2017430168A1 (en) | 2020-02-20 |
KR102209595B1 (ko) | 2021-01-28 |
WO2019045750A1 (en) | 2019-03-07 |
JP7538186B2 (ja) | 2024-08-21 |
IL272360A (en) | 2020-03-31 |
EP3676688A4 (en) | 2021-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7538186B2 (ja) | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル | |
US11227158B2 (en) | Detailed eye shape model for robust biometric applications | |
JP7399210B2 (ja) | ヘッドマウントディスプレイシステムの装着者の眼の眼画像を処理するための方法 | |
JP6917444B2 (ja) | 角膜曲率を用いた虹彩境界推定 | |
JP7542563B2 (ja) | 眼追跡待ち時間向上 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240119 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240418 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240509 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240808 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7538186 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |