JP6918781B2 - 眼ポーズ測定を用いた眼瞼形状推定 - Google Patents
眼ポーズ測定を用いた眼瞼形状推定 Download PDFInfo
- Publication number
- JP6918781B2 JP6918781B2 JP2018509551A JP2018509551A JP6918781B2 JP 6918781 B2 JP6918781 B2 JP 6918781B2 JP 2018509551 A JP2018509551 A JP 2018509551A JP 2018509551 A JP2018509551 A JP 2018509551A JP 6918781 B2 JP6918781 B2 JP 6918781B2
- Authority
- JP
- Japan
- Prior art keywords
- eye
- eyelid
- pose
- eyelid shape
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 210000000744 eyelid Anatomy 0.000 title claims description 457
- 238000005259 measurement Methods 0.000 title claims description 10
- 238000000034 method Methods 0.000 claims description 210
- 238000013507 mapping Methods 0.000 claims description 154
- 210000001747 pupil Anatomy 0.000 claims description 34
- 239000011159 matrix material Substances 0.000 claims description 33
- 230000001052 transient effect Effects 0.000 claims description 23
- 238000013528 artificial neural network Methods 0.000 claims description 21
- 230000000877 morphologic effect Effects 0.000 claims description 8
- 230000001179 pupillary effect Effects 0.000 claims description 6
- 238000000611 regression analysis Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 description 53
- 238000012549 training Methods 0.000 description 44
- 230000006870 function Effects 0.000 description 41
- 230000008569 process Effects 0.000 description 20
- 230000011218 segmentation Effects 0.000 description 16
- 238000004422 calculation algorithm Methods 0.000 description 13
- 238000000605 extraction Methods 0.000 description 7
- 238000003708 edge detection Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000009472 formulation Methods 0.000 description 4
- 239000000203 mixture Substances 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000013179 statistical model Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000012892 rational function Methods 0.000 description 3
- 230000000284 resting effect Effects 0.000 description 3
- 230000002441 reversible effect Effects 0.000 description 3
- 241000256837 Apidae Species 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000000354 decomposition reaction Methods 0.000 description 2
- 210000000613 ear canal Anatomy 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 210000003786 sclera Anatomy 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000004321 blink reflex Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 210000004087 cornea Anatomy 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
- 230000028327 secretion Effects 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000008733 trauma Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/422—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Optics & Photonics (AREA)
- Computer Security & Cryptography (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
Description
本願は、米国仮出願第62/208,519号(2015年8月21日出願、名称「EYELID SHAPE ESTIMATION USING EYE POSE MEASUREMENT」)の米国特許法§119(e)に基づく利益を主張し、上記出願は、その全体が参照により本明細書に引用される。
本開示は、概して、眼画像を処理するためのシステムおよび方法、より具体的には、眼ポーズ測定を使用して眼瞼形状を推定するためのシステムおよび方法に関する。
本発明は、例えば、以下を提供する。
(項目1)
眼瞼形状推定のための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
エッジ検出器を使用して眼の瞳孔境界を検出することと、
前記瞳孔境界を使用して前記眼の眼ポーズを決定することであって、
前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備え、
前記眼ポーズ座標系と眼瞼形状座標系との間の関数関係は、マッピング行列を備え、
前記眼瞼形状座標系は、前記眼の水平シフト、垂直シフト、および曲率を備えている、
ことと、
前記眼ポーズと前記関数関係とに少なくとも部分的に基づいて、前記眼の眼瞼形状を推定することと、
前記眼瞼形状に基づいて、前記眼の眼瞼形状の放物曲線を適合させることと
を含む、方法。
(項目2)
前記放物曲線を適合させることは、前記放物曲線の曲率が正であり、かつ前記眼瞼が前記眼の上眼瞼である場合、または、前記放物曲線の曲率が負であり、かつ前記眼瞼が下眼瞼である場合、前記眼瞼形状に基づいて、前記眼の眼瞼の新しい放物曲線を適合させることを含む、項目1に記載の方法。
(項目3)
前記エッジ検出器を使用して前記眼の瞳孔境界を検出することに先立って、眼画像にモルフォロジカルフィルタを適用することをさらに含む、項目1に記載の方法。
(項目4)
前記エッジ検出器は、Cannyエッジ検出器を備えている、項目1に記載の方法。
(項目5)
前記マッピング行列は、眼瞼形状および眼ポーズの回帰分析によって決定される、項目1に記載の方法。
(項目6)
項目1−5のうちのいずれか1項に記載の方法を実施するようにプログラムされているハードウェアプロセッサ。
(項目7)
眼瞼形状推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
項目6に記載のハードウェアプロセッサと、
前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像捕捉デバイスと
を備えている、装着可能ディスプレイシステム。
(項目8)
前記ハードウェアプロセッサは、前記眼のバイオメトリック情報を決定するようにさらにプログラムされている、項目7に記載の装着可能ディスプレイシステム。
(項目9)
ヘッドマウントディスプレイシステムであって、前記ヘッドマウントディスプレイシステムは、
眼画像を捕捉するように構成されている画像捕捉デバイスと、
眼瞼形状マッピングモデルを記憶するように構成されている非一過性メモリと、
前記非一過性メモリと通信しているハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記画像捕捉デバイスから前記眼画像を受信することと、
前記眼画像内の眼の眼ポーズを決定することと、
前記眼ポーズと前記眼瞼形状マッピングモデルとに少なくとも部分的に基づいて、前記眼の眼瞼形状を推定することと
を行うようにプログラムされており、
前記眼瞼形状マッピングモデルは、前記眼瞼形状を前記眼ポーズに関連付ける、ヘッドマウントディスプレイシステム。
(項目10)
前記眼ポーズは、前記眼の静止向きに対する前記眼の方位角および天頂角の測定値を備えている、項目9に記載のヘッドマウントディスプレイシステム。
(項目11)
前記眼瞼形状は、前記眼の水平シフト、垂直シフト、および曲率の決定を備えている、項目9−10のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
(項目12)
前記眼瞼形状マッピングモデルは、前記眼ポーズと前記眼瞼形状との間のパラメトリック関係を備えている、項目9−11のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
(項目13)
前記パラメトリック関係は、放物線または多項式を備えている、項目12に記載のヘッドマウントディスプレイシステム。
(項目14)
前記眼瞼形状マッピングモデルは、ニューラルネットワークを備えている、項目9−11のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
(項目15)
前記ハードウェアプロセッサは、前記眼瞼形状を使用して前記眼のバイオメトリックデータを決定するようにさらにプログラムされている、項目9−14のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
(項目16)
眼瞼形状推定のための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
眼画像内の眼の眼ポーズを決定することと、
前記眼ポーズに基づいて、眼瞼形状を推定することと
を含む、方法。
(項目17)
前記眼ポーズは、前記眼の静止向きからの前記眼の少なくとも2つの角度偏差を備えている、項目16に記載の方法。
(項目18)
前記眼瞼形状を推定することは、眼瞼形状マッピングモデルを前記眼ポーズに適用することを含む、項目16に記載の方法。
(項目19)
前記眼瞼形状マッピングモデルは、前記眼ポーズと前記眼瞼形状との間のパラメトリック関係を備えている、項目18に記載の方法。
(項目20)
前記眼瞼形状は、多項式によって表される、項目19に記載の方法。
(項目21)
前記眼瞼形状マッピングモデルは、ニューラルネットワークを備えている、項目20に記載の方法。
(項目22)
前記眼瞼形状に基づいて前記眼ポーズを再決定することと、
前記決定された眼ポーズと前記再決定された眼ポーズとの一致を検証することと
をさらに含む、項目16に記載の方法。
(項目23)
項目16−22のうちのいずれか1項に記載の方法を実施するようにプログラムされているハードウェアプロセッサ。
(項目24)
眼瞼形状推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
項目23に記載のハードウェアプロセッサと、
前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像デバイスと
を備えている、装着可能ディスプレイシステム。
(項目25)
眼瞼形状推定のための眼瞼形状マッピングモデルを訓練する方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
眼瞼形状を眼ポーズに関連付ける訓練データにアクセスすることと、
前記訓練データに基づいて眼瞼形状マッピングモデルを訓練することと、
前記訓練された眼瞼形状マッピングモデルを出力することと
含む、方法。
(項目26)
複数の方向に向いている眼の複数の画像を備えている眼画像データを取得することと、
前記訓練データを決定するために、前記眼画像データを分析することと、
をさらに含む、項目25に記載の方法。
(項目27)
前記眼画像データを分析することは、右眼の水平に反射された鏡像および左眼の画像、または、左眼の水平に反射された鏡像および右眼の画像を備えている眼画像データを生成することを含む、項目26に記載の方法。
(項目28)
前記訓練データに基づいて前記眼瞼形状マッピングモデルを訓練することは、統計モデルまたはニューラルネットワークを前記訓練データに適用することを含む、項目26に記載の方法。
(項目29)
眼ポーズ推定のための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
エッジ検出器を使用して、眼の眼瞼と前記眼の虹彩との間の境界を検出することと、
前記眼の眼瞼と前記眼の虹彩との間の前記境界を使用して、前記眼の眼瞼形状を決定することであって、
前記眼瞼形状の眼瞼形状座標系は、前記眼の水平シフト、垂直シフト、および曲率を備え、
前記眼瞼形状座標系と眼ポーズ形状座標系との間の関数関係は、マッピング行列を備え、
前記眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位偏向角および天頂偏向角を備えている
ことと、
前記眼瞼形状と前記関数関係とに少なくとも部分的に基づいて、前記眼の眼ポーズを推定することと
を含む、方法。
(項目30)
前記眼の眼瞼形状を決定することは、放物曲線を前記眼の眼瞼と前記眼の虹彩との間の前記境界に適合させることを含む、項目29に記載の方法。
(項目31)
前記エッジ検出器を使用して前記眼の眼瞼と前記眼の虹彩との間の前記境界を検出することに先立って、眼画像にモルフォロジカルフィルタを適用することをさらに含む、項目29に記載の方法。
(項目32)
前記エッジ検出器は、Cannyエッジ検出器を備えている、項目29に記載の方法。
(項目33)
前記マッピング行列は、眼ポーズおよび眼瞼形状の回帰分析によって決定される、項目29に記載の方法。
(項目34)
項目29−33のうちのいずれか1項に記載の方法を実施するようにプログラムされているハードウェアプロセッサ。
(項目35)
眼ポーズ推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
項目34に記載のハードウェアプロセッサと、
前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像デバイスと
を備えている、装着可能ディスプレイシステム。
(項目36)
前記ハードウェアプロセッサは、前記眼のバイオメトリック情報を決定するようにさらにプログラムされている、項目35に記載の装着可能ディスプレイシステム。
(項目37)
前記バイオメトリック情報は、前記眼の虹彩コードを備えている、項目36に記載の装着可能ディスプレイシステム。
(項目38)
ヘッドマウントディスプレイシステムであって、前記ヘッドマウントディスプレイシステムは、
眼画像を捕捉するように構成されている画像捕捉デバイスと、
眼ポーズマッピングモデルを記憶するように構成されている非一過性メモリと、
前記非一過性メモリと通信しているハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記画像捕捉デバイスから前記眼画像を受信することと、
前記眼画像内の眼の眼瞼形状を決定することと、
前記眼瞼形状と前記眼ポーズマッピングモデルとに少なくとも部分的に基づいて、前記眼の眼ポーズを推定することと
を行うようにプログラムされており、
前記眼ポーズ形状マッピングモデルは、前記眼瞼形状を前記眼ポーズに関連付ける、ヘッドマウントディスプレイシステム。
(項目39)
前記眼ポーズは、前記眼の静止向きに対する前記眼の方位角および天頂角の測定値を備えている、項目38に記載のヘッドマウントディスプレイシステム。
(項目40)
前記眼瞼形状は、前記眼の水平シフト、垂直シフト、および曲率の決定を備えている、項目38に記載のヘッドマウントディスプレイシステム。
(項目41)
前記眼ポーズマッピングモデルは、前記眼瞼形状と前記眼ポーズとの間のパラメトリック関係を備えている、項目38に記載のヘッドマウントディスプレイシステム。
(項目42)
前記パラメトリック関係は、放物線を備えている、項目38に記載のヘッドマウントディスプレイシステム。
(項目43)
前記眼ポーズマッピングモデルは、ニューラルネットワークを備えている、項目38に記載のヘッドマウントディスプレイシステム。
(項目44)
前記ハードウェアプロセッサは、前記眼ポーズを使用して前記眼のバイオメトリックデータを決定するようにさらにプログラムされている、項目38に記載のヘッドマウントディスプレイシステム。
(項目45)
前記バイオメトリックデータは、前記眼の虹彩コードを備えている、項目44に記載のヘッドマウントディスプレイシステム。
(項目46)
眼ポーズ推定のための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
眼画像内の眼の眼瞼形状を決定することと、
前記眼瞼形状に少なくとも部分的に基づいて、眼ポーズを推定することと
を含む、方法。
(項目47)
前記眼ポーズは、前記眼の静止向きからの前記眼の少なくとも2つの角度偏差を備えている、項目46に記載の方法。
(項目48)
前記眼ポーズを推定することは、眼ポーズマッピングモデルを前記眼瞼形状に適用することを含む、項目46に記載の方法。
(項目49)
前記眼ポーズマッピングモデルは、前記眼瞼形状と前記眼ポーズとの間のパラメトリック関係を備えている、項目48に記載の方法。
(項目50)
前記眼瞼形状は、多項式によって表される、項目49に記載の方法。
(項目51)
前記眼瞼形状マッピングモデルは、ニューラルネットワークを備えている、項目50に記載の方法。
(項目52)
前記眼ポーズに基づいて前記眼瞼形状を再決定することと、
前記決定された眼瞼形状と前記再決定された眼瞼形状との一致を検証することと
をさらに含む、項目46に記載の方法。
(項目53)
項目46−52のうちのいずれか1項に記載の方法を実施するようにプログラムされているハードウェアプロセッサ。
(項目54)
眼ポーズ推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
項目53に記載のハードウェアプロセッサと、
前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像デバイスと
を備えている、装着可能ディスプレイシステム。
(項目55)
眼ポーズ推定のための眼ポーズマッピングモデルを訓練する方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
眼瞼形状を眼ポーズに関連付ける訓練データにアクセスすることと、
前記訓練データに基づいて眼ポーズマッピングモデルを訓練することと、
前記訓練された眼ポーズマッピングモデルを出力することと
を含む、方法。
(項目56)
複数の方向に向いている眼の複数の画像を備えている眼画像データを取得することと、
前記訓練データを決定するために、前記眼画像データを分析することと
をさらに含む、項目55に記載の方法。
(項目57)
前記眼画像データを分析することは、右眼の水平に反射された鏡像および左眼の画像、または、左眼の水平に反射された鏡像および右眼の画像を備えている眼画像データを生成することを含む、項目56に記載の方法。
(項目58)
前記訓練データに基づいて眼ポーズマッピングモデルを訓練することは、統計モデルまたはニューラルネットワークを前記訓練データに適用することを含む、項目56−57のうちのいずれか1項に記載の方法。
眼からバイオメトリック情報を抽出することは、概して、眼画像内の虹彩のセグメント化のためのプロシージャを含む。虹彩セグメント化は、虹彩境界を見つけることを含む動作を伴うことができ、虹彩境界を見つけることは、虹彩の瞳孔および縁郭境界を見出すこと、上眼瞼または下眼瞼が虹彩を閉塞する場合、それらを見つけること、睫毛の閉塞、陰影、または反射を検出し、除外すること等を含む。例えば、眼画像は、顔の画像内に含まれることができるか、または、眼周囲領域の画像であり得る。虹彩セグメント化を実施するために、瞳孔(虹彩の内部境界)および縁郭(虹彩の外部境界)の両方の境界は、画像データの別個のセグメントとして識別されることができる。虹彩のこのセグメント化に加えて、眼瞼(上側または下側)によって閉塞される虹彩の部分が、推定されることができる。この推定は、通常の人間の活動中、人物の虹彩全体が可視であることは殆どないので、実施される。言い換えると、虹彩全体は、概して、眼瞼の閉塞を免れない。
図1は、眼瞼104、強膜108(眼の「白眼」)、虹彩112、および瞳孔116を伴う、眼100の画像を図示する。曲線116aは、瞳孔116と虹彩112との間の瞳孔境界を示し、曲線112aは、虹彩112と強膜108との間の縁郭境界を示す。眼瞼104は、上眼瞼104aと、下眼瞼104bとを含む。眼100は、自然静止ポーズ(例えば、ユーザの顔および注視の両方が、それらがユーザの直前の遠隔の物体に向かうであろうように向けられている)において図示される。眼100の自然静止ポーズは、自然静止方向120によって示されることができ、自然静止方向は、自然静止ポーズにあるとき、眼100の表面に直交する(例えば、図1に示される眼100に対する平面から真っ直ぐな)方向であり、この例では、瞳孔116内の中心に置かれる。
図2は、例示的眼瞼形状推定ルーチン200のフロー図である。眼瞼形状推定ルーチン200は、ハードウェアプロセッサ等のプロセッサによって実装されることができる。眼瞼形状推定は、眼瞼形状検出とも称され得る。ルーチン200が、ブロック204において開始される。ブロック208において、眼画像が、受信される。眼画像は、例えば、画像捕捉デバイス、ヘッドマウントディスプレイシステム、サーバ、非一過性コンピュータ読み取り可能な媒体、またはクライアントコンピューティングデバイス(例えば、スマートフォン)を含む種々の源から受信されることができる。いくつかの実装では、眼画像は、ビデオから抽出されることができる。
図3は、上記の図2に説明される眼瞼形状推定ルーチンを使用する、眼瞼形状推定の例を図式的に例証する。例えば、図3は、眼瞼形状が、眼ポーズマッピングに基づいて、眼瞼形状であるべきと決定される曲線に適合させられるときのブロック220における結果を図示する。図3に描写されるように、放物線適合線128aは、上眼瞼104aに適合することができ、放物線適合線128cは、下眼瞼104bに適合することができる。いくつかの場合では、複数の放物線適合線が、ルーチン200によってマッピングされる。例えば、異なる回帰または統計的決定が、マッピング行列Aを決定するために使用されることができる。故に、図示されるように、放物線適合線128bが、上眼瞼104aの別の適合を示し、放物線適合線128dが、下眼瞼104bの別の適合を示す。
以下の疑似コードは、眼瞼形状推定プロセスの別の例を提供する。プロセスは、眼画像で開始される。
(1)眼画像のデータ組Dを収集する。
(2)各画像に対して、
(2a)ユーザの頭部のフレーム内の眼の眼ポーズ決定
(2b)眼瞼への最良適合を算出し、この適合に対する眼瞼関数パラメータ
(3)パラメータ{aij}を伴うマッピング行列Aを仮定し、訓練データをモデル
(4)眼画像に対して、頭部座標における眼の眼ポーズ決定
(5)行列Aを使用し、モデル
(6)以下のうちの一方または両方を実施する。
(6a)対応する眼瞼に対して
(6b)眼瞼関数パラメータ
眼瞼形状推定を使用するシステムおよび方法は、ビデオ画像の文脈内で対処されると、画像処理における古典的問題の多くが改善されることを可能にする。加えて、他の問題も、対処されることができる。例えば、眼瞼形状推定は、ビデオからの画像分類(例えば、眼の虹彩を識別すること)のために、ならびにビデオの1つ以上のフレーム内の特定の物体タイプの位置特定(例えば、上眼瞼の場所)のために使用されることができる。別の例として、眼瞼形状推定は、眼追跡の用途(例えば、眼の向きまたは方向を決定すること)のためにビデオに適用されることができる。
種々の実施形態では、眼瞼形状に基づく眼ポーズ推定のためのルーチンは、ルーチン200(眼瞼形状が眼ポーズから推定される)と同様に実施されることができる。例えば、眼画像の眼ポーズがブロック212において決定されるのではなく、眼瞼形状が、眼画像を使用して、ブロック212において決定されることができる。眼瞼形状は、パラメータ的に(例えば、放物線パラメータ化のために(u,v,k)として)表されることができる。眼ポーズ(例えば、角度(θ,φ))は、眼瞼のパラメトリック表現の関数として決定されることができる。例えば、眼ポーズ角度は、眼瞼形状パラメータの関数形式(例えば、線形、二次、多項式、またはその他)として推定されることができる。実際には、式(2)を参照して説明される技法の逆が、眼瞼形状決定から眼ポーズを推定するために使用されることができる。いくつかの実装では、眼瞼形状は、推定された眼ポーズ方向を使用して再決定されることができ、初期眼瞼形状と再決定された眼瞼形状との間の比較が、眼ポーズ推定の一貫性を検証するために実施されることができる。例えば、再決定された眼瞼形状が、初期眼瞼形状決定と実質的に同一である(例えば、ある閾値差よりも小さい)場合、眼ポーズ推定値は、正確である可能性が高い。
図5は、上記の図4に説明される眼ポーズ推定ルーチンを使用する、眼ポーズ推定の例を図式的に例証する。例えば、図4は、眼ポーズが、眼瞼マッピングに基づいて推定されるときのブロック420における結果を図示する。図5に描写されるように、放物線適合線128aが、上眼瞼104aに適合することができ、放物線適合線128cが、下眼瞼104bに適合することができる。放物線適合線128aおよび放物線適合線128bのうちの一方または両方が、眼ポーズを推定するために使用されることができる。例えば、放物線適合線128aは、眼ポーズ124aを推定するために使用されることができ、放物線適合線128bは、眼ポーズ124bを推定するために使用されることができる。別の例として、放物線適合線128aおよび放物線適合線128bは、眼ポーズ124aを推定するために使用されることができる。複数の眼ポーズが、1つの眼瞼形状からルーチン400によって推定されることができる。例えば、2つの異なる回帰または統計的決定が、マッピング行列Bおよびマッピング行列B’を決定するために使用されることができる。マッピング行列Bは、眼ポーズ124aを推定するために使用されることができ、マッピング行列B’は、眼ポーズ124bを推定するために使用されることができる。
眼ポーズ推定を使用するシステムおよび方法は、ビデオ画像の文脈内で対処されると、画像処理における古典的問題の多くが改善されることを可能にする。加えて、他の問題も、対処されることができる。例えば、眼ポーズ推定は、ビデオからの画像分類(例えば、眼の虹彩を識別すること)のために、ならびにビデオの1つ以上のフレーム内の特定の物体タイプ(例えば、虹彩の場所)の位置特定のために使用されることができる。別の例として、眼ポーズ推定は、眼追跡の用途(例えば、眼の向きまたは方向を決定すること)のためにビデオに適用されることができる。
いくつかの実施形態では、ディスプレイシステムは、装着可能であり得、それは、有利なこととして、より没入型の仮想現実(VR)、拡張現実(AR)、または複合現実(MR)体験を提供し得、デジタル的に再現された画像またはその一部が、それらが現実のように見える、または現実として知覚され得る様式で装着者に提示される。
本明細書に説明される眼瞼形状推定技法は、眼の画像を処理するために、眼の(例えば、ビデオからの)画像に適用されることができる。
本明細書に説明される、ならびに/または添付される図に描写されるプロセス、方法、およびアルゴリズムの各々は、具体的かつ特定のコンピュータ命令を実行するように構成される1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータプロセッサ、特定用途向け回路、および/もしくは電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全もしくは部分的に自動化され得る。例えば、コンピューティングシステムは、特定のコンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされる、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特定の回路によって実施され得る。
Claims (45)
- 眼瞼形状推定のための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
エッジ検出器を使用して眼の瞳孔境界を検出することと、
前記瞳孔境界を使用して前記眼の眼ポーズを決定することであって、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備え、前記眼ポーズ座標系と眼瞼形状座標系との間の関数関係は、マッピング行列を備え、前記眼瞼形状座標系は、前記眼の眼瞼の水平シフト、垂直シフト、曲率を備えている、ことと、
前記眼ポーズと前記関数関係とに少なくとも部分的に基づいて、前記眼の眼瞼形状を推定することと、
前記眼瞼形状に基づいて、前記眼の眼瞼形状の放物曲線を適合させることと
を含む、方法。 - 前記放物曲線を適合させることは、前記放物曲線の曲率が正であり、かつ、前記眼瞼が前記眼の上眼瞼である場合、または、前記放物曲線の曲率が負であり、かつ、前記眼瞼が下眼瞼である場合、前記眼瞼形状に基づいて、前記眼の眼瞼の新しい放物曲線を適合させることを含む、請求項1に記載の方法。
- 前記方法は、前記エッジ検出器を使用して前記眼の瞳孔境界を検出することに先立って、モルフォロジカルフィルタを眼画像に適用することをさらに含む、請求項1に記載の方法。
- 前記エッジ検出器は、Cannyエッジ検出器を備えている、請求項1に記載の方法。
- 前記マッピング行列は、眼瞼形状および眼ポーズの回帰分析によって決定される、請求項1に記載の方法。
- 請求項1〜5のうちのいずれか1項に記載の方法を実行するようにプログラムされているハードウェアプロセッサ。
- 眼瞼形状推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
請求項3に記載の方法を実行するようにプログラムされているハードウェアプロセッサと、
前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像捕捉デバイスと
を備えている、装着可能ディスプレイシステム。 - 前記ハードウェアプロセッサは、前記眼のバイオメトリック情報を決定するようにさらにプログラムされている、請求項7に記載の装着可能ディスプレイシステム。
- ヘッドマウントディスプレイシステムであって、前記ヘッドマウントディスプレイシステムは、
眼画像を捕捉するように構成されている画像捕捉デバイスと、
眼瞼形状マッピングモデルを記憶するように構成されている非一過性メモリと、
前記非一過性メモリと通信するハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
眼の瞳孔境界を決定することと、
前記決定された瞳孔境界を使用して前記眼画像内の眼の眼ポーズを決定することであって、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備え、前記眼ポーズ座標系と眼瞼形状座標系との間の関数関係は、前記眼瞼形状マッピングモデルを備え、前記眼瞼形状座標系は、前記眼の眼瞼の水平シフト、垂直シフト、曲率を備えている、ことと、
前記眼ポーズと前記眼瞼形状マッピングモデルとに少なくとも部分的に基づいて、前記眼の眼瞼形状を推定することと
を行うようにプログラムされており、
前記眼瞼形状マッピングモデルは、前記眼瞼形状を前記眼ポーズに関連付ける、ヘッドマウントディスプレイシステム。 - 前記眼瞼形状マッピングモデルは、前記眼ポーズと前記眼瞼形状との間のパラメトリック関係を備えている、請求項9に記載のヘッドマウントディスプレイシステム。
- 前記パラメトリック関係は、放物線または多項式を備えている、請求項10に記載のヘッドマウントディスプレイシステム。
- 前記眼瞼形状マッピングモデルは、ニューラルネットワークを備えている、請求項9に記載のヘッドマウントディスプレイシステム。
- 前記ハードウェアプロセッサは、前記眼瞼形状を使用して前記眼のバイオメトリックデータを決定するようにさらにプログラムされている、請求項9〜12のうちのいずれか1項に記載のヘッドマウントディスプレイシステム。
- 眼瞼形状推定のための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
眼画像内の眼の眼ポーズを決定することであって、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備える、ことと、
前記眼ポーズに基づいて、眼瞼形状を推定することと
を含む、方法。 - 前記眼ポーズは、前記眼の静止向きからの前記眼の少なくとも2つの角度偏差を備えている、請求項14に記載の方法。
- 前記眼瞼形状を推定することは、眼瞼形状マッピングモデルを前記眼ポーズに適用することを含む、請求項14に記載の方法。
- 前記眼瞼形状マッピングモデルは、前記眼ポーズと前記眼瞼形状との間のパラメトリック関係を備えている、請求項16に記載の方法。
- 前記眼瞼形状は、多項式によって表される、請求項17に記載の方法。
- 前記眼瞼形状マッピングモデルは、ニューラルネットワークを備えている、請求項18に記載の方法。
- 前記眼瞼形状に基づいて前記眼ポーズを再決定することと、
前記決定された眼ポーズと前記再決定された眼ポーズとの一致を検証することと
をさらに含む、請求項14に記載の方法。 - 請求項14〜20のうちのいずれか1項に記載の方法を実行するようにプログラムされているハードウェアプロセッサ。
- 眼瞼形状推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
請求項21に記載のハードウェアプロセッサと、
前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像デバイスと
を備えている、装着可能ディスプレイシステム。 - 眼ポーズ推定のための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
エッジ検出器を使用して、眼の眼瞼と前記眼の虹彩との間の境界を検出することと、
前記眼の眼瞼と前記眼の虹彩との間の前記境界を使用して、前記眼の眼瞼形状を決定することであって、前記眼瞼形状の眼瞼形状座標系は、前記眼瞼の水平シフト、垂直シフト、曲率を備え、前記眼瞼形状座標系と眼ポーズ座標系との間の関数関係は、マッピング行列を備え、前記眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位偏向角および天頂偏向角を備えている、ことと、
前記眼瞼形状と前記関数関係とに少なくとも部分的に基づいて、前記眼の眼ポーズを推定することと
を含む、方法。 - 前記眼の眼瞼形状を決定することは、放物曲線を前記眼の眼瞼と前記眼の虹彩との間の前記境界に適合させることを含む、請求項23に記載の方法。
- 前記エッジ検出器を使用して前記眼の眼瞼と前記眼の虹彩との間の前記境界を検出することに先立って、モルフォロジカルフィルタを眼画像に適用することをさらに含む、請求項23に記載の方法。
- 前記エッジ検出器は、Cannyエッジ検出器を備えている、請求項23に記載の方法。
- 前記マッピング行列は、眼ポーズおよび眼瞼形状の回帰分析によって決定される、請求項23に記載の方法。
- 請求項23〜27のうちのいずれか1項に記載の方法を実行するようにプログラムされているハードウェアプロセッサ。
- 眼ポーズ推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
請求項25に記載の方法を実行するようにプログラムされているハードウェアプロセッサと、
前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像デバイスと
を備えている、装着可能ディスプレイシステム。 - 前記ハードウェアプロセッサは、前記眼のバイオメトリック情報を決定するようにさらにプログラムされている、請求項29に記載の装着可能ディスプレイシステム。
- 前記バイオメトリック情報は、前記眼の虹彩コードを備えている、請求項30に記載の装着可能ディスプレイシステム。
- ヘッドマウントディスプレイシステムであって、前記ヘッドマウントディスプレイシステムは、
眼画像を捕捉するように構成されている画像捕捉デバイスと、
眼ポーズマッピングモデルを記憶するように構成されている非一過性メモリと、
前記非一過性メモリと通信するハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記画像捕捉デバイスから前記眼画像を受信することと、
前記眼画像内の眼の眼瞼形状を決定することと、
前記眼瞼形状と前記眼ポーズマッピングモデルとに少なくとも部分的に基づいて、前記眼の眼ポーズを推定することと
を行うようにプログラムされており、
前記眼ポーズマッピングモデルは、前記眼瞼形状を前記眼ポーズに関連付け、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備え、
前記眼ポーズマッピングモデルは、前記眼瞼形状と前記眼ポーズとの間のパラメトリック関係を備えている、ヘッドマウントディスプレイシステム。 - 前記眼ポーズは、前記眼の静止向きに対する前記眼の方位角および天頂角の測定値を備えている、請求項32に記載のヘッドマウントディスプレイシステム。
- 前記眼瞼形状は、前記眼の眼瞼の水平シフト、垂直シフト、曲率の決定を備えている、請求項32に記載のヘッドマウントディスプレイシステム。
- 前記パラメトリック関係は、放物線を備えている、請求項32に記載のヘッドマウントディスプレイシステム。
- ヘッドマウントディスプレイシステムであって、前記ヘッドマウントディスプレイシステムは、
眼画像を捕捉するように構成されている画像捕捉デバイスと、
眼ポーズマッピングモデルを記憶するように構成されている非一過性メモリと、
前記非一過性メモリと通信するハードウェアプロセッサと
を備え、
前記ハードウェアプロセッサは、
前記画像捕捉デバイスから前記眼画像を受信することと、
前記眼画像内の眼の眼瞼形状を決定することと、
前記眼瞼形状と前記眼ポーズマッピングモデルとに少なくとも部分的に基づいて、前記眼の眼ポーズを推定することと
を行うようにプログラムされており、
前記眼ポーズマッピングモデルは、前記眼瞼形状を前記眼ポーズに関連付け、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備え、
前記眼ポーズマッピングモデルは、ニューラルネットワークを備えている、ヘッドマウントディスプレイシステム。 - 前記ハードウェアプロセッサは、前記眼ポーズを使用して前記眼のバイオメトリックデータを決定するようにさらにプログラムされている、請求項32に記載のヘッドマウントディスプレイシステム。
- 前記バイオメトリックデータは、前記眼の虹彩コードを備えている、請求項37に記載のヘッドマウントディスプレイシステム。
- 眼ポーズ推定のための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
眼画像内の眼の眼瞼形状を決定することと、
前記眼瞼形状に少なくとも部分的に基づいて、眼ポーズを推定することであって、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備える、ことと
を含み、
前記眼ポーズを推定することは、眼ポーズマッピングモデルを前記眼瞼形状に適用することを含み、
前記眼ポーズマッピングモデルは、前記眼瞼形状と前記眼ポーズとの間のパラメトリック関係を備えている、方法。 - 前記眼ポーズは、前記眼の静止向きからの前記眼の少なくとも2つの角度偏差を備えている、請求項39に記載の方法。
- 前記眼瞼形状は、多項式によって表される、請求項39に記載の方法。
- 前記眼ポーズマッピングモデルは、ニューラルネットワークを備えている、請求項41に記載の方法。
- 眼ポーズ推定のための方法であって、前記方法は、
ハードウェアプロセッサの制御下で、
眼画像内の眼の眼瞼形状を決定することと、
前記眼瞼形状に少なくとも部分的に基づいて、眼ポーズを推定することであって、前記眼ポーズの眼ポーズ座標系は、前記眼の静止向きに対する前記眼の方位角および天頂角を備える、ことと、
前記眼ポーズに基づいて前記眼瞼形状を再決定することと、
前記決定された眼瞼形状と前記再決定された眼瞼形状との一致を検証することと
を含む、方法。 - 請求項39〜43のうちのいずれか1項に記載の方法を実行するようにプログラムされているハードウェアプロセッサ。
- 眼ポーズ推定のための装着可能ディスプレイシステムであって、前記装着可能ディスプレイシステムは、
請求項44に記載のハードウェアプロセッサと、
前記眼画像を捕捉し、前記眼画像を前記ハードウェアプロセッサに伝送するように構成されている画像デバイスと
を備えている、装着可能ディスプレイシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021120383A JP7231676B2 (ja) | 2015-08-21 | 2021-07-21 | 眼ポーズ測定を用いた眼瞼形状推定 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562208519P | 2015-08-21 | 2015-08-21 | |
US62/208,519 | 2015-08-21 | ||
PCT/US2016/047177 WO2017034860A1 (en) | 2015-08-21 | 2016-08-16 | Eyelid shape estimation using eye pose measurement |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021120383A Division JP7231676B2 (ja) | 2015-08-21 | 2021-07-21 | 眼ポーズ測定を用いた眼瞼形状推定 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018523879A JP2018523879A (ja) | 2018-08-23 |
JP2018523879A5 JP2018523879A5 (ja) | 2019-09-26 |
JP6918781B2 true JP6918781B2 (ja) | 2021-08-11 |
Family
ID=58101125
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018509551A Active JP6918781B2 (ja) | 2015-08-21 | 2016-08-16 | 眼ポーズ測定を用いた眼瞼形状推定 |
JP2021120383A Active JP7231676B2 (ja) | 2015-08-21 | 2021-07-21 | 眼ポーズ測定を用いた眼瞼形状推定 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021120383A Active JP7231676B2 (ja) | 2015-08-21 | 2021-07-21 | 眼ポーズ測定を用いた眼瞼形状推定 |
Country Status (10)
Country | Link |
---|---|
US (3) | US10146997B2 (ja) |
EP (1) | EP3337385A4 (ja) |
JP (2) | JP6918781B2 (ja) |
KR (2) | KR102591552B1 (ja) |
CN (2) | CN112836664A (ja) |
AU (2) | AU2016310451B2 (ja) |
CA (1) | CA2996039A1 (ja) |
IL (1) | IL257485B (ja) |
NZ (1) | NZ740299A (ja) |
WO (1) | WO2017034860A1 (ja) |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112836664A (zh) | 2015-08-21 | 2021-05-25 | 奇跃公司 | 使用眼睛姿态测量的眼睑形状估计 |
AU2016310452B2 (en) * | 2015-08-21 | 2021-04-22 | Magic Leap, Inc. | Eyelid shape estimation |
CA3170014A1 (en) | 2015-10-16 | 2017-04-20 | Magic Leap, Inc. | Eye pose identification using eye features |
KR102442569B1 (ko) | 2016-07-14 | 2022-09-08 | 매직 립, 인코포레이티드 | 각막 곡률을 이용한 홍채 경계 추정 |
KR102648770B1 (ko) | 2016-07-14 | 2024-03-15 | 매직 립, 인코포레이티드 | 홍채 식별을 위한 딥 뉴럴 네트워크 |
KR102529137B1 (ko) | 2016-08-22 | 2023-05-03 | 매직 립, 인코포레이티드 | 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스 |
RU2016138608A (ru) | 2016-09-29 | 2018-03-30 | Мэджик Лип, Инк. | Нейронная сеть для сегментации изображения глаза и оценки качества изображения |
US10489680B2 (en) | 2016-10-04 | 2019-11-26 | Magic Leap, Inc. | Efficient data layouts for convolutional neural networks |
AU2017361061B2 (en) | 2016-11-15 | 2022-02-03 | Magic Leap, Inc. | Deep learning system for cuboid detection |
KR102595171B1 (ko) | 2016-11-16 | 2023-10-26 | 매직 립, 인코포레이티드 | 웨어러블 컴포넌트들을 위한 열 관리 시스템들 |
EP3549109B1 (en) | 2016-12-05 | 2023-04-19 | Magic Leap, Inc. | Virtual user input controls in a mixed reality environment |
EP3355214A1 (de) * | 2017-01-27 | 2018-08-01 | Carl Zeiss Vision International GmbH | Verfahren, recheneinrichtung und computerprogramm zum bereitstellen eines fassungsrandmodells |
US11347054B2 (en) | 2017-02-16 | 2022-05-31 | Magic Leap, Inc. | Systems and methods for augmented reality |
US10657376B2 (en) | 2017-03-17 | 2020-05-19 | Magic Leap, Inc. | Room layout estimation methods and techniques |
CA3058160A1 (en) | 2017-03-30 | 2018-10-04 | Magic Leap, Inc. | Non-blocking dual driver earphones |
AU2018308418A1 (en) | 2017-07-26 | 2020-01-16 | Magic Leap, Inc. | Training a neural network with representations of user interface devices |
CN107633206B (zh) * | 2017-08-17 | 2018-09-11 | 平安科技(深圳)有限公司 | 眼球动作捕捉方法、装置及存储介质 |
JP7178403B2 (ja) * | 2017-09-01 | 2022-11-25 | マジック リープ, インコーポレイテッド | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル |
US10521661B2 (en) | 2017-09-01 | 2019-12-31 | Magic Leap, Inc. | Detailed eye shape model for robust biometric applications |
US10719951B2 (en) | 2017-09-20 | 2020-07-21 | Magic Leap, Inc. | Personalized neural network for eye tracking |
CA3078530A1 (en) | 2017-10-26 | 2019-05-02 | Magic Leap, Inc. | Gradient normalization systems and methods for adaptive loss balancing in deep multitask networks |
US11036843B2 (en) * | 2017-11-24 | 2021-06-15 | Electronics And Telecommunications Research Institute | Biometric information-based authentication method and apparatus |
KR102384748B1 (ko) * | 2017-11-24 | 2022-04-08 | 한국전자통신연구원 | 생체정보 기반의 인증방법 및 장치 |
WO2019111257A1 (en) * | 2017-12-07 | 2019-06-13 | Eyefree Assisting Communication Ltd. | Communication methods and systems |
WO2019118886A1 (en) * | 2017-12-15 | 2019-06-20 | Magic Leap, Inc. | Enhanced pose determination for display device |
IL275822B2 (en) | 2018-01-17 | 2024-02-01 | Magic Leap Inc | Eye center for determining rotation, choosing depth plane and processing camera position in display systems |
CA3088116A1 (en) | 2018-01-17 | 2019-07-25 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and a user's eyes |
IL312231A (en) | 2018-02-06 | 2024-06-01 | Magic Leap Inc | Systems and methods for augmented reality |
CN112513711B (zh) | 2018-07-23 | 2023-03-07 | 奇跃公司 | 用于使用位置向量解析半球模糊度的方法和系统 |
US11567336B2 (en) | 2018-07-24 | 2023-01-31 | Magic Leap, Inc. | Display systems and methods for determining registration between display and eyes of user |
CN109145788B (zh) * | 2018-08-08 | 2020-07-07 | 北京云舶在线科技有限公司 | 基于视频的姿态数据捕捉方法和系统 |
CN109190548B (zh) * | 2018-08-28 | 2021-04-20 | 武汉真元生物数据有限公司 | 基于gabor滤波的快速眼睑检测方法及系统 |
US11103763B2 (en) | 2018-09-11 | 2021-08-31 | Real Shot Inc. | Basketball shooting game using smart glasses |
US11141645B2 (en) | 2018-09-11 | 2021-10-12 | Real Shot Inc. | Athletic ball game using smart glasses |
CN111127537A (zh) * | 2018-10-29 | 2020-05-08 | 托比股份公司 | 用于检测头戴式装置中的阴影的方法和装置 |
CN109717830B (zh) * | 2019-01-22 | 2021-09-17 | 中国科学院苏州生物医学工程技术研究所 | 基于眼动及头动参数监测的疲劳检测及促醒系统 |
JP7431246B2 (ja) | 2019-01-25 | 2024-02-14 | マジック リープ, インコーポレイテッド | 異なる露光時間を有する画像を使用した眼追跡 |
CN114127610A (zh) | 2019-05-20 | 2022-03-01 | 奇跃公司 | 用于估计眼睛姿势的系统和技术 |
CN110956068B (zh) * | 2019-05-29 | 2022-06-10 | 魔门塔(苏州)科技有限公司 | 一种基于人眼状态识别的疲劳检测方法及装置 |
US11327341B2 (en) * | 2019-06-14 | 2022-05-10 | Johnson & Johnson Vision Care, Inc | Toric contact lens stabilization design based on thickness gradients orthogonal to eyelid margin |
US11868525B2 (en) | 2019-07-16 | 2024-01-09 | Magic Leap, Inc. | Eye center of rotation determination with one or more eye tracking cameras |
CN110807364B (zh) * | 2019-09-27 | 2022-09-30 | 中国科学院计算技术研究所 | 三维人脸与眼球运动的建模与捕获方法及系统 |
KR102294029B1 (ko) * | 2019-12-04 | 2021-08-26 | 서울대학교산학협력단 | 동공검출과 눈꺼풀 곡률을 이용한 시선 추적 장치 및 그 방법 |
CN115053270A (zh) | 2019-12-09 | 2022-09-13 | 奇跃公司 | 用于基于用户身份来操作头戴式显示系统的系统和方法 |
KR20210073135A (ko) | 2019-12-10 | 2021-06-18 | 삼성전자주식회사 | 눈 복원 기반의 눈 추적 방법 및 장치 |
JP7545564B2 (ja) | 2020-07-15 | 2024-09-04 | マジック リープ, インコーポレイテッド | 非球面角膜モデルを使用した眼追跡 |
JP7219787B2 (ja) * | 2021-04-09 | 2023-02-08 | 本田技研工業株式会社 | 情報処理装置、情報処理方法、学習方法、およびプログラム |
US20220383502A1 (en) * | 2021-05-28 | 2022-12-01 | Blinktbi, Inc. | Systems and methods for eyelid localization |
WO2023054756A1 (ko) * | 2021-09-29 | 2023-04-06 | 주식회사 아이디랩 | 안검 영역을 검출하는 방법 및 이를 위한 서버 |
CN117860380B (zh) * | 2024-03-11 | 2024-07-30 | 北京壹点灵动科技有限公司 | 膝关节置换的数据处理方法和装置、存储介质及电子设备 |
Family Cites Families (177)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3040466B2 (ja) | 1990-07-17 | 2000-05-15 | ブリテイッシュ・テレコミュニケーションズ・パブリック・リミテッド・カンパニー | 画像処理方法 |
US5291560A (en) | 1991-07-15 | 1994-03-01 | Iri Scan Incorporated | Biometric personal identification system based on iris analysis |
US6222525B1 (en) | 1992-03-05 | 2001-04-24 | Brad A. Armstrong | Image controllers with sheet connected sensors |
US5481479A (en) * | 1992-12-10 | 1996-01-02 | Loral Fairchild Corp. | Nonlinear scanning to optimize sector scan electro-optic reconnaissance system performance |
US6095989A (en) | 1993-07-20 | 2000-08-01 | Hay; Sam H. | Optical recognition methods for locating eyes |
US6463176B1 (en) * | 1994-02-02 | 2002-10-08 | Canon Kabushiki Kaisha | Image recognition/reproduction method and apparatus |
US5583795A (en) * | 1995-03-17 | 1996-12-10 | The United States Of America As Represented By The Secretary Of The Army | Apparatus for measuring eye gaze and fixation duration, and method therefor |
US5670988A (en) | 1995-09-05 | 1997-09-23 | Interlink Electronics, Inc. | Trigger operated electronic device |
US5774591A (en) * | 1995-12-15 | 1998-06-30 | Xerox Corporation | Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images |
US6154559A (en) | 1998-10-01 | 2000-11-28 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | System for classifying an individual's gaze direction |
EP1197094B1 (en) | 1999-07-13 | 2004-02-11 | Surgivision Ltd. | Stereoscopic video observation and image magnification system |
AUPQ896000A0 (en) | 2000-07-24 | 2000-08-17 | Seeing Machines Pty Ltd | Facial image processing system |
US6999612B1 (en) | 2000-08-31 | 2006-02-14 | Nec Laboratories America, Inc. | Method for recovering 3D scene structure and camera motion directly from image intensities |
EP1357831A2 (en) | 2001-02-09 | 2003-11-05 | Sensomotoric Instruments GmbH | Multidimensional eye tracking and position measurement system |
US7505604B2 (en) * | 2002-05-20 | 2009-03-17 | Simmonds Precision Prodcuts, Inc. | Method for detection and recognition of fog presence within an aircraft compartment using video images |
JP3984191B2 (ja) * | 2002-07-08 | 2007-10-03 | 株式会社東芝 | 仮想化粧装置及びその方法 |
JP4128837B2 (ja) | 2002-09-30 | 2008-07-30 | 佐藤 淳 | 路面走行レーン検出装置 |
WO2004089214A2 (en) | 2003-04-11 | 2004-10-21 | Bausch & Lomb Inc. | System and method for acquiring data and aligning and tracking of an eye |
US7379567B2 (en) | 2003-07-17 | 2008-05-27 | Matsushita Electric Industrial Co., Ltd. | Iris code generation method, individual authentication method, iris code entry device, individual authentication device, and individual certification program |
US20050027386A1 (en) | 2003-07-30 | 2005-02-03 | Michele Weigand | Decentralized project management system |
US7664322B1 (en) * | 2003-08-11 | 2010-02-16 | Adobe Systems Incorporated | Feature-based color adjustment |
US7756301B2 (en) * | 2005-01-26 | 2010-07-13 | Honeywell International Inc. | Iris recognition system and method |
US8090157B2 (en) | 2005-01-26 | 2012-01-03 | Honeywell International Inc. | Approaches and apparatus for eye detection in a digital image |
US7593550B2 (en) | 2005-01-26 | 2009-09-22 | Honeywell International Inc. | Distance iris recognition |
US8098901B2 (en) | 2005-01-26 | 2012-01-17 | Honeywell International Inc. | Standoff iris recognition system |
KR20050025927A (ko) | 2003-09-08 | 2005-03-14 | 유웅덕 | 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법 |
US7524064B2 (en) * | 2004-03-09 | 2009-04-28 | Research Foundation Of The State University Of New York | Apparatus and method for assessing retinal damage |
JP4506250B2 (ja) | 2004-04-12 | 2010-07-21 | 日産自動車株式会社 | 上瞼検出装置 |
JP2005334402A (ja) | 2004-05-28 | 2005-12-08 | Sanyo Electric Co Ltd | 認証方法および認証装置 |
USD514570S1 (en) | 2004-06-24 | 2006-02-07 | Microsoft Corporation | Region of a fingerprint scanning device with an illuminated ring |
WO2006017771A1 (en) | 2004-08-06 | 2006-02-16 | University Of Washington | Variable fixation viewing distance scanned light displays |
JP4529635B2 (ja) * | 2004-10-22 | 2010-08-25 | 日産自動車株式会社 | 開閉眼判定装置 |
JP4449723B2 (ja) | 2004-12-08 | 2010-04-14 | ソニー株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US7746235B2 (en) | 2005-03-10 | 2010-06-29 | Delphi Technologies, Inc. | System and method of detecting eye closure based on line angles |
WO2006108017A2 (en) | 2005-04-04 | 2006-10-12 | Lc Technologies, Inc. | Explicit raytracing for gimbal-based gazepoint trackers |
JP5008269B2 (ja) | 2005-04-08 | 2012-08-22 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US7327860B2 (en) | 2005-05-04 | 2008-02-05 | West Virginia University | Conjunctival scans for personal identification |
JP2007011667A (ja) | 2005-06-30 | 2007-01-18 | Matsushita Electric Ind Co Ltd | 虹彩認証装置および虹彩認証方法 |
WO2007025258A2 (en) | 2005-08-25 | 2007-03-01 | Sarnoff Corporation | Methods and systems for biometric identification |
US11428937B2 (en) | 2005-10-07 | 2022-08-30 | Percept Technologies | Enhanced optical and perceptual digital eyewear |
US8696113B2 (en) | 2005-10-07 | 2014-04-15 | Percept Technologies Inc. | Enhanced optical and perceptual digital eyewear |
US20070081123A1 (en) | 2005-10-07 | 2007-04-12 | Lewis Scott W | Digital eyewear |
US8233672B2 (en) | 2007-06-11 | 2012-07-31 | Matos Jeffrey A | Apparatus and method for verifying the identity of an author |
KR100651753B1 (ko) | 2005-11-19 | 2006-12-01 | 한국전자통신연구원 | 객체의 대칭 특성과 모멘트 특성을 이용한 눈 검출 방법 및그 장치 |
US10709610B2 (en) * | 2006-01-20 | 2020-07-14 | Lensar, Inc. | Laser methods and systems for addressing conditions of the lens |
US11090190B2 (en) | 2013-10-15 | 2021-08-17 | Lensar, Inc. | Iris registration method and system |
KR101299074B1 (ko) | 2006-03-03 | 2013-08-30 | 허니웰 인터내셔널 인코포레이티드 | 홍채 인코딩 시스템 |
DE602007007062D1 (de) | 2006-03-03 | 2010-07-22 | Honeywell Int Inc | Iriserkennungssystem mit bildqualitätsmetrik |
US7542210B2 (en) | 2006-06-29 | 2009-06-02 | Chirieleison Sr Anthony | Eye tracking head mounted display |
US8077914B1 (en) | 2006-08-07 | 2011-12-13 | Arkady Kaplan | Optical tracking apparatus using six degrees of freedom |
US7682026B2 (en) * | 2006-08-22 | 2010-03-23 | Southwest Research Institute | Eye location and gaze detection system and method |
WO2008091401A2 (en) | 2006-09-15 | 2008-07-31 | Retica Systems, Inc | Multimodal ocular biometric system and methods |
EP2062197A4 (en) | 2006-09-15 | 2010-10-06 | Retica Systems Inc | MULTIMODAL BIOMETRIC SYSTEM AND METHOD FOR LARGE DISTANCES |
US7970179B2 (en) | 2006-09-25 | 2011-06-28 | Identix Incorporated | Iris data extraction |
JP4895797B2 (ja) | 2006-12-26 | 2012-03-14 | アイシン精機株式会社 | 瞼検出装置、瞼検出方法及びプログラム |
JP4309927B2 (ja) | 2007-03-14 | 2009-08-05 | 株式会社豊田中央研究所 | まぶた検出装置及びプログラム |
JP4309928B2 (ja) | 2007-03-15 | 2009-08-05 | アイシン精機株式会社 | 瞼検出装置、瞼検出方法、及び、プログラム |
JP4307496B2 (ja) | 2007-03-19 | 2009-08-05 | 株式会社豊田中央研究所 | 顔部位検出装置及びプログラム |
WO2008142740A1 (ja) * | 2007-04-16 | 2008-11-27 | Fujitsu Limited | 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム |
FR2915301A1 (fr) * | 2007-04-20 | 2008-10-24 | Groupe Ecoles Telecomm | Procede de comparaison d'images d'une biometrie entre au moi ns une image de reference et au moins une image de test dont on cherche a evaluer un degre de correlation avec l'image d e reference |
EP2143041A4 (en) | 2007-05-01 | 2011-05-25 | Compulink Man Ct Inc | PHOTODOCUMENTEGMENTATION METHOD AND METHOD |
US20100202669A1 (en) | 2007-09-24 | 2010-08-12 | University Of Notre Dame Du Lac | Iris recognition using consistency information |
JP5097514B2 (ja) | 2007-11-22 | 2012-12-12 | 国立大学法人東京工業大学 | ワイヤ電極式イオナイザ |
US20090252382A1 (en) | 2007-12-06 | 2009-10-08 | University Of Notre Dame Du Lac | Segmentation of iris images using active contour processing |
DE102008003906B4 (de) | 2008-01-10 | 2009-11-26 | Rodenstock Gmbh | Verwendung eines Fixationstargets und Vorrichtung |
JP2009169745A (ja) * | 2008-01-17 | 2009-07-30 | Toyota Motor Corp | 閉眼検出装置 |
JP5262243B2 (ja) | 2008-03-31 | 2013-08-14 | アイシン精機株式会社 | 眼開閉判別装置、及びプログラム |
US7883071B2 (en) | 2008-05-21 | 2011-02-08 | Raytheon Company | Methods and apparatus for isolation system |
ATE484804T1 (de) | 2008-06-25 | 2010-10-15 | Deutsche Telekom Ag | System zur extraktion, identifizierung und überprüfung von irismerkmalen auf der basis von directionlets |
WO2010011785A1 (en) * | 2008-07-23 | 2010-01-28 | Indiana University Research & Technology Corporation | System and method for a non-cooperative iris image acquisition system |
JP2010033305A (ja) * | 2008-07-29 | 2010-02-12 | Hitachi Ltd | 画像情報処理方法、及び装置 |
US8345922B2 (en) | 2008-09-03 | 2013-01-01 | Denso Corporation | Apparatus for detecting a pupil, program for the same, and method for detecting a pupil |
WO2010129074A1 (en) | 2009-01-14 | 2010-11-11 | Indiana University Research & Technology Corporation | System and method for identifying a person with reference to a sclera image |
JP5387007B2 (ja) * | 2009-01-22 | 2014-01-15 | 日本電気株式会社 | 画像処理装置、生体認証装置、画像処理方法及びプログラム |
JP5221436B2 (ja) * | 2009-04-02 | 2013-06-26 | トヨタ自動車株式会社 | 顔特徴点検出装置及びプログラム |
US8693745B2 (en) * | 2009-05-04 | 2014-04-08 | Duke University | Methods and computer program products for quantitative three-dimensional image correction and clinical parameter computation in optical coherence tomography |
US8472681B2 (en) | 2009-06-15 | 2013-06-25 | Honeywell International Inc. | Iris and ocular recognition system using trace transforms |
CN102404510B (zh) | 2009-06-16 | 2015-07-01 | 英特尔公司 | 手持装置中的摄像机应用 |
CN101692980B (zh) | 2009-10-30 | 2011-06-08 | 深圳市汉华安道科技有限责任公司 | 疲劳驾驶检测方法及装置 |
US8403479B2 (en) * | 2009-12-17 | 2013-03-26 | Johnson & Johnson Vision Care, Inc. | Contact lens eye model |
US8948467B2 (en) | 2010-08-06 | 2015-02-03 | Honeywell International Inc. | Ocular and iris processing system and method |
US9092371B2 (en) | 2010-09-02 | 2015-07-28 | The Aerospace Corporation | Signal parameter estimator |
KR101697181B1 (ko) | 2010-09-07 | 2017-01-17 | 삼성전자주식회사 | 사용자의 시선 추적을 이용한 영상 처리 장치 및 방법 |
DE102011054833A1 (de) | 2010-10-29 | 2012-05-03 | Hoya Corp. | Verfahren zum Messen der binokularen Sehleistung, Programm zum Messen der binokularen Sehleistung, Verfahren zum Entwerfen von Brillengläsern und Verfahren zur Herstellung von Brillengläsern |
US9304319B2 (en) | 2010-11-18 | 2016-04-05 | Microsoft Technology Licensing, Llc | Automatic focus improvement for augmented reality displays |
CA2822978C (en) | 2010-12-24 | 2019-02-19 | Hong Hua | An ergonomic head mounted display device and optical system |
US10156722B2 (en) | 2010-12-24 | 2018-12-18 | Magic Leap, Inc. | Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality |
JP5402964B2 (ja) | 2011-03-11 | 2014-01-29 | オムロン株式会社 | 相互監視システム、管理装置およびシステム |
JP4893862B1 (ja) | 2011-03-11 | 2012-03-07 | オムロン株式会社 | 画像処理装置、および画像処理方法 |
EP2701122B1 (en) * | 2011-04-19 | 2020-02-26 | Aisin Seiki Kabushiki Kaisha | Eyelid detection device, eyelid detection method, and program |
JP5755012B2 (ja) * | 2011-04-21 | 2015-07-29 | キヤノン株式会社 | 情報処理装置、その処理方法、プログラム及び撮像装置 |
US8755607B2 (en) | 2011-04-28 | 2014-06-17 | Sri International | Method of normalizing a digital image of an iris of an eye |
JP6316186B2 (ja) | 2011-05-06 | 2018-04-25 | マジック リープ, インコーポレイテッドMagic Leap,Inc. | 広範囲同時遠隔ディジタル提示世界 |
US8854491B2 (en) | 2011-06-05 | 2014-10-07 | Apple Inc. | Metadata-assisted image filters |
CN103380625A (zh) | 2011-06-16 | 2013-10-30 | 松下电器产业株式会社 | 头戴式显示器及其位置偏差调整方法 |
DE112011105441B4 (de) * | 2011-07-11 | 2019-11-14 | Toyota Jidosha Kabushiki Kaisha | Augenliderfassungsvorrichtung |
JP5737399B2 (ja) * | 2011-07-11 | 2015-06-17 | トヨタ自動車株式会社 | 赤目判定装置 |
US9213163B2 (en) | 2011-08-30 | 2015-12-15 | Microsoft Technology Licensing, Llc | Aligning inter-pupillary distance in a near-eye display system |
KR20140059213A (ko) | 2011-08-30 | 2014-05-15 | 마이크로소프트 코포레이션 | 홍채 스캔 프로파일링을 이용하는 헤드 마운티드 디스플레이 |
CA2845567C (en) | 2011-09-07 | 2019-05-21 | Improved Vision Systems (I.V.S.) Ltd. | Method and system for treatment of visual impairment |
US10795448B2 (en) | 2011-09-29 | 2020-10-06 | Magic Leap, Inc. | Tactile glove for human-computer interaction |
IL215883A0 (en) | 2011-10-24 | 2012-03-01 | Iriss Medical Technologies Ltd | System and method for indentifying eye conditions |
RU2017115669A (ru) | 2011-10-28 | 2019-01-28 | Мэджик Лип, Инк. | Система и способ для дополненной и виртуальной реальности |
ITVR20110201A1 (it) * | 2011-11-02 | 2013-05-03 | Milano Politecnico | Dispositivo per il monitoraggio della posizione e deimovimenti dell'occhio, particolarmente adatto per la radioterapia oculare |
KR102116697B1 (ko) | 2011-11-23 | 2020-05-29 | 매직 립, 인코포레이티드 | 3차원 가상 및 증강 현실 디스플레이 시스템 |
CN102592260B (zh) | 2011-12-26 | 2013-09-25 | 广州商景网络科技有限公司 | 证照图像裁剪方法及系统 |
US9075453B2 (en) | 2011-12-29 | 2015-07-07 | Khalifa University of Science, Technology & Research (KUSTAR) | Human eye controlled computer mouse interface |
US8958599B1 (en) | 2012-01-06 | 2015-02-17 | Google Inc. | Input method and system based on ambient glints |
JP2013192196A (ja) | 2012-02-16 | 2013-09-26 | Panasonic Corp | カーソル合成装置およびカーソル合成方法 |
CN102629319B (zh) | 2012-03-27 | 2014-02-19 | 中国科学院自动化研究所 | 基于特定边界检测子的鲁棒虹膜区域分割方法 |
KR102028732B1 (ko) | 2012-04-05 | 2019-10-04 | 매직 립, 인코포레이티드 | 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들 |
US20130321389A1 (en) | 2012-05-29 | 2013-12-05 | General Electric Company | System and method for 3d imaging |
US9671566B2 (en) | 2012-06-11 | 2017-06-06 | Magic Leap, Inc. | Planar waveguide apparatus with diffraction element(s) and system employing same |
US9310559B2 (en) | 2012-06-11 | 2016-04-12 | Magic Leap, Inc. | Multiple depth plane three-dimensional display using a wave guide reflector array projector |
JP6131540B2 (ja) | 2012-07-13 | 2017-05-24 | 富士通株式会社 | タブレット端末、操作受付方法および操作受付プログラム |
US9122926B2 (en) | 2012-07-19 | 2015-09-01 | Honeywell International Inc. | Iris recognition using localized Zernike moments |
AU2013315607A1 (en) | 2012-09-11 | 2015-04-02 | Magic Leap, Inc | Ergonomic head mounted display device and optical system |
JP6020576B2 (ja) | 2012-09-19 | 2016-11-02 | 株式会社ニコン | 視線検出装置較正方法、視線情報検出方法、眼鏡レンズ設計方法、眼鏡レンズ選択方法、および、眼鏡レンズ製造方法 |
CN105303772A (zh) * | 2012-09-24 | 2016-02-03 | 由田新技股份有限公司 | 瞌睡提醒装置 |
JP5873982B2 (ja) | 2012-10-09 | 2016-03-01 | パナソニックIpマネジメント株式会社 | 3次元表示装置、3次元画像処理装置および3次元表示方法 |
CN102901970A (zh) | 2012-11-08 | 2013-01-30 | 天津理工大学 | 一种单调制连续波激光测距装置与测距方法 |
US9152847B2 (en) | 2012-11-27 | 2015-10-06 | Adobe Systems Incorporated | Facial landmark localization by exemplar-based graph matching |
US9224036B2 (en) | 2012-12-20 | 2015-12-29 | Google Inc. | Generating static scenes |
IL293789B2 (en) | 2013-01-15 | 2023-08-01 | Magic Leap Inc | A system for scanning electromagnetic imaging radiation |
JP6318462B2 (ja) * | 2013-01-30 | 2018-05-09 | 株式会社ニコン | 表示装置 |
KR20150122666A (ko) * | 2013-02-27 | 2015-11-02 | 톰슨 라이센싱 | 교정-프리 응시 추정을 위한 방법 및 디바이스 |
CN105188516B (zh) | 2013-03-11 | 2017-12-22 | 奇跃公司 | 用于增强和虚拟现实的系统与方法 |
US9424467B2 (en) | 2013-03-14 | 2016-08-23 | Disney Enterprises, Inc. | Gaze tracking and recognition with image location |
KR102458124B1 (ko) | 2013-03-15 | 2022-10-21 | 매직 립, 인코포레이티드 | 디스플레이 시스템 및 방법 |
US9335547B2 (en) | 2013-03-25 | 2016-05-10 | Seiko Epson Corporation | Head-mounted display device and method of controlling head-mounted display device |
CN103164704B (zh) * | 2013-04-12 | 2016-05-11 | 山东师范大学 | 一种基于混合高斯模型的虹膜图像分割算法 |
CN103258343B (zh) * | 2013-05-07 | 2015-09-16 | 中南大学 | 一种基于图像编辑的眼部图像处理方法 |
US9801539B2 (en) | 2013-05-23 | 2017-10-31 | Stiftung Caesar—Center Of Advanced European Studies And Research | Ocular Videography System |
US9874749B2 (en) | 2013-11-27 | 2018-01-23 | Magic Leap, Inc. | Virtual and augmented reality systems and methods |
GB201310368D0 (en) | 2013-06-11 | 2013-07-24 | Sony Comp Entertainment Europe | Head-mountable apparatus and systems |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
JP2015015563A (ja) | 2013-07-04 | 2015-01-22 | セイコーエプソン株式会社 | 画像表示装置 |
IL302408B2 (en) | 2013-10-16 | 2024-09-01 | Magic Leap Inc | An augmented or virtual reality head device with intrapupillary distance adjustment |
JP2015090569A (ja) | 2013-11-06 | 2015-05-11 | ソニー株式会社 | 情報処理装置及び情報処理方法 |
KR101470243B1 (ko) | 2013-11-15 | 2014-12-05 | 현대자동차주식회사 | 시선 검출 장치 및 그 시선 검출 방법 |
TWI498769B (zh) | 2013-11-18 | 2015-09-01 | Quanta Comp Inc | 頭戴式顯示裝置及其登入方法 |
CN110542938B (zh) | 2013-11-27 | 2023-04-18 | 奇跃公司 | 虚拟和增强现实系统与方法 |
US9857591B2 (en) | 2014-05-30 | 2018-01-02 | Magic Leap, Inc. | Methods and system for creating focal planes in virtual and augmented reality |
EP2886041A1 (en) | 2013-12-17 | 2015-06-24 | ESSILOR INTERNATIONAL (Compagnie Générale d'Optique) | Method for calibrating a head-mounted eye tracking device |
US20170046813A1 (en) * | 2014-01-08 | 2017-02-16 | Nokia Technologies Oy | An apparatus and associated methods for image capture |
JP5956479B2 (ja) | 2014-01-29 | 2016-07-27 | 株式会社東芝 | 表示装置及び視線推定装置 |
US9804395B2 (en) | 2014-01-29 | 2017-10-31 | Ricoh Co., Ltd | Range calibration of a binocular optical augmented reality system |
NZ722903A (en) | 2014-01-31 | 2020-05-29 | Magic Leap Inc | Multi-focal display system and method |
CN106461955B (zh) | 2014-01-31 | 2019-08-13 | 奇跃公司 | 显示增强现实的方法 |
US10203762B2 (en) | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
WO2016018488A2 (en) | 2014-05-09 | 2016-02-04 | Eyefluence, Inc. | Systems and methods for discerning eye signals and continuous biometric identification |
USD759657S1 (en) | 2014-05-19 | 2016-06-21 | Microsoft Corporation | Connector with illumination region |
CN113253476B (zh) | 2014-05-30 | 2022-12-27 | 奇跃公司 | 采用虚拟或增强现实装置生成虚拟内容显示的方法和系统 |
USD752529S1 (en) | 2014-06-09 | 2016-03-29 | Comcast Cable Communications, Llc | Electronic housing with illuminated region |
JP6550642B2 (ja) * | 2014-06-09 | 2019-07-31 | パナソニックIpマネジメント株式会社 | 皺検出装置および皺検出方法 |
ES2883563T3 (es) * | 2014-06-16 | 2021-12-09 | Fondation De Linstitut De Rech Idiap | Método y aparato de estimación de la mirada |
CN104537334B (zh) | 2014-07-08 | 2019-09-10 | 珠海易胜电子技术有限公司 | 一种改善在非理想环境下虹膜识别性能的方法 |
US9563805B2 (en) | 2014-09-02 | 2017-02-07 | Hong Kong Baptist University | Method and apparatus for eye gaze tracking |
US9798383B2 (en) | 2014-09-19 | 2017-10-24 | Intel Corporation | Facilitating dynamic eye torsion-based eye tracking on computing devices |
CN104680016A (zh) | 2014-11-05 | 2015-06-03 | 河南科技大学 | 基于几何优化逼近的抛物线轮廓最小区域拟合方法 |
CN104484649B (zh) | 2014-11-27 | 2018-09-11 | 北京天诚盛业科技有限公司 | 虹膜识别的方法和装置 |
CN104502329B (zh) | 2014-12-28 | 2017-02-22 | 冶金自动化研究设计院 | 一种libs成分分析中元素最优工作曲线的建立方法 |
CN104484694B (zh) | 2014-12-31 | 2018-01-30 | 立德高科(北京)数码科技有限责任公司 | 通过扫描任一二维码以对多媒体信息相绑定与查看的方法 |
US9710707B1 (en) | 2014-12-31 | 2017-07-18 | Morphotrust Usa, Llc | Detecting iris orientation |
CN105812777B (zh) | 2015-01-21 | 2018-02-09 | 成都理想境界科技有限公司 | 双目ar头戴显示设备及其信息显示方法 |
CN104793741A (zh) | 2015-04-03 | 2015-07-22 | 深圳市虚拟现实科技有限公司 | 带眼球跟踪虚拟现实成像系统和方法 |
CN105157563B (zh) | 2015-04-28 | 2016-08-03 | 湖南大学 | 一种基于机器视觉的啤酒瓶口定位方法 |
USD758367S1 (en) | 2015-05-14 | 2016-06-07 | Magic Leap, Inc. | Virtual reality headset |
AU2016310452B2 (en) | 2015-08-21 | 2021-04-22 | Magic Leap, Inc. | Eyelid shape estimation |
CN112836664A (zh) | 2015-08-21 | 2021-05-25 | 奇跃公司 | 使用眼睛姿态测量的眼睑形状估计 |
US10082865B1 (en) | 2015-09-29 | 2018-09-25 | Rockwell Collins, Inc. | Dynamic distortion mapping in a worn display |
CA3170014A1 (en) | 2015-10-16 | 2017-04-20 | Magic Leap, Inc. | Eye pose identification using eye features |
US9983709B2 (en) * | 2015-11-02 | 2018-05-29 | Oculus Vr, Llc | Eye tracking using structured light |
USD805734S1 (en) | 2016-03-04 | 2017-12-26 | Nike, Inc. | Shirt |
USD794288S1 (en) | 2016-03-11 | 2017-08-15 | Nike, Inc. | Shoe with illuminable sole light sequence |
US10565433B2 (en) | 2017-03-30 | 2020-02-18 | George Mason University | Age invariant face recognition using convolutional neural networks and set distances |
US10521661B2 (en) * | 2017-09-01 | 2019-12-31 | Magic Leap, Inc. | Detailed eye shape model for robust biometric applications |
-
2016
- 2016-08-16 CN CN202110187766.5A patent/CN112836664A/zh active Pending
- 2016-08-16 CA CA2996039A patent/CA2996039A1/en active Pending
- 2016-08-16 AU AU2016310451A patent/AU2016310451B2/en active Active
- 2016-08-16 KR KR1020187007935A patent/KR102591552B1/ko active IP Right Grant
- 2016-08-16 KR KR1020237035119A patent/KR20230150397A/ko not_active Application Discontinuation
- 2016-08-16 EP EP16839825.3A patent/EP3337385A4/en active Pending
- 2016-08-16 JP JP2018509551A patent/JP6918781B2/ja active Active
- 2016-08-16 NZ NZ740299A patent/NZ740299A/en unknown
- 2016-08-16 US US15/238,516 patent/US10146997B2/en active Active
- 2016-08-16 WO PCT/US2016/047177 patent/WO2017034860A1/en active Application Filing
- 2016-08-16 CN CN201680061490.3A patent/CN108135469B/zh active Active
-
2018
- 2018-02-12 IL IL257485A patent/IL257485B/en active IP Right Grant
- 2018-11-02 US US16/179,541 patent/US10671845B2/en active Active
-
2020
- 2020-06-01 US US16/889,536 patent/US11538280B2/en active Active
-
2021
- 2021-07-19 AU AU2021206778A patent/AU2021206778A1/en not_active Abandoned
- 2021-07-21 JP JP2021120383A patent/JP7231676B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US11538280B2 (en) | 2022-12-27 |
CA2996039A1 (en) | 2017-03-02 |
EP3337385A1 (en) | 2018-06-27 |
KR20230150397A (ko) | 2023-10-30 |
IL257485B (en) | 2021-01-31 |
CN108135469B (zh) | 2021-03-09 |
WO2017034860A1 (en) | 2017-03-02 |
NZ740299A (en) | 2019-08-30 |
IL257485A (en) | 2018-05-31 |
JP7231676B2 (ja) | 2023-03-01 |
AU2021206778A1 (en) | 2021-08-12 |
US10671845B2 (en) | 2020-06-02 |
JP2018523879A (ja) | 2018-08-23 |
US10146997B2 (en) | 2018-12-04 |
KR102591552B1 (ko) | 2023-10-18 |
CN108135469A (zh) | 2018-06-08 |
CN112836664A (zh) | 2021-05-25 |
JP2021166107A (ja) | 2021-10-14 |
US20170053165A1 (en) | 2017-02-23 |
US20200293744A1 (en) | 2020-09-17 |
AU2016310451B2 (en) | 2021-04-22 |
KR20180044331A (ko) | 2018-05-02 |
US20190087634A1 (en) | 2019-03-21 |
EP3337385A4 (en) | 2019-04-03 |
AU2016310451A1 (en) | 2018-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6918781B2 (ja) | 眼ポーズ測定を用いた眼瞼形状推定 | |
JP7538186B2 (ja) | ロバストなバイオメトリックアプリケーションのための詳細な眼形状モデル | |
JP2022051873A (ja) | 眼瞼形状推定 | |
JP6917444B2 (ja) | 角膜曲率を用いた虹彩境界推定 | |
JP6885935B2 (ja) | 眼の特徴を用いる眼ポーズ識別 | |
US11227158B2 (en) | Detailed eye shape model for robust biometric applications | |
JP7542563B2 (ja) | 眼追跡待ち時間向上 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190815 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190815 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200918 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201218 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210209 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210526 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210721 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6918781 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |