JP7001672B2 - 虹彩識別のためのディープニューラルネットワーク - Google Patents

虹彩識別のためのディープニューラルネットワーク Download PDF

Info

Publication number
JP7001672B2
JP7001672B2 JP2019501636A JP2019501636A JP7001672B2 JP 7001672 B2 JP7001672 B2 JP 7001672B2 JP 2019501636 A JP2019501636 A JP 2019501636A JP 2019501636 A JP2019501636 A JP 2019501636A JP 7001672 B2 JP7001672 B2 JP 7001672B2
Authority
JP
Japan
Prior art keywords
eye
image
deep neural
layer
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019501636A
Other languages
English (en)
Other versions
JP2019525325A (ja
Inventor
アレクセイ スピゼヴォイ,
エイドリアン ケーラー,
ゲイリー ブラドスキー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2019525325A publication Critical patent/JP2019525325A/ja
Priority to JP2021210354A priority Critical patent/JP7237137B2/ja
Application granted granted Critical
Publication of JP7001672B2 publication Critical patent/JP7001672B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Mathematical Optimization (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Signal Processing (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Exposure Control For Cameras (AREA)

Description

(関連出願の相互参照)
本願は、2016年7月14日に出願され“DEEP NEURAL NETWORK FOR IRIS IDENTIFICATION”と題されたロシア特許出願第2016128792号の優先権の利益を主張するものであり、該出願の全体の内容は、参照により本明細書中に援用される。
本開示は、概して、虹彩識別のためのシステムおよび方法に関し、より具体的には、虹彩識別のためのディープニューラルネットワークの使用に関する。
個人のバイオメトリック識別の分野では、最も効果的な公知の方法のうちの1つは、ヒトの眼、主に、虹彩または網膜内に自然に生じるパターンを使用することである。虹彩および網膜の両方において、虹彩の場合はストロマの線維または網膜の場合は血管のパターンのいずれかからの色のパターンが、個人のバイオメトリック識別のために使用される。いずれの場合も、これらのパターンは、本組織の形態形成における無作為事象によって後成的に生成される。これは、それらが遺伝子的に同じ(一卵性)双生児でも、明確に異なるであろうことを意味する。
従来の虹彩コードは、ヒトによって設計される特徴に基づいて虹彩の画像から抽出される、ビットストリングである。虹彩コードを抽出するために、眼画像は、セグメント化され、虹彩を瞳孔および強膜から分離し、セグメント化された画像は、擬似極座標の中にマッピングされ、位相情報が、複素2次元ウェーブレット(例えば、ガボールまたはハール)を使用して抽出される。典型的虹彩コードは、ウェーブレット畳み込みの符号に基づく、ビットストリングであって、2,048ビットを有する。虹彩コードは、分析される領域が、眼瞼、睫毛、鏡面反射によって閉塞されているか、または雑音によって破損されているかどうかを表す、等数のビットを伴うマスクを付随し得る。そのような虹彩コードの使用は、パスポートデータからの通行者の識別等、多くの一般的虹彩ベースのバイオメトリックタスクの標準である。
一側面では、ウェアラブルディスプレイシステムが、開示される。ウェアラブルディスプレイシステムは、ディスプレイと、ユーザの眼の第1の画像を捕捉するように構成される、画像捕捉デバイスと、非一過性メモリであって、眼の第1の画像を処理するためのディープニューラルネットワークと、眼の処理された第1の画像を処理するための分類子と、実行可能命令とを記憶するように構成される、非一過性メモリと、ディスプレイ、画像捕捉デバイス、および非一過性メモリと通信する、ハードウェアプロセッサであって、実行可能命令によって、眼の第1の画像を受信することと、ディープニューラルネットワークを使用して、眼の第1の画像を処理し、埋込空間表現を生成することと、分類子を使用して、埋込空間表現を処理し、眼の第1の画像が認可されたユーザの眼の画像である、尤度スコアを計算することとを行うようにプログラムされる、ハードウェアプロセッサとを備える。
別の側面では、頭部搭載型ディスプレイシステムが、開示される。頭部搭載型ディスプレイシステムは、ディスプレイと、ユーザの眼の第1の画像を捕捉するように構成される、画像捕捉デバイスと、非一過性メモリであって、眼の第1の画像を処理するためのディープニューラルネットワークと、眼の処理された第1の画像を処理するための分類子と、実行可能命令とを記憶するように構成される、非一過性メモリと、ディスプレイ、画像捕捉デバイス、および非一過性メモリと通信する、ハードウェアプロセッサであって、実行可能命令によって、眼の第1の画像を受信することと、眼の第1の画像を処理し、眼の第1の画像の表現を極座標内に生成することと、ディープニューラルネットワークを使用して、極座標内の眼の第1の画像の表現を処理し、埋込空間表現を生成することと、分類子を使用して、埋込空間表現を処理し、眼の画像が認可されたユーザの眼の画像である、尤度スコアを生成することとを行うようにプログラムされる、ハードウェアプロセッサとを備える。
さらに別の側面では、ウェアラブルディスプレイシステムが、開示される。ウェアラブルディスプレイシステムは、ディスプレイと、ユーザの第1の眼の第1の画像およびユーザの第2の眼の第2の画像を捕捉するように構成される、画像捕捉デバイスと、非一過性メモリであって、第1の眼の第1の画像および第2の眼の第2の画像を処理するためのディープニューラルネットワークと、第1の眼の処理された第1の画像および第2の眼の処理された第2の画像を処理するための分類子と、実行可能命令とを記憶するように構成される、非一過性メモリと、ディスプレイ、画像捕捉デバイス、および非一過性メモリと通信する、ハードウェアプロセッサであって、実行可能命令によって、第1の眼の第1の画像および第2の眼の第2の画像を受信することと、ディープニューラルネットワークを使用して、第1の眼の第1の画像および第2の眼の第2の画像を処理し、第1の眼の第1の埋込空間表現および第2の眼の第2の埋込空間表現を生成することと、分類子を使用して、第1の埋込空間表現および第2の埋込空間表現を処理し、第1の眼の第1の画像が、認可されたユーザの左眼の画像であって、第2の眼の第2の画像が、認可されたユーザの右眼の画像である、尤度スコアを生成することとを行うようにプログラムされる、ハードウェアプロセッサとを備える。
さらなる側面では、ウェアラブルディスプレイシステムが、開示される。ウェアラブルディスプレイシステムは、ディスプレイと、眼の第1の画像を捕捉するように構成される、画像捕捉デバイスと、少なくとも1つの他のバイオメトリック情報を捕捉するように構成される、バイオメトリック情報捕捉デバイスと、非一過性メモリであって、眼の第1の画像を処理するためのディープニューラルネットワークと、眼の処理された第1の画像を処理するための分類子と、実行可能命令とを記憶するように構成される、非一過性メモリと、ディスプレイ、バイオメトリック情報捕捉デバイス、画像捕捉デバイス、および非一過性メモリと通信する、ハードウェアプロセッサであって、実行可能命令によって、眼の第1の画像および少なくとも1つの他のバイオメトリック情報を受信することと、ディープニューラルネットワークを使用して、眼の画像および少なくとも1つの他のバイオメトリック情報を処理し、埋込空間表現を生成することと、分類子を使用して、埋込空間表現を処理し、眼の画像が、認可されたユーザの眼の画像であって、少なくとも1つの他のバイオメトリック情報が、認可されたユーザのバイオメトリック情報である、尤度スコアを生成することとを行うようにプログラムされる、ハードウェアプロセッサとを備える。
別の側面では、ウェアラブルディスプレイシステムが、開示される。ウェアラブルディスプレイシステムは、ディスプレイと、眼の第1の画像を捕捉するように構成される、画像捕捉デバイスと、少なくとも1つの他のバイオメトリック情報を捕捉するように構成される、バイオメトリック情報捕捉デバイスと、非一過性メモリであって、眼の第1の画像を処理するための第1のディープニューラルネットワークと、眼の処理された第1の画像を処理するための分類子と、実行可能命令とを記憶するように構成される、非一過性メモリと、ディスプレイ、バイオメトリック情報捕捉デバイス、画像捕捉デバイス、および非一過性メモリと通信する、ハードウェアプロセッサであって、実行可能命令によって、眼の第1の画像を受信することと、第1のディープニューラルネットワークを使用して、眼の第1の画像を処理し、第1の埋込空間表現を生成することと、少なくとも1つの他のバイオメトリック情報を受信することと、分類子を使用して、第1の埋込空間表現および少なくとも1つの他のバイオメトリック情報を処理し、眼の画像が、認可されたユーザの眼の画像であって、少なくとも1つの他のバイオメトリック情報が、認可されたユーザのバイオメトリック情報である、尤度スコアを生成することとを行うようにプログラムされる、ハードウェアプロセッサとを備える。
さらに別の側面では、ウェアラブルディスプレイシステムが、開示される。ウェアラブルディスプレイシステムは、ディスプレイと、ユーザの第1の眼の複数の第1の画像を捕捉するように構成される、画像捕捉デバイスと、非一過性メモリであって、第1の眼の複数の第1の画像を処理するためのディープニューラルネットワークと、第1の眼の処理された複数の第1の画像を処理するための第1の分類子と、実行可能命令とを記憶するように構成される、非一過性メモリと、ディスプレイ、画像捕捉デバイス、および非一過性メモリと通信する、ハードウェアプロセッサであって、実行可能命令によって、第1の眼の複数の第1の画像を受信することと、ディープニューラルネットワークを使用して、第1の眼の複数の第1の画像を処理し、第1の埋込空間表現を生成することと、第1の分類子を使用して、第1の埋込空間表現を処理し、第1の眼の複数の第1の画像が認可されたユーザの第1の眼の画像を備える、第1の尤度スコアを計算することとを行うようにプログラムされる、ハードウェアプロセッサとを備える。
本明細書に説明される主題の1つ以上の実装の詳細が、付随の図面および以下の説明に記載される。他の特徴、側面、および利点は、説明、図面、および請求項から明白となるであろう。本概要または以下の発明を実施するための形態のいずれも、本発明の主題の範囲を定義または限定することを主張するものではない。
本明細書は、例えば、以下の項目も提供する。
(項目1)
ウェアラブルディスプレイシステムであって、
ディスプレイと、
ユーザの眼の第1の画像を捕捉するように構成される画像捕捉デバイスと、
非一過性メモリであって、前記非一過性メモリは、
前記眼の第1の画像を処理するための埋込であって、
前記埋込は、トリプレットネットワークアーキテクチャを伴うディープニューラルネットワークを使用して学習され、
前記ディープニューラルネットワークは、複数の人物の眼画像からの埋込を学習するように構成され、
同一人物からの眼画像に関する埋込空間表現内の距離は、異なる人物からの眼画像に関する前記埋込空間表現内の距離より小さい、
埋込と、
前記眼の処理された第1の画像を処理するための分類子と、
実行可能命令と
を記憶するように構成される、非一過性メモリと、
前記ディスプレイ、前記画像捕捉デバイス、および前記非一過性メモリと通信する、ハードウェアプロセッサであって、前記ハードウェアプロセッサは、前記実行可能命令によって、
前記眼の第1の画像を受信することと、
前記埋込を使用して、前記眼の第1の画像を処理し、埋込空間表現を生成することと、
前記分類子を使用して、前記埋込空間表現を処理し、前記眼の第1の画像が認可されたユーザの眼の画像である、尤度スコアを計算することと、
前記尤度スコアに基づいて、前記ウェアラブルディスプレイシステムへのユーザアクセスを許可または否認することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、ウェアラブルディスプレイシステム。
(項目2)
明度正規化層は、ローカルコントラスト正規化層、ローカル応答正規化層、またはそれらの組み合わせを備える、項目1に記載のウェアラブルディスプレイシステム。
(項目3)
前記ディープニューラルネットワークは、複数の層を備え、
前記複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、
項目1に記載のウェアラブルディスプレイシステム
(項目4)
前記埋込空間表現は、単位長を有する、項目1に記載のウェアラブルディスプレイシステム。
(項目5)
前記分類子は、ユークリッド距離に基づいて、前記尤度スコアを生成する、項目1に記載のウェアラブルディスプレイシステム。
(項目6)
前記分類子は、バイナリ分類子、ロジスティック回帰分類子、サポートベクトルマシン分類子、ベイズ分類子、ソフトマックス分類子、または任意のそれらの組み合わせである、項目1に記載のウェアラブルディスプレイシステム。
(項目7)
前記ハードウェアプロセッサは、前記実行可能命令によって、前記眼の第1の画像をセグメント化し、前記眼の虹彩の第2の画像を生成するようにプログラムされ、
前記眼の第1の画像を処理するために、前記ハードウェアプロセッサは、前記実行可能命令によって、前記埋込を使用して、前記眼の虹彩の第2の画像を処理し、前記埋込空間表現を生成するようにプログラムされる、
項目1-6のいずれか1項に記載のウェアラブルディスプレイシステム。
(項目8)
虹彩認証のためにディープニューラルネットワークを訓練するためのシステムであって、
実行可能命令を記憶するコンピュータ可読メモリと、
1つ以上のハードウェアベースのプロセッサであって、前記1つ以上のハードウェアベースのプロセッサは、前記実行可能命令によって、少なくとも、
複数の層を備えるディープニューラルネットワークにアクセスすることであって、前記複数の層の各層は、前記複数の層の少なくとも別の層に接続される、ことと、
前記ディープニューラルネットワークに複数の人物の眼画像を備える訓練セットを提供することと、
前記ディープニューラルネットワークを使用して、前記複数の眼画像の埋込空間表現を算出することであって、同一人物の前記複数の眼画像の埋込空間表現は、閾値内にある、ことと、
同一人物および異なる人物の前記眼画像の埋込空間表現間の距離に基づいて、前記ディープニューラルネットワークを更新することと
を行うようにプログラムされる、1つ以上のハードウェアベースのプロセッサと
を備える、システム。
(項目9)
前記複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、項目8に記載のシステム。
(項目10)
前記ディープニューラルネットワークは、トリプレットネットワークアーキテクチャを備える、項目8-9のいずれか1項に記載のシステム。
(項目11)
前記訓練セットは、眼画像のトリプレットを備え、前記ディープニューラルネットワークは、前記眼画像のトリプレットを使用して学習される、項目10に記載のシステム。
(項目12)
前記トリプレットの2つの眼画像は、同一人物からのものであり、前記トリプレットの第3の眼画像は、異なる人物からのものである、項目11に記載のシステム。
(項目13)
頭部搭載型ディスプレイシステムであって、
ディスプレイと、
ユーザの眼の第1の画像を捕捉するように構成される画像捕捉デバイスと、
実行可能命令を記憶するように構成される非一過性メモリと、
前記ディスプレイ、前記画像捕捉デバイス、および前記非一過性メモリと通信する、ハードウェアプロセッサであって、前記ハードウェアプロセッサは、前記実行可能命令によって、
前記眼の第1の画像を受信することと、
前記眼の第1の画像を処理し、前記眼の第1の画像の表現を極座標内に生成することと、
ディープニューラルネットワークを使用して、極座標内の前記眼の第1の画像の表現を処理し、埋込空間表現を生成することと、
分類子を使用して、前記埋込空間表現を処理し、前記眼の画像が認可されたユーザの眼の画像である、尤度スコアを生成することと
を行うようにプログラムされる、ハードウェアプロセッサと
を備える、頭部搭載型ディスプレイシステム。
(項目14)
前記ディープニューラルネットワークは、トリプレットネットワークを使用して学習される、項目13に記載の頭部搭載型ディスプレイシステム。
(項目15)
前記トリプレットネットワークは、前記ディープニューラルネットワークを複数の人物の眼画像から学習するように構成され、
同一人物からの眼画像に関する前記埋込空間表現内の距離は、異なる人物からの眼画像に関する前記埋込空間表現内の距離より小さい、
項目14に記載の頭部搭載型ディスプレイシステム。
(項目16)
前記ハードウェアプロセッサは、前記実行可能命令によって、
前記尤度スコアに基づいて、前記頭部搭載型ディスプレイシステムへの前記ユーザアクセスを許可または否認する
ようにプログラムされる、項目13-15のいずれか1項に記載の頭部搭載型ディスプレイシステム。
(項目17)
前記ハードウェアプロセッサは、前記実行可能命令によって、前記眼の第1の画像をセグメント化し、前記眼の虹彩の第2の画像を生成するようにプログラムされ、
前記眼の第1の画像を処理するために、前記ハードウェアプロセッサは、前記実行可能命令によって、前記ディープニューラルネットワークを使用して、前記眼の虹彩の第2の画像を処理し、前記埋込空間表現を生成するようにプログラムされる、
項目13-15のいずれか1項に記載の頭部搭載型ディスプレイシステム。
(項目18)
前記眼の第1の画像は、主に、前記眼の虹彩および網膜を含む、項目13-15のいずれか1項に記載の頭部搭載型ディスプレイシステム。
(項目19)
前記眼の第1の画像は、主に、前記眼の網膜を含む、項目13-15のいずれか1項に記載の頭部搭載型ディスプレイシステム。
(項目20)
前記埋込空間表現は、n-次元ベクトルであって、前記埋込空間表現の要素の大部分は、統計的に独立している、項目13-15のいずれか1項に記載の頭部搭載型ディスプレイシステム。
図1は、トリプレットネットワークアーキテクチャを伴うディープニューラルネットワークを実装する、眼認証訓練装置の実施例のブロック図である。 図2は、インセプション様層の例示的アーキテクチャを描写する。 図3は、例示的ディープネットワークアーキテクチャを図示する、表を示す。 図4Aおよび4Bは、100,000反復後の図1-3に図示されるディープネットワークアーキテクチャを伴うディープニューラルネットワークを使用して埋込を学習する例示的結果を示す。図4Aは、同一対象および異なる対象の眼画像間の埋込距離を示す、サンプル対埋込距離の比のヒストグラムプロットである。図4Bは、真陽性率(TPR)対偽陽性率(FPR)の受信者動作特性(ROC)曲線である。 図5Aおよび5Bは、50,000反復後の図1-3に図示されるディープネットワークアーキテクチャを伴うディープニューラルネットワークを使用した埋込を学習する例示的結果を示す。ディープニューラルネットワークは、6つの連続極画像のグループを6チャネル入力として使用して訓練された。図5Aは、同一対象および異なる対象の極画像のグループのペア間の埋込距離を示す、確率密度対埋込距離のヒストグラムプロットである。図5Bは、真陽性率(TPR)対偽陽性率(FPR)の受信者動作特性(ROC)曲線である。 図6は、ユーザデバイスの例示的眼認証装置のブロック図である。 図7は、眼認証のための例示的プロセスのフロー図である。 図8は、眼認証システムの実施例を図式的に図示する。 図9は、ウェアラブルディスプレイシステムの実施例を図式的に図示する。
図面全体を通して、参照番号は、参照される要素間の対応を示すために再使用され得る。図面は、本明細書に説明される例示的実施形態を図示するために提供され、本開示の範囲を限定することを意図されない。
(概要)
従来のウェーブレットベースの虹彩コードは、2,048ビットを有する。しかしながら、約244ビットのみが、統計的に独立している。本統計的依存性は、ヒトによって設計される特徴(例えば、特定のウェーブレットのセットを伴う畳み込みの符号)に基づく虹彩コードが、虹彩を表す際に非効率的であることを示す。さらに、虹彩コードは、画像クロッピング、画像のぼけ、画像を捕捉する際の照明条件、眼瞼および睫毛による閉塞、および画像視野角を含む、変動に敏感であり得る。加えて、虹彩コードの算出に先立って、眼画像は、虹彩を瞳孔および周囲強膜から分離するようにセグメント化される必要がある。
本明細書に開示されるシステムおよび方法は、虹彩特徴を表す眼記述子の生成に関連する種々の課題に対処する。例えば、ディープニューラルネットワーク(DNN)は、虹彩識別のための埋込を学習するために使用されることができる。DNNはまた、人々の識別の照合のための埋込を学習するために使用されることができる。本埋込は、従来の虹彩コードではなく、埋込空間内の場所を使用することによって、ヒト虹彩が新規方法で分類されることを可能にすることができる。埋込空間は、ヒトによって設計される(ウェーブレットベースの虹彩コードを用いるように)のではなく、むしろ、DNNによってデータを訓練することから学習され得る。
DNNは、訓練データから、ユークリッド空間内の非常に効率的埋込を学習するために成功裏に使用されることができる。いったんマッピングが、データ(例えば、虹彩画像)のネイティブ空間から埋込空間まで学習されると、埋込空間は、埋込空間内の画像の近接度に基づいて、2つの画像の類似性を決定するために使用されることができる。これを遂行し得る、DNNの1つのアーキテクチャは、トリプレットネットワークである。
異なるDNNは、2つの点において、相互に異なり得る。DNNのアーキテクチャ、例えば、層の数および層が相互接続される方法が、異なり得る。1つの層から別の層に伝搬される影響の強度に影響を及ぼし得る、加重も、異なり得る。層の出力は、その入力の加重された和のある非線形関数であることができる。DNNの加重は、これらの総和内に現れる加重であることができ、生物学的システムにおけるニューラル接続のシナプス強度にほぼ類似することができる。
DNNを訓練するプロセスは、DNNに入力データおよび対応する標的出力データの両方を提示するプロセスである。本データ、すなわち、訓練セットは、例示的入力および標的出力の両方を含むことができる。訓練のプロセスを通して、ネットワークの加重は、ネットワークの出力が、訓練セットからの入力データの特定のピースを前提として、入力データのそのピースに対応する標的出力に合致するようになる(可能な限り近接して)ように、徐々に学習されることができる。
したがって、いくつかの実装では、トリプレットネットワークアーキテクチャを有する、DNNは、ヒトの眼の画像を使用して、より高次元の眼画像空間からより低次元の埋込空間(ユークリッドまたは非ユークリッドであり得る)にマッピングする、埋込を学習するように訓練される。埋込は、DNNであることができる。いったん学習されると、本埋込は、従来のウェーブレットベースの虹彩コードの代替として使用されることができる。埋込から決定されたコードは、ウェーブレットベースのコードのビットストリングではなく、n-次元実数ベクトルであり得る(但し、ベクトルのビットベースの表現も、記憶され、バイオメトリック処理に利用されてもよい)。種々の実装では、DNNは、セグメント化された虹彩画像で訓練されてもよい、またはDNNは、直接、眼の眼球周囲領域の画像に対して訓練されることができる(最初に眼球周囲画像をセグメント化せずに)。後者の場合では、DNNは、虹彩内のデータが特に非常に有益であることを学習することができるが、また、画像の眼球周囲部分も、そうすることが虹彩特徴識別を補助する場合、利用することもできる。眼球周囲領域は、眼と、例えば、眼を囲繞する眼瞼、眉毛、睫毛、および皮膚(一意のテクスチャを有し得る)等の眼の周囲の部分とを含む。例えば、人物の涙管の特定の構造は、識別情報を提供し得る。故に、DNNによる眼球周囲領域の分析は、単に虹彩単独の分析よりロバストなバイオメトリックシグネチャを提供し得る(埋込を介して)。
(例示的トリプレットネットワークアーキテクチャ)
ヒトの眼の画像を使用して、トリプレットネットワークアーキテクチャを伴うディープニューラルネットワーク(DNN)は、より高次元の眼画像空間からより低次元の埋込空間にマッピングする、埋込を学習するように訓練されることができる。眼画像空間の次元は、非常に大きくあり得る。例えば、256ピクセル×256ピクセルの眼画像は、潜在的に、数千または数万自由度を含むことができる。図1は、トリプレットネットワークアーキテクチャを伴うディープニューラルネットワークを実装する、眼認証訓練装置104の実施例のブロック図である。眼認証訓練装置104は、埋込108(Emb)を学習するようにディープニューラルネットワークを訓練することができる。埋込108は、より高次元の眼画像空間内の眼画像(Img)をより低次元の埋込空間内の眼画像の埋込空間表現(EmbImg)の中にマッピングする、関数であることができる。例えば、Emb(Img)=EmbImgである。埋込108は、DNNであることができる。
埋込空間表現、すなわち、埋込空間内の眼画像の表現は、n-次元の実数ベクトルであることができる。眼画像の埋込空間表現は、n-次元の眼記述であることができる。埋込空間内の表現の次元は、異なる実装では、異なり得る。例えば、次元は、範囲16~2,048内にあることができる。いくつかの実装では、nは、128である。埋込空間表現の要素は、ブール、整数、実数、複素数、または任意のそれらの組み合わせによって表されることができる。いくつかのアーキテクチャでは、埋込空間表現は、訓練の間、n浮動点数として表されるが、認証のために、nバイトに量子化されてもよい。したがって、ある場合には、各眼画像は、nバイト表現によって表される。より大きい次元を伴う埋込空間内の表現は、より低次元を伴うものより良好に性能を発揮し得るが、より多くの訓練を要求し得る。埋込空間表現は、例えば、単位長を有することができる。
ディープニューラルネットワーク112は、埋込空間内でともにクラスタ化されるため、イメージング条件から独立して、埋込空間内の1人の人物(または1人の人物の左または右眼)の眼画像間の距離が小さくなるように、埋込108を学習するように訓練されることができる。対照的に、異なる人物(または人物の異なる眼)の眼画像のペア間の距離は、埋込空間内でともにクラスタ化されないため、埋込空間内で大きくなり得る。したがって、埋込空間内の同一人物からの眼画像間の距離、すなわち、埋込距離は、埋込空間内の異なる人物からの眼画像間の距離より小さくなり得る。2つの眼画像間の距離は、例えば、2つの眼画像の埋込空間表現間のユークリッド距離(L2ノルム等)または非ユークリッド距離(例えば、双曲線空間内)であることができる。
1人の人物の2つの眼画像、例えば、アンカ眼画像(ImgA)116aと正の眼画像(ImgP)116pとの間の距離は、埋込空間内で小さくなり得る。異なる人物の2つの眼画像、例えば、アンカ眼画像(ImgA)116aと負の眼画像(ImgN)116nとの間の距離は、埋込空間内でより大きくなり得る。ImgA116aは、その埋込空間表現が同一人物(例えば、ImgP116p)および異なる人物(例えば、ImgN116n)の眼画像の埋込空間表現と比較され得るため、「アンカ」画像である。ImgA116pは、ImgP116pおよびImgA116aが同一人物の眼画像であるため、「正」の画像である。ImgN116nは、ImgN116nおよびImgA116aが異なる人物の眼画像であるため、「負」の画像である。したがって、埋込空間内のImgA116aとImgP116pとの間の距離は、埋込空間内のImgA116aとImgN116Nとの間の距離より小さくあり得る。
埋込(Emb)108は、ImgA116a、ImgP116p、およびImgN116nを、より高次元の眼画像空間から、それぞれ、アンカ埋込画像(EmbA)120a、正の埋込画像(EmbP)120a、および負の埋込画像(EmbN)120nの中にマッピングすることができる。例えば、Emb(ImgA)=EmbA、Emb(ImgP)=EmbP、およびEmb(ImgN)=EmbNである。したがって、埋込空間内のEmbA120aとEmbP120aとの間の距離は、埋込空間内のEmbP120aとEmbN120nとの間の距離より小さくなり得る。
埋込108を学習するために、眼認証訓練装置104は、眼画像110の訓練セットT1を受信することができる。眼画像110は、眼の眼球周囲領域の画像であることができる。または、眼画像110は、セグメント化された虹彩画像またはセグメント化された網膜画像であることができる。眼画像110は、左眼および右眼の画像を含むことができる。眼画像110は、ラベルと関連付けられることができ、ラベルは、1人の人物の眼画像を別の人の眼画像から区別する。ラベルはまた、人物の左眼および右眼の眼画像を区別することができる。眼認証訓練装置104によって受信された訓練セットT1は、眼画像とラベルとのペア(Img;Label)を含むことができる。眼認証訓練装置104は、(Img;Label)ペアの訓練セットT1を眼画像データ記憶から受信することができる。
眼認証訓練装置104は、トリプレットネットワークアーキテクチャを伴うディープニューラルネットワーク(DNN)112を利用して、埋込108を学習することができる。埋込108を学習するために、トリプレットネットワークアーキテクチャは、3つの同じ埋込ネットワーク(埋込、ディープ埋込、ディープ埋込ネットワーク、DNN埋込、またはDNNとも称される)、例えば、アンカ埋込ネットワーク(ENetworkA)124a、正の埋込ネットワーク(ENetworkP)124p、および負の埋込ネットワーク(ENetworkN)124nを含むことができる。埋込ネットワーク124a、124p、または124nは、ディープニューラルネットワークであることができる。埋込ネットワーク124a、124p、または124nは、眼画像空間からの眼画像を埋込空間内の眼画像の埋込空間表現の中にマッピングすることができる。例えば、ENetworkA124aは、ImgA116aをEmbA120aの中にマッピングすることができる。ENetworkA124pは、ImgP116pをEmbP120pの中にマッピングすることができる。ENetworkN124nは、ImgN116nをEmbN120nの中にマッピングすることができる。
いくつかの実装では、眼認証訓練装置104は、単一ネットワークアーキテクチャを伴うディープニューラルネットワーク(DNN)112を利用して、埋込108を学習することができる。埋込108を学習するために、単一ネットワークアーキテクチャは、1つの埋込ネットワークを含むことができる。埋込ネットワークは、(ImgA;ImgP;ImgN)のトリプレットを(EmbA;EmbP;EmbN)のトリプレットの中にマッピングすることができる。
トリプレットネットワークアーキテクチャを伴うディープニューラルネットワーク112は、眼画像のトリプレットを含む、トリプレット訓練セットT2を用いて、埋込108を学習することができる。トリプレットの2つの眼画像は、同一人物からのもの、例えば、ImgA116aおよびImgP116pであることができる。トリプレットの第3の眼画像は、異なる人物または同一人物の異なる眼からのもの、例えば、ImgN116nであることができる。ENetworkA124a、ENetworkP124p、およびENetworkN124nは、(ImgA;ImgP;ImgN)のトリプレットを(EmbA;EmbP;EmbN)のトリプレットの中にマッピングすることができる。眼認証訓練装置104は、トリプレット訓練セットT2を(Img;Label)ペアの訓練セットT1から生成することができる。
ImgA116a、ImgP116p、またはImgN116nは、異なる実装では、異なり得る。例えば、ImgA116aおよびImgP116pは、1人の人物の眼画像であることができ、ImgN116nは、別の人物の眼画像であることができる。別の実施例として、ImgA116aおよびImgP116pは、1人の人物の左眼の画像であることができ、ImgN116nは、その人物の右眼の画像または別の人物の眼画像であることができる。
トリプレットネットワークアーキテクチャは、埋込空間内の人物の眼画像が、埋込空間内の任意の他の人物の眼画像より埋込空間内の同一人物の全ての他の眼画像に近くなるように、埋込108を学習するように使用されることができる。例えば、|EmbA-EmbP|<|EmbA-EmbN|であって、|EmbA-EmbP|は、埋込空間内のEmbA120aとEmbP120pとの間の絶対距離を示し、|EmbA-EmbN|は、埋込空間内のEmbA120aとEmbN120nとの間の絶対距離を示す。
いくつかの実装では、トリプレットネットワークアーキテクチャは、埋込空間内の人物の左眼の画像が、埋込空間内のその人物の右眼の任意の画像または別の人物の任意の眼画像より埋込空間内の同一人物の左眼の全ての画像に近くなるように、埋込108を学習するように使用されることができる。
埋込空間表現の次元は、異なる実装では、異なり得る。EmbA120a、EmbP120p、およびEmbN120nの次元は、同一、例えば、431であることができる。埋込空間表現の長さは、異なる実装では、異なり得る。例えば、EmbA120a、EmbP120p、またはEmbN120nは、L2正規化を使用して、埋込空間内で単位長を有するように正規化されることができる。したがって、眼画像の埋込空間表現は、埋込空間内の超球面上にある。
トリプレットネットワークアーキテクチャは、EmbA120a、EmbP120p、およびEmbN120nを比較するように構成される、トリプレット損失層128を含むことができる。トリプレット損失層128で学習された埋込108は、1人の人物の眼画像を埋込空間内の近接近する単一点または点のクラスタ上にマッピングすることができる。トリプレット損失層128は、埋込空間内の同一人物の眼画像、例えば、EmbA120aとEmbP120pの間の距離を最小限にすることができる。トリプレット損失層128は、埋込空間内の異なる人物の眼画像、例えば、EmbA120aとEmbN120nとの間の距離を最大限にすることができる。
トリプレット損失層128は、いくつかの方法において、EmbA120a、EmbP120p、およびEmbN120nを比較することができる。例えば、トリプレット損失層128は、以下を算出することによって、EmbA120a、EmbP120p、およびEmbN120nを比較することができる。
Maximum(0,|EmbA-EmbP|-|EmbA-EmbN|+m) 式(1.1)
式中、|EmbA-EmbP|は、埋込空間内のEmbA120aとEmbP120pとの間の絶対距離を示し、|EmbA-EmbN|は、EmbA120aとEmbN120nとの間の絶対距離を示し、mは、許容差を示す。許容差は、異なる実装では、異なり得る。例えば、許容差は、0.20であることができる。したがって、いくつかの実装では、埋込108は、同一人物からの眼画像間の埋込空間内の距離が異なる人物からの眼画像間の埋込空間内の距離より小さくなるように、複数の人物の眼画像から学習されることができる。いくつかの実施形態では、人物の眼からの眼画像間の埋込空間内の距離は、異なる人物からの眼画像または同一人物の異なる眼の眼画像間の埋込空間内の距離より小さい。式(1.1)の特定の実装の観点から、同一人物からの全ての眼画像間の埋込空間内の平方距離は、小さく、異なる人物からの眼画像のペア間の埋込空間内の平方距離は、大きい。別の実施例として、トリプレット損失層128は、以下を算出することによって、EmbA120a、EmbP120p、およびEmbN120nを比較することができる。
Maximum(0,|EmbA-EmbP+m1|m2-|EmbA-EmbN+m1|m2+m3) 式(1.2)
式中、|EmbA-EmbP|は、埋込空間内のEmbA120aとEmbP120pとの間の絶対距離を示し、|EmbA-EmbN|は、EmbA120aとEmbN120nとの間の絶対距離を示し、m1は、2つの埋込空間表現間の距離のモディファイアを示し、m2は、2つの埋込空間表現間の絶対距離のモディファイアを示し、m3は、許容差を示す。モディファイアm1およびm2は、異なる実装では、異なり得る。例えば、モディファイアは、整数(例えば、3)、実数(例えば、3.1)、または複素数であることができる。許容差m3は、異なる実装では、異なり得る。例えば、許容差は、0.20であることができる。
EmbA120a、EmbP120p、およびEmbN120nを比較する際に使用される、許容差mの関数は、異なる実装では、異なり得る。例えば、許容差mは、1人の人物の眼画像の各ペアと埋込空間内の全ての他の人物の眼画像との間に許容差を適用することができる。故に、1人の人物の眼画像の埋込空間表現は、埋込空間内でともに近接してクラスタ化されることができる。同時に、異なる人物の眼画像の埋込空間表現は、維持または最大限にされることができる。別の実施例として、許容差mは、1人の人物の左眼の画像の各ペアとその人物の右眼の画像または全ての他の人物の眼画像との間に許容差を適用することができる。
埋込108の学習の反復の間、トリプレット損失層128は、異なる数のトリプレットに関して、EmbA120a、EmbP120p、およびEmbN120nを比較することができる。例えば、トリプレット損失層128は、トリプレット訓練セットT2内の全てのトリプレット(EmbA;EmbP;EmbN)に関して、EmbA120a、EmbP120p、およびEmbN120nを比較することができる。別の実施例として、トリプレット損失層128は、トリプレット訓練セットT2内のトリプレット(EmbA;EmbP;EmbN)のバッチに関して、EmbA120a、EmbP120p、およびEmbN120nを比較することができる。バッチ内のトリプレットの数は、異なる実装では、異なり得る。例えば、バッチは、(EmbA;EmbP;EmbN)の64のトリプレットを含むことができる。別の実施例として、バッチは、トリプレット訓練セットT2内の全てのトリプレット(EmbA;EmbP;EmbN)を含むことができる。
埋込108の学習の反復の間、トリプレット損失層128は、トリプレット損失を算出することによって、トリプレット(EmbA;EmbP;EmbN)のバッチに関してEmbA120a、EmbP120p、およびEmbN120nを比較することができる。トリプレット損失は、例えば、以下であることができる。
Figure 0007001672000001
式中、nは、トリプレットのバッチ内のトリプレットの数を示し、EmbA(i)、EmbP(i)、EmbN(i)は、トリプレットのバッチ内のi番目のEmbA120a、EmbP120p、およびEmbN120nを示し、mは、許容差を示す。別の実施例として、トリプレット損失は、以下であることができる。
Figure 0007001672000002
式中、nは、トリプレットのバッチ内のトリプレットの数を示し、EmbA(i)、EmbP(i)、およびEmbN(i)は、トリプレットのバッチ内のi番目のEmbA120a、EmbP120p、およびEmbN120nを示し、m1は、2つの埋込空間表現間の距離のモディファイアを示し、m2は、2つの埋込空間表現間の絶対距離のモディファイアを示し、m3は、許容差を示す。
埋込108の学習の間、眼認証訓練装置104は、トリプレット(EmbA;EmbP;EmbN)のバッチ間の比較、例えば、トリプレット(EmbA;EmbP;EmbN)のバッチ間のトリプレット損失に基づいて、ENetworkA124a、ENetworkP124p、およびENetworkN124nを更新することができる。眼認証訓練装置104は、周期的に、例えば、反復毎または1,000反復毎に、ENetworkA124a、ENetworkP124p、およびENetworkN124nを更新することができる。眼認証訓練装置104は、ENetworkA124a、ENetworkP124p、およびENetworkN124nを更新し、埋込空間を最適化することができる。埋込空間の最適化は、異なる実装では、異なり得る。例えば、埋込空間の最適化は、式1.1(または式1.2)を最小限にすることを含むことができる。別の実施例として、埋込空間の最適化は、EmbA120aとEmbP120pとの間の距離を最小限にし、EmbA120aとEmbN120nとの間の距離を最大限にすることを含むことができる。
埋込空間の最適化の反復後、眼認証訓練装置104は、その出力として、眼画像をより高次元の眼画像空間からより低次元の埋込空間内の眼画像の表現の中にマッピングする埋込108、または、ユーザデバイスが、ユーザが認可されたユーザとして認証されるはずであるように、ユーザの眼画像の埋込空間表現が埋込空間内の認可されたユーザの眼画像に十分に類似するかどうかを決定するための閾値132のうちの1つ以上のものを算出することができる。眼認証訓練装置104は、サービスオペレータが、眼認証訓練装置104が埋込108または閾値132を算出する際に使用することができる、または使用すべきである、眼画像の特徴を規定する必要なく、埋込108または閾値132を決定することができる。
閾値132は、異なる実装では、異なり得る。例えば、閾値132は、埋込108の学習の最後の反復の際に(ImgA;ImgP;ImgN)トリプレットから決定された同一人物の眼画像間の最大距離であることができる。別の実施例として、閾値132は、埋込108の学習の最後の反復の際に(ImgA;ImgP;ImgN)トリプレットから決定された同一人物の眼画像間の中央値距離であることができる。さらに別の実施例として、閾値132は、埋込108の学習の最後の反復の際に(ImgA;ImgP;ImgN)トリプレットから決定された異なる人物の眼画像間の最大距離より小さくあることができる。
埋込108を学習するために要求される反復の数は、異なる実装では、異なり得る。例えば、反復の数は、100,000であることができる。別の実施例として、反復の数は、事前に定義されなくてもよく、等価エラー率(EER)2%を有する等の満足の行く特性を伴って埋込108を学習するために要求される反復に依存することができる。さらに別の実施例として、反復の数は、満足の行くトリプレット損失を取得するために要求される反復に依存することができる。
認可されていないユーザと認可されたユーザとを区別する埋込108の能力は、異なる実装では、異なり得る。例えば、埋込108の偽陽性率(FPR)は、0.01%であることができ、埋込108の真陽性率(TPR)は、99.99%であることができる。別の実施例として、埋込108の偽陰性率(FNR)は、0.01%であることができ、埋込108の真陰性率(TNR)は、99.99%であることができる。埋込108の等価エラー率(EER)は、例えば、1%であることができる。
眼認証訓練装置104は、埋込108を学習するために、トリプレットネットワークアーキテクチャ以外のアーキテクチャを有する、ディープニューラルネットワーク112を実装することができる。ディープニューラルネットワーク112のアーキテクチャの非限定的実施例は、ディープビリーフネットワークアーキテクチャ、ボルツマンマシンアーキテクチャ、制限付きボルツマンマシンアーキテクチャ、ディープボルツマンマシンアーキテクチャ、またはディープオートエンコーダアーキテクチャを含む。
(例示的ディープニューラルネットワーク)
眼認証訓練装置104は、埋込108を学習するようにディープニューラルネットワーク112を訓練することができる。ディープニューラルネットワーク112は、1つ以上のディープニューラルネットワーク層を含むことができる。ディープニューラルネットワーク層は、線形または非線形変換をその入力に適用し、その出力を生成することができる。ディープニューラルネットワーク層は、正規化層、畳み込み層、ソフトサイン層、正規化線形層、連結層、プーリング層、再帰層、インセプション様層、または任意のそれらの組み合わせであることができる。正規化層は、例えば、L2正規化を用いて、その入力の明度を正規化し、その出力を生成することができる。正規化層は、例えば、相互に対して一度に複数の画像の明度を正規化し、複数の正規化された画像をその出力として生成することができる。明度を正規化するための非限定的例示的方法は、ローカルコントラスト正規化(LCN)またはローカル応答正規化(LRN)を含む。ローカルコントラスト正規化は、平均値ゼロおよび分散1(または他の値の平均値および分散)を有するようにピクセル毎に画像のローカル領域を正規化することによって、画像のコントラストを非線形に正規化することができる。ローカル応答正規化は、平均値ゼロおよび分散1(または他の値の平均値および分散)を有するように、画像をローカル入力領域にわたって正規化することができる。正規化層は、埋込108の算出を加速させ得る。
畳み込み層は、その入力を畳み込み、その出力を生成する、カーネルのセットに適用されることができる。ソフトサイン層は、ソフトサイン関数をその入力に適用することができる。ソフトサイン関数(softsign(x))は、例えば、(x/(1+|x|))であることができる。ソフトサイン層は、要素毎アウトライアの影響を無視し得る。埋込空間に関する要素毎アウトライアは、トリプレット(ImgA;ImgP;ImgN)であることができ、ImgA116aとImgP116pとの間の埋込空間内の距離は、ImgA116aとImgN116nとの間の要素毎埋込空間内の距離より大きい。要素毎アウトライアは、眼画像またはセグメント化された虹彩画像内の眼瞼閉塞または偶発的明スポットのために生じ得る。
正規化線形層は、正規化線形層単位(ReLU)またはパラメータ化された正規化線形層単位(PReLU)であることができる。ReLU層は、ReLU関数をその入力に適用し、その出力を生成することができる。ReLU関数ReLU(x)は、例えば、max(0,x)であることができる。PReLU層は、PReLU関数をその入力に適用し、その出力を生成することができる。PReLU関数PReLU(x)は、例えば、x≧0の場合はxおよびx<0の場合はaxであることができ、aは、正の数である。
連結層は、その入力を連結し、その出力を生成する。例えば、連結層は、4つの5×5画像を連結し、1つの20×20画像を生成することができる。プーリング層は、その入力をダウンサンプリングし、その出力を生成する、プーリング関数を適用することができる。例えば、プーリング層は、20×20画像を10×10画像にダウンサンプリングすることができる。プーリング関数の非限定的実施例は、最大プーリング、平均プーリング、または最小プーリングを含む。
時間点tでは、再帰層は、隠蔽された状態s(t)を算出することができ、再帰接続は、時間tにおける隠蔽された状態s(t)を再帰層に後続時間点t+1における入力として提供することができる。再帰層は、時間tにおける隠蔽された状態s(t)に基づいて、時間t+1においてその出力を算出することができる。例えば、再帰層は、ソフトサイン関数を時間tにおいて隠蔽された状態s(t)に適用し、時間t+1におけるその出力を算出することができる。時間t+1における再帰層の隠蔽された状態は、その入力として、時間tにおける再帰層の隠蔽された状態s(t)を有する。再帰層は、例えば、ReLU関数をその入力に適用することによって、隠蔽された状態s(t+1)を算出することができる。
インセプション様層は、正規化層、畳み込み層、ソフトサイン層、ReLU層およびPReLU層等の正規化線形層、連結層、プーリング層、または任意のそれらの組み合わせのうちの1つ以上のものを含むことができる。図2は、インセプション様層200の例示的アーキテクチャを描写する。インセプション様層200は、1つ以上の畳み込み層(例えば、畳み込み層204)と、畳み込み層、PReLU層、および最大プーリング層の1つ以上の組み合わせ(例えば、畳み込み層、PReLU層、および最大プーリング層の3つの組み合わせ)とを使用して、その入力202を処理することができる。畳み込み層204は、21×21の幅および高さを伴う入力202の64チャネルを受信し、16チャネルと、21×21の幅および高さとを伴う、その出力を生成することができる。畳み込み層204のカーネルサイズおよびストライドは、それぞれ、1×1および1であることができる。
畳み込み層206aおよびPReLU層206bは、入力202の64チャネルを畳み込み、変換し、32チャネルを伴う出力を生成することができる。畳み込み層206aのカーネルサイズおよびストライドは、それぞれ、1×1および1であることができる。畳み込み層206Cは、畳み込み層206aおよびPReLU層206bの出力をその入力として使用し、16チャネルを伴うその出力を生成することができる。畳み込み層206cのカーネルサイズおよびストライドは、それぞれ、3×3および1であることができる。
畳み込み層208aおよびPReLU層208bは、入力202の64チャネルを畳み込み、変換し、32チャネルを伴う出力を生成することができる。畳み込み層208aのカーネルサイズおよびストライドは、それぞれ、1×1および1であることができる。畳み込み層208cは、畳み込み層208aおよびPReLU層208bの出力をその入力として使用し、16チャネルを伴うその出力を生成することができる。畳み込み層208cのカーネルサイズおよびストライドは、それぞれ、5×5および1であることができる。
最大プーリング層210aは、入力202の64チャネルの次元を低減させ、32チャネルを伴うその出力を生成することができる。最大プーリング層210aのカーネルサイズおよびストライドは、それぞれ、3×3および1であることができる。畳み込み層210bは、最大プーリング層210aの出力を畳み込み、16チャネルのその出力を生成し得る。最大プーリング層210aのカーネルサイズおよびストライドは、それぞれ、1×1および1であることができる。連結層212は、畳み込み層204、206c、208c、および210bの16-チャネル出力を連結し、サイズ21×21×64を伴うその出力を生成することができる。
ディープニューラルネットワーク112内のディープニューラルネットワーク層の数は、異なる実装では、異なり得る。例えばディープニューラルネットワーク112内のディープニューラルネットワーク層の数は、100であることができる。ディープニューラルネットワーク層の入力タイプは、異なる実装では、異なり得る。例えば、ディープニューラルネットワーク層は、(Img;Label)ペアの訓練セットT1をその入力として受信することができる。別の実施例として、ディープニューラルネットワーク層は、(ImgA;ImgP;ImgN)トリプレットの訓練セットT2を受信することができる。さらに別の実施例として、ディープニューラルネットワーク層は、いくつかのディープニューラルネットワーク層の出力をその入力として受信することができる。
ディープニューラルネットワーク層の入力は、異なる実装では、異なり得る。例えば、ディープニューラルネットワーク層の入力は、5つのディープニューラルネットワーク層の出力を含むことができる。別の実施例として、ディープニューラルネットワーク層の入力は、ディープニューラルネットワーク112のディープニューラルネットワーク層の1%を含むことができる。ディープニューラルネットワーク層の出力は、いくつかのディープニューラル層の入力であることができる。例えば、ディープニューラルネットワーク層の出力は、5つのディープニューラルネットワーク層の入力として使用されることができる。別の実施例として、ディープニューラルネットワーク層の出力は、ディープニューラルネットワーク層のディープニューラルネットワーク層の1%の入力として使用されることができる。
ディープニューラルネットワーク層の入力サイズまたは出力サイズは、非常に大きくあることができる。ディープニューラルネットワーク層の入力サイズまたは出力サイズは、n×mであることができ、nは、入力または出力の幅を示し、mは、高さを示す。例えば、nまたはmは、21であることができる。ディープニューラルネットワーク層の入力または出力のチャネルサイズは、異なる実装では、異なり得る。例えば、ディープニューラルネットワーク層の入力または出力のチャネルサイズは、32であることができる。ディープニューラルネットワーク層のカーネルサイズは、異なる実装では、異なり得る。例えば、カーネルサイズは、n×mであることができ、nは、カーネルの幅を示し、mは、高さを示す。例えば、nまたはmは、5であることができる。ディープニューラルネットワーク層のストライドサイズは、異なる実装では、異なり得る。例えば、ディープニューラルネットワーク層のストライドサイズは、3であることができる。
(例示的ディープネットワークアーキテクチャ)
図3は、例示的ディープネットワークアーキテクチャを図示する、表を示す。DNN112は、図3に示されるディープネットワークアーキテクチャを実装することができる。DNN112は、眼画像、例えば、虹彩画像をその入力として受信する、ローカルコントラスト正規化層302を含むことができる。ローカルコントラスト正規化層302は、相互に対して一度に複数の眼画像を正規化することができる。ローカルコントラスト正規化層302の入力サイズは、208×208×1であることができ、入力の幅、高さ、およびチャネルサイズを表す。ローカルコントラスト正規化層302のカーネルサイズおよびストライドは、それぞれ、9×9および1であることができる。
ローカルコントラスト正規化層302の出力は、畳み込み層304a、304b、または304c、ReLU層306a、306b、または306c、または最大プーリング層308a、308b、または308cの3つの連続組み合わせに接続されることができる。畳み込み層304a、304b、または304cの入力サイズは、それぞれ、200×200×1、98×98×16、または47×47×32であることができる。畳み込み層304a、304b、または304cのカーネルサイズおよびストライドは、それぞれ、5×5および1であることができる。最大プーリング層308a、308b、または308cの入力サイズは、それぞれ、196×196×16、94×94×32、または43×43×64であることができる。最大プーリング層308a、308b、または308cのカーネルサイズおよびストライドは、それぞれ、2×2および2であることができる。
インセプション様層310は、3つの連続畳み込み層304a、304b、または304c、ReLU層306a、306b、または306c、または最大プーリング層308a、308b、または308cに続くことができる。インセプション様層310は、図2に図示されるようなものであることができる。インセプション様層310の入力サイズは、21×21×64であることができる。インセプション様層310は、図2に図示される寸法低減を伴う、1×1、3×3、および5×5畳み込み層を含むことができる。
図3を参照すると、インセプション様層310の後には、入力サイズ21×21×64を伴うReLU層312が続くことができる。ReLU層312の入力サイズは、21×21×64であることができる。畳み込み層314とソフトサイン層316の組み合わせは、ReLU層312に続くことができる。畳み込み層314の入力サイズは、21×21×64であることができる。畳み込み層314のカーネルサイズおよびストライドは、それぞれ、1×1および1であることができる。L2正規化層318は、その入力をサイズ21×21×1で正規化し、サイズ21×21×1を伴うその出力を生成することができる。したがって、図3に示されるディープニューラルネットワーク112によって学習された埋込108は、眼画像を208×208寸法の眼画像空間から埋込空間内の432寸法を伴う埋込空間表現の中にマッピングすることができる。
(例示的眼画像およびセグメント化された虹彩画像)
眼認証訓練装置104は、眼画像およびラベルのペア(Img;Label)を含む訓練セットT1から埋込108を学習するように、ディープニューラルネットワーク(DNN)112を訓練することができ、Imgは、ユーザの眼の画像を示し、Labelは、ユーザの識別が他のユーザの識別から区別されることを可能にする。いくつかの実装では、訓練セットT1は、トリプレット(ImgL;ImgR;Label)を含むことができ、ImgLは、ユーザの左眼の画像を示し、ImgRは、ユーザの右眼の画像を示し、Labelは、ユーザの識別が他のユーザの識別から区別されることを可能にする。(Img;Label)ペアまたは(ImgL;ImgR;Label)トリプレットの訓練セットT1から、眼認証訓練装置104は、(ImgA;ImgP;ImgN)のトリプレットを含む、トリプレット訓練セットT2を算出することができ、ImgA116aおよびImgP116pは、人物の眼画像(または人物の左眼または右眼の画像)であって、ImgN116nは、別の人物の眼画像(または同一人物の他の眼の画像)である。眼画像は、眼の異なる部分の画像であることができる。例えば、眼画像110は、眼の眼球周囲領域の画像を含むことができる。別の実施例として、眼画像110は、セグメント化された虹彩画像を含むことができる。眼認証訓練装置104は、埋込108の学習のために、眼画像110を極座標に変換し、極眼画像を生成することができる。
眼認証訓練装置104によって受信された眼画像110は、眼の虹彩部分および眼球周囲領域の両方を含むことができる。いくつかの実施形態では、眼認証訓練装置104は、最初に眼球周囲画像をセグメント化せずに、眼画像内の重要な特徴、例えば、虹彩特徴または非虹彩特徴を学習するように、眼画像を使用して、ディープニューラルネットワーク112を訓練することができる。したがって、DNN112は、虹彩内のデータが特に非常に有益であることを学習することができるが、また、画像の眼球周囲部分も、そうすることが、虹彩特徴識別を補助する場合、利用することができる。眼球周囲領域は、眼と、例えば、眼を囲繞する眼瞼、眉毛、睫毛、および皮膚(一意のテクスチャを有し得る)等の、眼の周囲の部分とを含む。例えば、人物の涙管の特定の構造は、識別情報を提供し得る。故に、DNNによる眼球周囲領域の分析は、単に虹彩単独の分析よりロバストなバイオメトリックシグネチャを提供し得る(埋込を介して)。
眼認証訓練装置104は、随意に、虹彩抽出装置を含むことができる。虹彩抽出装置は、眼画像をセグメント化し、眼画像の虹彩部分を抽出し、セグメント化された虹彩画像を生成する、または虹彩を囲繞する強膜部分等の眼画像の別の部分を抽出し、セグメント化された眼画像を生成することができる。眼認証訓練装置104は、セグメント化された虹彩画像を使用して、ディープニューラルネットワーク112を訓練することができる。虹彩抽出装置は、異なる実装では、異なり得る。例えば、虹彩抽出装置は、ディープニューラルネットワークを使用して実装されることができる。ディープニューラルネットワークは、図1、2、または3に図示されるアーキテクチャを有することができる。別の実施例として、虹彩抽出装置は、積分微分演算子(例えば、ドーグマンの方法)、ハフ変換、測地的動的輪郭、縁を伴わない動的輪郭、指向性光線検出方法、ワイルドの方法、カミュおよびワイルドの方法、マーティン-ロッシュの方法、または任意のそれらの組み合わせに基づく技法等、他の公知の虹彩セグメント化技法も利用することができる。
いくつかの実装では、コンピュータビジョン技法が、虹彩セグメント化を実施するために使用されることができる。コンピュータビジョンモジュールは、1つ以上のコンピュータビジョン技法を実装することができる。コンピュータビジョン技法の非限定的実施例は、スケール不変特徴変換(SIFT)、スピードアップロバスト特徴(SURF)、配向FASTおよび回転BRIEF(ORB)、バイナリロバスト不変スケーラブルキーポイント(BRISK)、高速網膜キーポイント(FREAK)、Viola-Jonesアルゴリズム、Eigenfacesアプローチ、Lucas-Kanadeアルゴリズム、Horn-Schunkアルゴリズム、Mean-shiftアルゴリズム、視覚的同時位置推定およびマッピング(vSLAM)技法、シーケンシャルベイズ推定器(例えば、カルマンフィルタ、拡張カルマンフィルタ等)、バンドル調節、適応閾値化(および他の閾値化技法)、反復最近傍点(ICP)、セミグローバルマッチング(SGM)、セミグローバルブロックマッチング(SGBM)、特徴点ヒストグラム、種々の機械学習アルゴリズム(例えば、サポートベクトル機械、k最近傍アルゴリズム、単純ベイズ、ニューラルネットワーク(畳み込みまたは深層ニューラルネットワークを含む)、または他の教師あり/教師なしモデル等)等を含む。
眼画像は、同一人物の複数の眼画像を使用して作成された複合画像であることができる。同一人物の複数の眼画像は、例えば、ビデオの複数のフレームとして時間的に近接して捕捉されることができる。いくつかの実施形態では、(Img;Label)ペアの訓練セットT1内の眼画像のいくつかは、ビデオの複数のフレームから抽出される。人物の眼画像は、人物の眼画像の時系列を含むことができる。
訓練セットT1のサイズは、非常に大きくあることができる。例えば、訓練セットT1は、10(Img;Label)ペアを含むことができる。訓練セットT1は、異なる実装では、数人の人物の眼画像を含むことができる。例えば、訓練セットTは、1,000人の人物の眼画像を含むことができる。人物毎に、訓練セットT1内の眼画像の数は、異なる実装では、異なり得る。例えば、人物毎に、訓練セットT内の眼画像の数は、1,000であることができる。トリプレット訓練セットT2のサイズは、非常に大きくあることができる。例えば、トリプレット訓練セットT2は、10(ImgA;ImgP;ImgN)トリプレットを含むことができる。トリプレット訓練セットT2は、異なる実装では、数人の人物の眼画像を含むことができる。例えば、トリプレット訓練セットT2は、1,000人の人物の眼画像を含むことができる。人物毎に、トリプレット訓練セットT2内の眼画像の数は、異なる実装では、異なり得る。例えば、人物毎に、トリプレット訓練セットT2内の眼画像の数は、1,000であることができる。
(他のバイオメトリック情報との例示的組み合わせ)
眼認証訓練装置104は、他のバイオメトリック識別情報を利用して、ディープニューラルネットワーク(DNN)112を訓練することができる。例えば、(Img;Label)ペアの訓練セットT1を利用して、DNN112を訓練することに加え、眼認証訓練装置104は、同時に、または連続して、DNN112を他のバイオメトリック情報で訓練することができる。他のバイオメトリック情報の非限定的実施例は、肌質、皮膚テクスチャ、指紋、または音声を含む。いくつかの実装では、バイオメトリック情報は、バイオメトリック情報の時系列を含むことができる。眼画像および他のバイオメトリック情報から、眼認証訓練装置104は、眼画像および他のバイオメトリック情報の組み合わせを共同埋込空間の中にマッピングし得る、埋込108を学習することができる。ユーザデバイスの眼認証装置104は、共同埋込空間の中への眼画像および他のバイオメトリック情報の共同埋込に基づいて、ユーザを認証することができる。
いくつかの実装では、他のバイオメトリック情報は、眼画像とともに、共同埋込空間の中に共同埋込されなくてもよい。例えば、ユーザデバイスは、埋込空間内の眼画像の表現および別の埋込空間内の他のバイオメトリック情報の表現に基づいて、ユーザを認証することができる。別の実施例として、ユーザデバイスは、部分的に、眼画像空間内の眼画像の表現または他のバイオメトリック情報のネイティブ空間内の他のバイオメトリック情報に基づいて、ユーザを認証することができる。いくつかの実施形態では、ユーザデバイスは、1つ以上の埋込空間および1つ以上の共同埋込空間に基づいて、ユーザを認証することができる。共同埋込空間は、2つ以上のタイプのバイオメトリック情報を共同埋込することができる。例えば、ユーザデバイスは、眼画像のための埋込空間およびバイオメトリック情報のための共同埋込空間(例えば、眼画像のための共同埋込空間)に基づいて、ユーザを認証することができる。別の実施例として、共同埋込空間は、ユーザの左眼の眼画像およびユーザの右眼の眼画像を埋め込むことができる。共同埋込は、有利には、より良好な品質(例えば、より高い真陽性率、より高い真陰性率、より低い等価エラー率、または任意のそれらの組み合わせ)をもたらし得る。
(埋込ネットワークの例示的学習)
ディープニューラルネットワーク112は、ネステロフモーメンタムを伴う確率的勾配降下法を使用して、埋込108を学習するように訓練された。ディープニューラルネットワーク112は、図1に図示されるトリプレットネットワークアーキテクチャを有し、アンカ埋込ネットワーク(ENetworkA)124a、正の埋込ネットワーク(ENetworkP)124P、および負の埋込ネットワーク(ENetworkN)124nを含んでいた。埋込108、ENetworkA124a、ENetworkP124P、およびENetworkN124nは、図2-3に図示されるネットワークアーキテクチャを有していた。埋込108の学習の間、反復毎に、バッチサイズ64を伴う、セグメント化された虹彩画像のランダムトリプレット(ImgA;ImgP;ImgN)のミニバッチが、生成された。
ディープニューラルネットワーク(DNN)112は、難しいトリプレットで訓練された。全ての可能性として考えられるランダム(ImgA;ImgP;ImgN)トリプレットを使用して、ディープニューラルネットワーク112を訓練することは、式1.1、1.2、2.1、または2.2における制約を容易に満たすことができる、多くのトリプレットをもたらし得る。これらのトリプレットは、ディープニューラルネットワーク112の訓練に実質的に寄与し得ず、より低速の収束をもたらし得る。ディープニューラルネットワーク112は、埋込108の学習に寄与した難しいトリプレットで訓練された。
以下のプロシージャが、難しいトリプレットを選択するために使用された。半分を上回らないランダムトリプレットのミニバッチが、難しいトリプレットを含んだ。2つの異なる対象S1およびS2が、選択された。ImgA116aは、対象S1のセグメント化された虹彩画像からランダムにサンプリングされた。ImgP116pおよびImgN116nのための候補は、それぞれ、対象S1の虹彩画像および対象S2の虹彩画像から100回ランダムにサンプリングされた。トリプレット(ImgA;ImgP;ImgN)が、その対応するトリプレット(EmbA;EmbP;EmbN)が、式1.1において最大値をもたらし、|EmbA-EmbP|<|EmbA-EmbN|であった場合、ミニバッチのために選択された。本選択プロシージャは、有利には、埋込108の学習のための難しいトリプレットを選択し、改良された学習速度をもたらし得る。結果として生じる埋込108は、有利には、ランダムトリプレットのみが埋込108の学習の間に使用された場合と比較して、より良好な品質(例えば、より高い真陽性率、より高い真陰性率、より低い等価エラー率、またはそれらの組み合わせ)を有し得る。
ランダムトリプレットのミニバッチ内の残りのトリプレットは、ランダムに選択された。3つの同じ埋込ネットワークENetworkA124a、ENetworkP124p、またはENetworkN124nが、訓練の間、1,000反復毎に1回、再算出され、トリプレット(ImgA;ImgP;ImgN)をマッピングおよびランク付けするために使用された。1,000反復毎に1回の3つの同じ埋込ネットワークENetworkA124a、ENetworkP124p、またはENetworkN124nの再算出は、有利には、ランダムトリプレットのミニバッチを生成する時間を節約し得る。
図4Aおよび4Bは、100,000反復後の図1-3に図示されるディープネットワークアーキテクチャを伴うディープニューラルネットワーク112を使用した埋込108を学習する例示的結果を示す。図4Aは、サンプル対埋込距離の比のヒストグラムプロットであって、同一対象および異なる対象の眼画像間の埋込空間内の距離を示す。同一対象の虹彩画像は、埋込空間内でともにより近く、異なる対象の虹彩画像は、埋込空間内で相互からより遠くに離れた。
図4Bは、真陽性率(TPR)対偽陽性率(FPR)の受信者動作特性(ROC)曲線である。曲線下面積(AUC)は、98.74%である。等価エラー率(EER)メトリックは、虹彩画像の試験セットにおけるペア毎照合品質を示すことができる。ランダムトリプレットの試験セットは、ランダムトリプレットのトリプレット訓練セットT2を生成するために使用される対象と異なる対象を使用して生成された。ローカルコントラスト正規化を伴う試験セットにおいて、5.6%EERが、達成された。ローカルコントラスト正規化を伴わない場合、6.8%EERが、達成された。ローカル応答正規化を伴う場合、5.3%EERが、達成された。
極座標に変換された虹彩画像を使用して、ディープニューラルネットワーク112を訓練することで、3.6%EERが、達成された。本結果は、1つの埋込空間表現を算出するために、フレームのグループを使用して改良されることができる。1つのアプローチは、いくつかの虹彩極画像をディープニューラルネットワーク112のn-チャネル入力として、例えば、6つの虹彩画像を6-チャネル入力として使用することができる。n-チャネル入力の利用は、ディープニューラルネットワーク112が信号融合を実施することを可能にし得る。
別のアプローチは、ディープニューラルネットワーク112内で再帰層を利用することができ、例えば、再帰層は、DNN112の入力層のより近くに、DNN112の内部に位置することができる、またはDNN112の出力層のより近くに位置することができる。再帰層は、ディープニューラルネットワーク112が埋込融合を実施することを可能にし得る。ディープニューラルネットワーク112は、長短期メモリ(LSTM)アーキテクチャ、すなわち、LSTMブロックを含有する人工ニューラルネットワークを実装することができる。LSTMブロックは、恣意的時間長にわたって値を記憶することができる。LSTMブロックは、入力が記憶するために十分に有意であるとき、値の記憶を継続または消去すべきであるとき、および値を出力すべきであるときを決定することができる。
別のアプローチは、n-チャネル入力と再帰層を組み合わせることができる。n-チャネルディープニューラルネットワークは、最良正確度を与え得る。長短期メモリ(LSTM)アーキテクチャは、n-チャネルディープニューラルネットワークと組み合わせてのみ、正確度を改良し得る。例えば、64極画像あたり1つの埋込空間表現を算出した8-チャネルLSTM-ディープニューラルネットワークは、等価エラー率(EER)2.9%をもたらした。
図5Aおよび5Bは、50,000反復後の図1-3に図示されるディープネットワークアーキテクチャを伴うディープニューラルネットワーク112を使用した埋込108を学習する例示的結果を示す。ディープニューラルネットワーク112は、6つの連続極画像のグループを6-チャネル入力として使用して訓練された。図5Aは、確率密度対埋込距離のヒストグラムプロットであって、同一対象および異なる対象の極画像のグループのペア間の埋込空間内の距離を示す。図5Bは、真陽性率(TPR)対偽陽性率(FPR)の受信者動作特性(ROC)曲線である。試験セットでは、2.14%EERが、6-チャネル入力を伴って達成された。対照的に、虹彩コードとハミング距離の組み合わせは、極虹彩画像、すなわち、極座標に変換された虹彩画像を使用して、8%EERをもたらした。
(例示的ユーザデバイス)
図6は、ユーザデバイスの例示的眼認証装置604のブロック図である。眼認証装置604は、ユーザが認可されたユーザであるかどうかを決定するように構成されることができる。ユーザデバイスは、眼画像を捕捉するように構成される、画像センサ(例えば、デジタルカメラ)を含むことができる。ユーザを認証するために、画像センサは、ユーザの眼画像110を捕捉することができる。ユーザの眼画像から、眼認証装置604は、埋込608を使用して、ユーザが認可されたユーザであるかどうかを決定することができる。埋込608は、眼画像110を埋込空間内の埋込空間表現の中にマッピングすることができる。
埋込608は、眼認証訓練装置104によって学習された埋込108と同一であることができる、または埋込608は、眼認証訓練装置104によって学習された埋込108に類似することができる(例えば、埋込608は、量子化された埋込108の加重値を有することができる)。埋込608のアーキテクチャは、埋込108のアーキテクチャと同一であるであることができる、または埋込608のアーキテクチャは、埋込108のアーキテクチャに類似することができる。
いくつかの実施形態では、埋込608は、認証の間、埋込608がユーザの眼画像の埋込空間表現を算出する際、虹彩セグメント化(またはいくつかの眼画像およびいくつかの虹彩画像)を伴わずに、眼画像を使用して訓練されることができる。いくつかの実施形態では、埋込608は、認証の間、埋込608がユーザの虹彩画像の埋込空間表現を算出する際、虹彩画像を使用して訓練されることができる。そのような実施形態は、有利には、認証の間、算出を節約し得る。
埋込608の入力は、異なる実装では、異なり得る。例えば、埋込608の入力は、眼画像110であることができる。別の実施例として、埋込608の入力は、セグメント化された虹彩画像であることができる。眼認証装置604は、随意に、眼画像をセグメント化し、眼画像の虹彩部分を抽出し、セグメント化された虹彩画像614を生成するための虹彩抽出装置612を含むことができる。さらに別の実施例として、埋込608の入力は、埋込108の入力と同一であることができる。
ユーザの眼画像110(またはセグメント化された虹彩画像614)から、埋込608は、ユーザの眼画像の埋込空間表現(EmbImg)120を算出することができる。ユーザの眼画像の埋込空間表現120は、埋込空間内のユーザの眼画像110のn-次元表現であることができる。分類子616は、埋込空間表現120に基づいて、ユーザが認可されたユーザであるかどうかの尤度スコアを計算することができる。尤度スコアに基づいて、分類子616は、ユーザが認可されたユーザであるかどうかを決定することができる(例えば、閾値132値に基づいて)。
尤度スコアは、異なる実装では、異なるように計算されることができる。例えば、分類子616は、EmbImg120と認可されたユーザの眼画像の埋込空間表現を比較し、尤度スコアを計算することができる。別の実施例として、分類子616は、EmbImg120と認可されたユーザの2つ以上の眼画像の埋込空間表現を比較し、尤度スコアを計算することができる。EmbImg120と認可されたユーザの1つ以上の眼画像との間の距離が、閾値、例えば、眼認証訓練装置104によって決定された閾値132内にある場合、分類子616は、ユーザデバイスに、ユーザが認可されたユーザとして認証されるべきであるように、ユーザの眼画像が埋込空間内の認可されたユーザの眼画像に十分に類似することを示すことができる。埋込空間内の2つの眼画像の表現間の距離は、例えば、2つの表現間のユークリッド距離(L2ノルム等)または非ユークリッド距離(例えば、双曲線空間)であることができる。ユーザデバイスは、分類子の決定に基づいて、ユーザを認証し、ユーザへのアクセスを許可または否認することができる。いくつかの実装では、閾値は、認証の間、埋込608がユーザの眼画像の埋込空間表現(または虹彩画像)を算出する際、虹彩セグメント化(またはいくつかの眼画像およびいくつかの虹彩画像)を伴って(または伴わずに)、埋込608が眼画像を使用して訓練される場合、より大きく(またはより小さく)あることができる。そのような実装は、有利には、認証の間、算出を節約し得る。
分類子616は、多くのタイプの分類子のうちの1つであることができる。例えば、分類子616は、ロジスティック回帰分類子、サポートベクトルマシン分類子、ベイズ分類子、またはソフトマックス分類子等のバイナリ分類子であることができる。例えば、分類子616は、マルチクラスロジスティック回帰分類子、マルチクラスサポートベクトルマシン分類子、またはベイズ分類子等のマルチクラスまたはマルチラベル分類子であることができる。
(眼認証のための例示的プロセス)
図7は、眼認証のための例示的プロセス700のフロー図である。眼認証装置604は、眼認証のための例示的プロセス700を実装することができる。プロセス700は、ブロック704から開始する。ブロック708では、ユーザの眼画像が、受信される。例えば、ユーザデバイスの画像センサ(例えば、デジタルカメラ)が、ユーザの眼画像を捕捉することができる。ブロック708においてユーザの眼画像を受信後、ユーザの眼画像は、ブロック712において、随意に、例えば、ユーザデバイスの虹彩抽出装置612によって虹彩画像を生成するためにセグメント化されることができる。ブロック716では、眼認証装置604の埋込608は、ユーザの虹彩画像(または眼画像)の埋込空間表現を算出することができる。いくつかの実施形態では、埋込608は、認証の間、埋込608がユーザの眼画像の埋込空間表現を算出する際、虹彩セグメント化(またはいくつかの眼画像およびいくつかの虹彩画像)を伴わずに、眼画像を使用して訓練されることができる。いくつかの実施形態では、埋込608は、認証の間、埋込608がユーザの虹彩画像の埋込空間表現を算出する際、虹彩画像を使用して訓練されることができる。そのような実施形態は、有利には、認証の間、算出を節約し得る。
ユーザの虹彩画像の埋込空間表現に基づいて、眼認証装置604の分類子616は、例えば、ブロック720において、ユーザが認可されたユーザであるかどうかを決定することができる。例えば、分類子616は、ユーザの虹彩画像の埋込空間表現と認可されたユーザの1つ以上の虹彩画像の1つ以上の埋込空間表現を比較することができる。ユーザの虹彩画像の埋込空間表現と認可されたユーザの1つ以上の虹彩画像との間の距離が、閾値、例えば、眼認証訓練装置104によって決定された閾値132内にある場合、眼認証装置604の分類子616は、ユーザデバイスに、ユーザが認可されたユーザとして認証されるべきであるように、ユーザの虹彩画像が埋込空間内の認可されたユーザの虹彩画像に十分に類似することを示すことができる。ブロック728では、ユーザデバイスは、ブロック720において、例えば、分類子の決定に基づいて、ユーザのアクセスを許可または否認することができる。プロセス700は、ブロック728において終了する。
(例示的眼認証システム)
図8は、眼認証システム800の実施例を図式的に図示する。眼認証システム800は、眼認証訓練システム804と、1人以上の認可されたユーザによって動作される、1つ以上のユーザデバイスとを含むことができる。例えば、第1の認可されたユーザは、第1のユーザデバイス808aを動作させることができ、第2の認可されたユーザは、第2のユーザデバイス808bを動作させることができる。眼認証訓練システム804またはユーザデバイス808aまたは808bは、1つ以上の場所における1つ以上のコンピュータ上のコンピュータプログラムとして、上記に説明されるシステム、コンポーネント、または技法を実装することができる。
眼認証訓練システム804は、ユーザデバイス808aまたは808bに、眼認証のために、眼画像を眼画像空間から埋込空間表現の中にマッピングし得る、埋込108を提供することができる。眼認証訓練システム804によってユーザデバイス808aまたは808bに、提供される埋込108は、虹彩認証のために、虹彩画像(眼球周囲領域の画像からセグメント化され得る)を虹彩画像空間から埋込空間表現の中にマッピングすることができる。眼認証訓練システム804はまた、ユーザデバイス808aまたは808bに、ユーザが認可されたユーザとして認証されるべきであるように、ユーザの眼画像が埋込空間内の認可されたユーザの眼画像に十分に類似するかどうかを決定する際に使用され得る、埋込空間内の閾値132および/または分類子616を提供することができる。ユーザデバイス802aまたは802bは、眼認証訓練システム804から直接、または別のコンピューティングシステムを介して、眼認証訓練システム804から間接的に、埋込108(または埋込108の一部)、閾値132(または閾値132の一部)、および/または分類子616(または分類子616の一部)を受信することができる。
眼認証訓練システム804は、デスクトップコンピュータ、サーバコンピュータ、またはクラウドコンピューティングシステムを含む、ハードウェアコンピューティングデバイス上に実装されることができる。ユーザデバイス808aまたは808bの非限定的実施例は、デスクトップコンピュータ、サーバコンピュータ、クラウドコンピューティングシステム、またはモバイルコンピューティングデバイス、例えば、携帯電話、タブレットコンピュータ、電子リーダ、スマートウォッチ、またはウェアラブルディスプレイシステム(例えば、図9を参照して説明される頭部搭載型ディスプレイ900参照)を含む。
ユーザデバイス808aまたは808bと眼認証訓練システム804との間の通信を促進するために、ユーザデバイス808aまたは808bは、眼認証訓練システムインターフェース812aまたは812bを含むことができ、眼認証訓練システム804は、ユーザデバイスインターフェース812cを含むことができる。眼認証訓練システムインターフェース812aまたは812bは、ネットワークインターフェースを使用して、ユーザデバイスインターフェース812cと通信することができる。ユーザインターフェース812cは、同期的または非同期的のいずれかにおいて、ネットワークインターフェースを使用して、眼認証訓練システムインターフェース812aまたは812bと通信することができる。相互に通信するために、認証訓練システムインターフェース812aまたは812bまたはユーザインターフェース812cによって使用される、非限定的例示的プロトコルは、伝送制御プロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、またはハイパーテキスト転送プロトコル(HTTP)を含む。ユーザインターフェース812cは、ウェブサーバとして実装されることができる。認証訓練システムインターフェース812aまたは812bは、ウェブクライアントとして実装されることができる。
ユーザデバイス808aまたは808bは、ユーザのバイオメトリック情報を捕捉するために、1つ以上のセンサを含むことができる。例えば、ユーザデバイス808aまたは808bは、認可されたユーザの眼画像を含む、ユーザの眼画像を捕捉するために、1つの画像センサ(例えば、デジタルカメラ)を含むことができる。別の実施例として、ユーザデバイス808aまたは808bは、肌質、皮膚テクスチャ、指紋、または音声等の他のバイオメトリック情報を捕捉するために、1つ以上のセンサを含むことができる。
ユーザを認証するために、ユーザデバイス808aまたは808bは、画像センサを使用して、ユーザの眼画像を捕捉することができる。眼画像は、眼の眼球周囲領域を含むことができる。眼は、可視または赤外線光を使用してイメージングされることができる。眼画像を捕捉後、ユーザデバイス808aまたは808bの眼認証装置604aまたは604bは、埋込108を使用して、眼画像を、眼画像空間から、埋込空間表現、すなわち、埋込空間内の眼画像のn-要素表現の中にマッピングすることができる。いくつかの実施形態では、眼画像を捕捉後、ユーザデバイス808aまたは808bの眼認証装置604aまたは604bは、随意に、眼画像をセグメント化し、眼画像の虹彩部分を抽出し、ユーザのセグメント化された虹彩画像を生成することができる。ユーザの虹彩画像を生成後、ユーザデバイス808aまたは808bの眼認証装置604aまたは604bは、埋込108を使用して、虹彩画像を虹彩画像空間から埋込空間内の虹彩画像の表現の中にマッピングすることができる。
ユーザを認証するために、眼認証装置604aまたは604bは、埋込空間内の捕捉された眼画像の埋込空間表現と埋込空間内の認可されたユーザの1つ以上の眼画像の埋込空間表現との間の距離を決定することができる。ユーザの眼画像の埋込空間表現と認可されたユーザの眼画像との間の距離が、閾値128内にある場合、眼認証装置604aまたは604bは、ユーザが認可されたユーザとして認証されるべきであるように、ユーザの眼画像が認可されたユーザの眼画像に十分に類似すると見なすことができる。ユーザデバイス808aまたは808bは、眼認証装置604aまたは604bがユーザを認可されたユーザとして認証し得るかどうかに基づいて、ユーザデバイス808aまたは808bに対するユーザアクセスを許可または否認することができる。2つの埋込空間表現間の距離は、例えば、2つの埋込空間表現間のユークリッド距離(L2ノルム等)または非ユークリッド距離(例えば、双曲線空間)であることができる。
眼認証装置604aまたは604bによって実施される算出は、ユーザデバイス808aまたは808bのコンポーネント、またはユーザデバイス808aまたは808bと関連付けられた、またはそれと通信する、コンポーネントを横断して分散されることができる。いくつかの実施形態では、ユーザデバイス808aまたは808bは、ローカル処理モジュールおよびローカルデータリポジトリ(例えば、図9に図示されるローカル処理およびデータモジュール924)を含むことができる。ユーザデバイス808aまたは808bは、遠隔処理モジュール(例えば、図9における遠隔処理モジュール928)および/または遠隔データリポジトリ(例えば、図9における遠隔データリポジトリ932)と通信する、またはそれを含むことができる。ユーザデバイス808aまたは808bは、埋込108全体(またはその一部)および/または分類子616全体(またはその一部)を記憶することができる。ユーザを認証するために、ユーザデバイス808aまたは808bは、画像センサを使用して、ユーザの眼画像を捕捉することができる。眼画像を捕捉後、ユーザデバイス808aまたは808bの眼認証装置604aまたは604bは、埋込108を使用して、眼画像を眼画像空間から埋込空間表現の中にマッピングすることができる。
ユーザデバイス808aまたは808bのローカル処理モジュールおよび/または遠隔処理モジュールは、眼認証装置604aまたは604bによって使用され、埋込108を使用して、眼画像を眼画像空間から埋込空間表現の中にマッピングすることができる。例えば、埋込108は、遠隔データリポジトリ内に記憶されることができ、遠隔処理モジュールは、埋込108を使用して、眼画像を眼画像空間から埋込空間表現の中にマッピングすることができる。別の実施例として、埋込108(または埋込108の一部)は、ローカルデータリポジトリおよび遠隔データリポジトリの両方内に記憶されることができ、ローカル処理モジュールおよび遠隔処理モジュールはともに、埋込108を使用して、眼画像を眼画像空間から埋込空間表現の中にマッピングすることができる。ローカル処理モジュールおよび遠隔処理モジュールはそれぞれ、マッピングプロセスまたは算出の一部を実施することができる。さらに別の実施例として、眼画像から埋込空間表現の中へのマッピングは、ローカル処理モジュールおよび遠隔処理モジュールを横断して分散されることができる。マッピングプロセスの分散は、ローカル処理モジュールおよび/または遠隔処理モジュールのワークロードに基づいて、事前定義または決定されることができる。代替として、または加えて、マッピングプロセスの分散は、ローカル処理モジュールおよび/または遠隔処理モジュールに利用可能なエネルギー(例えば、バッテリ電力)に基づくことができる。
いくつかの実施形態では、ユーザデバイス808aまたは808b(例えば、ローカル処理モジュールおよび/または遠隔処理モジュールを使用する)および/または別のコンピューティングシステム(例えば、クラウド上のコンピューティングシステムまたはユーザデバイス808aまたは808bのコンパニオンコンピューティングシステム)が、眼認証装置604aまたは604bによって使用され、埋込108を使用して、眼画像を眼画像空間から埋込空間表現の中にマッピングすることができる。コンピューティングシステムは、埋込108全体(またはその一部)および/または分類子616全体(またはその一部)を記憶および使用することができる。例えば、ユーザデバイス808aまたは808bは、眼画像を他のコンピューティングシステムに伝送することができる。眼画像を埋込空間表現の中にマッピング後、コンピューティングシステムは、埋込空間表現をユーザデバイス808aまたは808bに返送することができる。別の実施例として、眼画像から埋込空間表現の中へのマッピングは、ユーザデバイス808aまたは808bおよびコンピューティングシステムを横断して分散されることができる。マッピングプロセスの分散は、ユーザデバイス808aまたは808bおよび/またはコンピューティングシステムのワークロードに基づいて、決定されることができる。代替として、または加えて、マッピングプロセスの分散は、ユーザデバイス808aまたは808bに利用可能なエネルギー(例えば、バッテリ電力)、ユーザデバイス808aまたは808bの残りのバッテリ電力、および/またはコンピューティングシステムに基づくことができる。
マッピングプロセスが、ユーザデバイス808aまたは808b、ローカル処理モジュール、遠隔処理モジュール、および/または他のコンピューティングシステムによって実施されるかどうかにかかわらず、ユーザデバイス808aまたは808b、ローカル処理モジュール、遠隔処理モジュール、および/またはコンピューティングシステムは、眼認証装置604aまたは604bによって使用され、埋込空間内の捕捉された眼画像の埋込空間表現と埋込空間内の認可されたユーザの1つ以上の眼画像の埋込空間表現との間の距離を決定することができる。例えば、ユーザデバイス808aまたは808bは、マッピングプロセス(またはマッピングプロセスの一部)を実施し、眼画像の埋込空間表現を生成し、埋込空間表現をコンピューティングシステムに伝送することができる。コンピューティングシステムは、順に、埋込空間内の捕捉された眼画像の埋込空間表現と埋込空間内の認可されたユーザの1つ以上の眼画像の埋込空間表現との間の距離を決定することができる。コンピューティングシステムは、距離をユーザデバイス808aまたは808bに伝送することができ、これは、順に、距離に基づいて、ユーザを認証することができる、またはコンピューティングシステムは、ユーザデバイス808aまたは808bがユーザを認証すべきかどうかを決定し、決定をユーザデバイス808aまたは808bに伝送することができる。別の実施例として、コンピューティングシステムは、マッピングプロセス(またはマッピングプロセスの一部)を実施し、眼画像の埋込空間表現を生成することができる。コンピューティングシステムは、ユーザデバイス808aまたは808bに、埋込空間表現、捕捉された眼画像の埋込空間表現と埋込空間内の認可されたユーザの1つ以上の眼画像の埋込空間表現との間の距離、および/またはユーザデバイス808aまたは808bがユーザを認証すべきかどうかの決定を伝送することができる。ユーザデバイス808aまたは808bは、受信された埋込空間表現、距離、または認証決定を使用して、ユーザを認証することができる。
ユーザデバイス808aまたは808b、ローカル処理モジュール、ローカルデータリポジトリ、遠隔処理モジュール、遠隔データリポジトリ、および/または他のコンピューティングシステム間の伝送または通信は、暗号化される場合とそうではない場合がある。例えば、ユーザデバイス808aまたは808bとコンピューティングシステムとの間の伝送は、暗号化されてもよい。別の実施例として、ローカル処理モジュールと遠隔処理モジュールとの間の伝送は、暗号化されなくてもよい。
眼認証装置604aまたは604bが、ユーザを認可されたユーザとして認証した後、眼認証装置604aまたは604bは、ユーザデバイスインターフェース812cまたは眼認証訓練システムインターフェース812aまたは812bを介して、ユーザを眼認証訓練装置104に認証するために使用される眼画像を提供することができる。眼認証装置604aまたは604bによって提供される認証されるユーザの眼画像から、眼認証訓練装置104は、規則的間隔において、更新された埋込108または更新された閾値128のうちの1つ以上のものを算出することができる。眼認証訓練システム804は、ユーザデバイスインターフェース812cまたは眼認証訓練システムインターフェース812aまたは812bを介して、更新された埋込108、更新された埋込空間内の更新された閾値128、および/または更新された分類子616をユーザデバイス808aまたは808bに提供することができる。眼認証訓練システム804からユーザデバイス808aまたは808bへの更新された埋込108、更新された埋込空間内の更新された閾値128、および/または更新された分類子616の伝送は、暗号化される場合とそうではない場合がある。
規則的間隔は、時間ベースであることができる。例えば、規則的間隔は、1時間、1日、または1ヶ月毎に1回であることができる。規則的間隔は、ユーザデバイス808aまたは808bによる成功認証の回数に基づくことができる。例えば、規則的間隔は、1,000回の成功認証毎に1回であることができる。規則的間隔は、眼認証装置604aまたは604bによって眼認証訓練装置104に提供される認証される眼画像の数に基づくことができる。例えば、規則的間隔は、眼認証装置604aまたは604bによって認証訓練装置104に提供される1,000枚の認証される眼画像毎に1回であることができる。
ユーザデバイス808aまたは808bまたは眼認証訓練システム804は、ユーザデバイス808aまたは808bまたは眼認証訓練システム804が電源オンされるとき、命令およびデータを記憶するために、メモリ、例えば、ランダムアクセスメモリ(RAM)内に記憶される命令を実行するためのハードウェアプロセッサを含むことができる。メモリは、読取専用、不揮発性、書込可能、または揮発性メモリを含むことができる。ユーザデバイス808aまたは808bまたは眼認証訓練システム804は、ユーザデバイス808aまたは808bまたは眼認証訓練システム804が電源オンまたは電源オフされるとき、命令またはデータを記憶するための記憶装置を含むことができる。メモリまたは記憶装置の一方または両方が、埋込108または閾値128を記憶することができる。
ユーザデバイス808aまたは808bまたは眼認証訓練システム804はそれぞれ、データ通信ネットワーク816またはクラウド上の他のデバイスと通信するために、ネットワークインターフェースを含むことができる。ネットワークインターフェースの非限定的実施例は、有線通信、無線通信、セルラー通信、またはBluetooth(登録商標)、無線周波数(RF)、または赤外線(IR)を使用した通信を含む。データ通信ネットワーク826の非限定的実施例は、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、またはインターネットを含む。
(例示的ウェアラブルディスプレイシステム)
ユーザデバイス808aまたは808bは、ウェアラブルディスプレイデバイスであることができる、またはその中に含まれることができ、有利なこととして、より没入型の仮想現実(VR)、拡張現実(AR)、または複合現実(MR)体験を提供し得、デジタル的に再現された画像またはその一部が、それらが現実のように見える、または現実として知覚され得る様式で装着者に提示される。
理論によって限定されるわけではないが、人間の眼は、典型的には、深度知覚を提供するために、有限数の深度面を解釈し得ると考えられる。その結果、知覚される深度の高度に真実味のあるシミュレーションが、これらの限定された数の深度面のそれぞれに対応する画像の異なる表現を眼に提供することによって達成され得る。例えば、導波管のスタックを含有するディスプレイが、ユーザまたは視認者の眼の正面に位置付けられて装着されるように構成され得る。導波管のスタックは、複数の導波管を使用し、画像投入デバイス(例えば、1つ以上の光ファイバを介して画像情報を送る、多重化ディスプレイの離散ディスプレイまたは出力端)から、特定の導波管と関連付けられる深度面に対応する特定の角度(および発散量)における視認者の眼に光を指向させることによって、3次元知覚を眼/脳に提供するために利用され得る。
いくつかの実施形態では、導波管の2つのスタック(視認者の眼毎に1つ)が、異なる画像を各眼に提供するために利用され得る。一実施例として、拡張現実シーンは、AR技術の装着者が、人物、木、背景の建物、およびコンクリートプラットフォームを特徴とする現実世界の公園のような設定を見るようにし得る。これらのアイテムに加えて、AR技術の装着者はまた、自身が、現実世界プラットフォーム上に立っているロボット像およびマルハナバチの擬人化のように見える、飛んでいる漫画のようなアバタキャラクタを、そのロボットの像およびマルハナバチが現実世界に存在していないにもかかわらず、「見ている」と知覚し得る。導波管のスタックは、入力画像に対応するライトフィールドを生成するために使用され得、いくつかの実装では、ウェアラブルディスプレイは、ウェアラブルライトフィールドディスプレイを含む。ライトフィールド画像を提供するためのウェアラブルディスプレイデバイスおよび導波管スタックの実施例が、米国特許公開第2015/0016777号(参照することによって、これが含有するあらゆるものに関してその全体として本明細書に組み込まれる)に説明されている。
図9は、装着者にAR、VR、またはMR体験を提示するために使用され得る、ウェアラブルディスプレイシステム900の実施例を図示する。ウェアラブルディスプレイシステム900は、眼認証装置604を実施し、本明細書に説明される用途または実施形態のいずれかを提供するようにプログラムされ得る。ディスプレイシステム900は、ディスプレイ908と、そのディスプレイ908の機能をサポートするための種々の機械的および電子的なモジュールおよびシステムとを含む。ディスプレイ908は、フレーム912に結合され得、これは、ディスプレイシステム装着者または視認者904によって装着可能であり、装着者904の眼の正面にディスプレイ908を位置付けるように構成される。ディスプレイ908は、ライトフィールドディスプレイであり得る。いくつかの実施形態では、スピーカ916が、フレーム912に結合され、ユーザの外耳道に隣接して位置付けられ、いくつかの実施形態では、示されない別のスピーカが、ユーザの他方の外耳道に隣接して位置付けられ、ステレオ/成形可能音響制御を提供する。ディスプレイ908は、有線導線または無線接続等によって、フレーム912に固定して取り付けられる、ユーザによって装着されるヘルメットまたは帽子に固定して取り付けられる、ヘッドホンに内蔵される、または別様にユーザ904に(例えば、バックパック式構成において、ベルト結合式構成において)可撤式に取り付けられる等、種々の構成において搭載され得る、ローカルデータ処理モジュール924に動作可能に結合される(920)。
ローカル処理およびデータモジュール924は、ハードウェアプロセッサおよび非一過性デジタルメモリ、例えば不揮発性メモリ(例えば、フラッシュメモリ等)を備え得、その両方は、データの処理、キャッシュ、および記憶を補助するために利用され得る。データは、(a)画像捕捉デバイス(カメラ等)、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロ等の(例えば、フレーム912に動作可能に結合される、または別様に装着者904に取り付けられ得る)センサから捕捉されるデータ、および/または、(b)場合によっては処理または読出後のディスプレイ908への通過のために、遠隔処理モジュール928および/または遠隔データリポジトリ932を使用して取得および/または処理されるデータとを含む。ローカル処理およびデータモジュール924は、有線または無線通信リンクを介する等、通信リンク936、940によって、遠隔処理モジュール928および遠隔データリポジトリ932に動作可能に結合され得、したがって、これらの遠隔モジュール928、932は、相互に動作可能に結合され、ローカル処理およびデータモジュール924へのリソースとして利用可能である。遠隔処理モジュール928および/または遠隔データリポジトリ932は、頭部搭載型ディスプレイ900の一部である、頭部搭載型ディスプレイ900のコンパニオンデバイスの一部である、ローカル処理およびデータモジュール924と同一ネットワーク上にある、および/またはクラウド上にあることができる。
いくつかの実施形態では、遠隔処理モジュール928は、画像捕捉デバイスによって捕捉されたビデオ情報等のデータおよび/または画像情報を分析および処理するように構成される、1つ以上のプロセッサを備え得る。ビデオデータは、ローカル処理およびデータモジュール924内に、および/または遠隔データリポジトリ932内にローカルに記憶され得る。いくつかの実施形態では、遠隔データリポジトリ932は、デジタルデータ記憶設備を備え得、これは、「クラウド」リソース構成におけるインターネットまたは他のネットワーキング構成を通して利用可能であり得る。いくつかの実施形態では、全てのデータが、記憶され、全ての算出が、ローカル処理およびデータモジュール924において実施され、遠隔モジュールからの完全に自律的な使用を可能にする。
いくつかの実装では、ローカル処理およびデータモジュール924および/または遠隔処理モジュール928は、本明細書に開示される眼認証装置604の実施形態を実施するようにプログラムされる。画像捕捉デバイスは、特定の用途のために、眼画像および虹彩画像を捕捉することができる(例えば、認証用途のための装着者の眼の眼画像および虹彩画像または識別用途のための装着者以外の人物の眼の眼画像および虹彩画像)。眼画像および虹彩画像は、処理モジュール924、928の一方または両方によって、眼認証装置604を使用して分析されることができる。ある場合には、眼認証装置604分析の少なくとも一部を遠隔処理モジュール(例えば、「クラウド」内)にオフロードすることは、算出の効率または速度を改良し得る。眼認証装置604のパラメータ(例えば、プーリング層のためのサブサンプリング係数、種々の層の入力サイズ、数、カーネルサイズ、およびストライド等)が、データモジュール924および/または928内に記憶されることができる。
画像分析の結果(例えば、眼認証訓練装置104の出力)は、付加的動作または処理のために、処理モジュール924、928の一方または両方によって使用されることができる。例えば、種々の用途では、バイオメトリック識別、眼追跡、ジェスチャの認識または分類、オブジェクト、姿勢等が、ウェアラブルディスプレイシステム900によって使用されてもよい。例えば、眼認証訓練装置104は、装着者904の捕捉された眼画像または虹彩画像を分析し、装着者904を認証してもよく、システム900は、装着者の認証に応答して、適切なアクションを実施してもよい(例えば、装着者904の新しい電子メールを表示する)。別の実施例として、眼認証装置604を実施する処理モジュール924、928は、装着者の周囲における人々の眼画像または虹彩画像を分析し、装着者の周囲における人々を識別してもよい。ウェアラブルディスプレイシステム900の処理モジュール924、928は、1つ以上の好適な眼認証訓練装置104を用いて、本明細書に説明されるビデオまたは画像処理用途のいずれかを実施するようにプログラムされることができる。
(付加的側面)
第1の側面では、虹彩認証のための方法が、開示される。本方法は、ハードウェアプロセッサの制御下で実施され、眼の第1の画像を受信するステップと、ディープニューラルネットワークを使用して、眼の第1の画像を処理し、埋込空間表現を生成するステップと、分類子を使用して、埋込空間表現を処理し、眼の第1の画像が認可されたユーザの眼の画像である、尤度スコアを計算するステップとを含む。
第2の側面では、ディープニューラルネットワークは、複数の層を備え、複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、側面1に記載の方法。
第3の側面では、明度正規化層は、ローカルコントラスト正規化層またはローカル応答正規化層である、側面2に記載の方法。
第4の側面では、ディープニューラルネットワークは、トリプレットネットワークを備える、側面1-3のいずれか1項に記載の方法。
第5の側面では、トリプレットネットワークは、ディープニューラルネットワークを複数の人物の眼画像から学習するように構成され、同一人物からの眼画像に関する埋込空間表現内の距離は、異なる人物からの眼画像に関する埋込空間表現内の距離より小さい、側面4に記載の方法。
第6の側面では、眼の第1の画像は、ユーザから受信され、本方法はさらに、尤度スコアに基づいて、ユーザデバイスへのユーザアクセスを許可または否認するステップを含む、側面1-5のいずれか1項に記載の方法。
第7の側面では、眼の第1の画像は、ユーザデバイスの画像センサによって捕捉される、側面6に記載の方法。
第8の側面では、埋込空間表現は、単位長を有する、側面1-7のいずれか1項に記載の方法。
第9の側面では、分類子は、ユークリッド距離に基づいて、尤度スコアを生成する、側面1-8のいずれか1項に記載の方法。
第10の側面では、分類子は、バイナリ分類子、ロジスティック回帰分類子、サポートベクトルマシン分類子、ベイズ分類子、ソフトマックス分類子、または任意のそれらの組み合わせである、側面1-9のいずれか1項に記載の方法。
第11の側面では、眼の第1の画像をセグメント化し、眼の虹彩の第2の画像を生成するステップをさらに含み、眼の第1の画像を処理するステップは、ディープニューラルネットワークを使用して、眼の虹彩の第2の画像を処理し、埋込空間表現を生成するステップを含む、側面1-10のいずれか1項に記載の方法。
第12の側面では、眼の第1の画像は、主に、眼の虹彩および網膜を含む、側面1-11のいずれか1項に記載の方法。
第13の側面では、眼の第1の画像は、主に、眼の網膜を含む、側面1-12のいずれか1項に記載の方法。
第14の側面では、埋込空間表現は、n次元であって、埋込空間表現の要素の大部分は、統計的に独立している、側面1-13のいずれか1項に記載の方法。
第15の側面では、虹彩認証のために埋込ネットワークを訓練するための方法が、開示される。本方法は、ハードウェアプロセッサの制御下で実施され、複数の層を備えるディープニューラルネットワークを作成するステップであって、複数の層はそれぞれ、複数の層の少なくとも別の層に接続される、ステップと、ディープニューラルネットワークに複数の人物の眼画像を備える訓練セットを提供するステップと、ディープニューラルネットワークを使用して、複数の眼画像の埋込空間表現を算出するステップであって、同一人物の複数の眼画像の埋込空間表現は、閾値内にある、ステップとを含む。
第16の側面では、ディープニューラルネットワークを使用して、複数の眼画像の埋込空間表現を算出するステップは、同一人物および異なる人物の眼画像の埋込空間表現間の距離に基づいて、ディープニューラルネットワークを更新するステップを含む、側面15に記載の方法。
第17の側面では、複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、側面15-16のいずれか1項に記載の方法。
第18の側面では、ディープニューラルネットワークは、トリプレットネットワークを備える、側面15-17のいずれか1項に記載の方法。
第19の側面では、トリプレットネットワークは、眼画像のトリプレットを使用して、訓練セットからディープニューラルネットワークを学習し、トリプレットの2つの眼画像は、同一人物からのものであって、トリプレットの第3の眼画像は、異なる人物からのものである、側面18に記載の方法。
第20の側面では、認可されたユーザの虹彩認証のための方法が、開示される。本方法は、ハードウェアプロセッサの制御下で実施され、眼の画像を受信するステップと、眼の画像を処理し、極座標内の眼の画像の表現を生成するステップと、ディープニューラルネットワークを使用して、極座標内の眼の画像の表現を処理し、埋込空間表現を生成するステップと、分類子を使用して、埋込空間表現を処理し、眼の画像が認可されたユーザの眼の画像である、尤度スコアを生成するステップとを含む。
第21の側面では、認可されたユーザの虹彩認証のための方法が、開示される。本方法は、ハードウェアプロセッサの制御下で実施され、第1の眼の第1の画像および第2の眼の第2の画像を受信するステップと、ディープニューラルネットワークを使用して、第1の眼の第1の画像および第2の眼の第2の画像を処理し、第1の眼の第1の埋込空間表現および第2の眼の第2の埋込空間表現を生成するステップと、分類子を使用して、第1の埋込空間表現および第2の埋込空間表現を処理し、第1の眼の第1の画像が、認可されたユーザの左眼の画像であって、第2の眼の第2の画像が、認可されたユーザの右眼の画像である、尤度スコアを生成するステップとを含む。
第22の側面では、認可されたユーザの虹彩認証のための方法が、開示される。本方法は、ハードウェアプロセッサの制御下で実施され、眼の画像および少なくとも1つの他のバイオメトリック情報を受信するステップと、ディープニューラルネットワークを使用して、眼の画像および少なくとも1つの他のバイオメトリック情報を処理し、埋込空間表現を生成するステップと、分類子を使用して、埋込空間表現を処理し、眼の画像が、認可されたユーザの眼の画像であって、少なくとも1つの他のバイオメトリック情報が、認可されたユーザのバイオメトリック情報である、尤度スコアを生成するステップとを含む。
第23の側面では、認可されたユーザの虹彩認証のための方法が、開示される。本方法は、ハードウェアプロセッサの制御下で実施され、眼の画像を受信するステップと、ディープニューラルネットワークを使用して、眼の画像を処理し、埋込空間表現を生成するステップと、少なくとも1つの他のバイオメトリック情報を受信するステップと、分類子を使用して、埋込空間表現および少なくとも1つの他のバイオメトリック情報を処理し、眼の画像が、認可されたユーザの眼の画像であって、少なくとも1つの他のバイオメトリック情報が、認可されたユーザのバイオメトリック情報である、尤度スコアを生成するステップとを含む。
第24の側面では、コンピュータシステムが、開示される。コンピュータシステムは、ハードウェアプロセッサと、ハードウェアプロセッサによって実行されると、ハードウェアプロセッサに、側面1-23のいずれか1項に記載の方法を実施させる、その上に記憶される命令を有する、非一過性メモリとを備える。
第25の側面では、コンピュータシステムは、モバイルデバイスである、側面24に記載のコンピュータシステム。
第26の側面では、モバイルデバイスは、ウェアラブルディスプレイシステムである、側面25に記載のコンピュータシステム。
第27の側面では、頭部搭載型ディスプレイとして構成される、側面26に記載のコンピュータシステム。
第28の側面では、眼画像を捕捉するための画像センサをさらに備える、側面24-27のいずれか1項に記載のコンピュータシステム。
第29の側面では、ライトフィールドディスプレイをさらに備える、側面24-29のいずれか1項に記載のコンピュータシステム。
第30の側面では、ウェアラブルディスプレイシステムが、開示される。ウェアラブルディスプレイシステムは、ディスプレイと、ユーザの眼の第1の画像を捕捉するように構成される、画像捕捉デバイスと、実行可能命令を記憶するように構成される、非一過性メモリと、ディスプレイ、画像捕捉デバイス、および非一過性メモリと通信する、ハードウェアプロセッサであって、実行可能命令によって、眼の第1の画像を受信することと、ディープニューラルネットワークを使用して、眼の第1の画像を処理し、埋込空間表現を生成することと、分類子を使用して、埋込空間表現を処理し、眼の第1の画像が認可されたユーザの眼の画像である、尤度スコアを計算することとを行うようにプログラムされる、ハードウェアプロセッサとを備える。
第31の側面では、ディープニューラルネットワーク(またはディープニューラルネットワークの一部)は、非一過性メモリ内に記憶される、側面30に記載のウェアラブルディスプレイシステム。
第32の側面では、分類子(または分類子の一部)は、非一過性メモリ内に記憶される、側面30-31のいずれか1項に記載のウェアラブルディスプレイシステム。
第33の側面では、ディープニューラルネットワークは、複数の層を備え、複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、側面30-32のいずれか1項に記載のウェアラブルディスプレイシステム。
第34の側面では、明度正規化層は、ローカルコントラスト正規化層、ローカル応答正規化層、またはそれらの組み合わせを備える、側面33に記載のウェアラブルディスプレイシステム。
第35の側面では、ディープニューラルネットワークは、トリプレットネットワークを備える、側面30-34のいずれか1項に記載のウェアラブルディスプレイシステム。
第36の側面では、トリプレットネットワークは、ディープニューラルネットワークを複数の人物の眼画像から学習するように構成され、同一人物からの眼画像に関する埋込空間表現内の距離は、異なる人物からの眼画像に関する埋込空間表現内の距離より小さい、側面35に記載のウェアラブルディスプレイシステム。
第37の側面では、ハードウェアプロセッサは、実行可能命令によって、尤度スコアに基づいて、ウェアラブルディスプレイシステムへのユーザアクセスを許可または否認するようにプログラムされる、側面30-36のいずれか1項に記載のウェアラブルディスプレイシステム。
第38の側面では、埋込空間表現は、単位長を有する、側面30-37のいずれか1項に記載のウェアラブルディスプレイシステム。
第39の側面では、分類子は、ユークリッド距離に基づいて、尤度スコアを生成する、側面30-38のいずれか1項に記載のウェアラブルディスプレイシステム。
第40の側面では、分類子は、バイナリ分類子、ロジスティック回帰分類子、サポートベクトルマシン分類子、ベイズ分類子、ソフトマックス分類子、または任意のそれらの組み合わせである、側面30-39のいずれか1項に記載のウェアラブルディスプレイシステム。
第41の側面では、ハードウェアプロセッサは、実行可能命令によって、眼の第1の画像をセグメント化し、眼の虹彩の第2の画像を生成するようにプログラムされ、眼の第1の画像を処理するために、ハードウェアプロセッサは、実行可能命令によって、ディープニューラルネットワークを使用して、眼の虹彩の第2の画像を処理し、埋込空間表現を生成するようにプログラムされる、側面30-40のいずれか1項に記載のウェアラブルディスプレイシステム。
第42の側面では、眼の第1の画像は、主に、眼の虹彩および網膜を含む、側面30-41のいずれか1項に記載のウェアラブルディスプレイシステム。
第43の側面では、眼の第1の画像は、主に、眼の網膜を含む、側面30-42のいずれか1項に記載のウェアラブルディスプレイシステム。
第44の側面では、埋込空間表現は、n-次元ベクトルであって、埋込空間表現の要素の大部分は、統計的に独立している、側面30-43のいずれか1項に記載のウェアラブルディスプレイシステム。
第45の側面では、虹彩認証のために埋込ネットワークを訓練するためのシステムであって、実行可能命令を記憶するコンピュータ可読メモリと、実行可能命令によって、少なくとも、複数の層を備えるディープニューラルネットワークにアクセスすることであって、複数の層の各層は、複数の層の少なくとも別の層に接続される、ことと、ディープニューラルネットワークに複数の人物の眼画像を備える訓練セットを提供することと、ディープニューラルネットワークを使用して、複数の眼画像の埋込空間表現を算出することであって、同一人物の複数の眼画像の埋込空間表現は、閾値内にある、こととを行うようにプログラムされる、1つ以上のハードウェアベースのハードウェアプロセッサとを備える。
第46の側面では、ディープニューラルネットワークを使用して、複数の眼画像の埋込空間表現を算出するための命令は、同一人物および異なる人物の眼画像の埋込空間表現間の距離に基づいて、ディープニューラルネットワークを更新するための命令を備える、側面45に記載のシステム。
第47の側面では、複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、側面45-46のいずれか1項に記載のシステム。
第48の側面では、ディープニューラルネットワークは、トリプレットネットワークを備える、側面45-47のいずれか1項に記載のシステム。
第49の側面では、トリプレットネットワークは、眼画像のトリプレットを使用して、訓練セットからディープニューラルネットワークを学習し、トリプレットの2つの眼画像は、同一人物からのものであって、トリプレットの第3の眼画像は、異なる人物からのものである、側面48に記載のシステム。
第50の側面では、頭部搭載型ディスプレイシステムが、開示される。頭部搭載型ディスプレイシステムは、ディスプレイと、ユーザの眼の第1の画像を捕捉するように構成される、画像捕捉デバイスと、実行可能命令を記憶するように構成される、非一過性メモリと、ディスプレイ、画像捕捉デバイス、および非一過性メモリと通信する、ハードウェアプロセッサであって、実行可能命令によって、眼の第1の画像を受信することと、眼の第1の画像を処理し、眼の第1の画像の表現を極座標内に生成することと、ディープニューラルネットワークを使用して、極座標内の眼の第1の画像の表現を処理し、埋込空間表現を生成することと、分類子を使用して、埋込空間表現を処理し、眼の画像が認可されたユーザの眼の画像である、尤度スコアを生成することとを行うようにプログラムされる、ハードウェアプロセッサとを備える。
第51の側面では、ディープニューラルネットワーク(またはディープニューラルネットワークの一部)は、非一過性メモリ内に記憶される、側面50に記載の頭部搭載型ディスプレイシステム。
第52の側面では、分類子(または分類子の一部)は、非一過性メモリ内に記憶される、側面50-51のいずれか1項に記載の頭部搭載型ディスプレイシステム。
第53の側面では、ディープニューラルネットワークは、複数の層を備え、複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、側面50-52のいずれか1項に記載の頭部搭載型ディスプレイシステム。
第54の側面では、明度正規化層は、ローカルコントラスト正規化層、ローカル応答正規化層、またはそれらの組み合わせを備える、側面53に記載の頭部搭載型ディスプレイシステム。
第55の側面では、ディープニューラルネットワークは、トリプレットネットワークを備える、側面52-54のいずれか1項に記載の頭部搭載型ディスプレイシステム。
第56の側面では、トリプレットネットワークは、ディープニューラルネットワークを複数の人物の眼画像から学習するように構成され、同一人物からの眼画像に関する埋込空間表現内の距離は、異なる人物からの眼画像に関する埋込空間表現内の距離より小さい、側面55に記載の頭部搭載型ディスプレイシステム。
第57の側面では、ハードウェアプロセッサは、実行可能命令によって、尤度スコアに基づいて、頭部搭載型ディスプレイシステムへのユーザアクセスを許可または否認するようにプログラムされる、側面52-56のいずれか1項に記載の頭部搭載型ディスプレイシステム。
第58の側面では、埋込空間表現は、単位長を有する、側面52-57のいずれか1項に記載の頭部搭載型ディスプレイシステム。
第59の側面では、分類子は、ユークリッド距離に基づいて、尤度スコアを生成する、側面52-58のいずれか1項に記載の頭部搭載型ディスプレイシステム。
第60の側面では、分類子は、バイナリ分類子、ロジスティック回帰分類子、サポートベクトルマシン分類子、ベイズ分類子、ソフトマックス分類子、または任意のそれらの組み合わせである、側面52-59のいずれか1項に記載の頭部搭載型ディスプレイシステム。
第61の側面では、ハードウェアプロセッサは、実行可能命令によって、眼の第1の画像をセグメント化し、眼の虹彩の第2の画像を生成するようにプログラムされ、眼の第1の画像を処理するために、ハードウェアプロセッサは、実行可能命令によって、ディープニューラルネットワークを使用して、眼の虹彩の第2の画像を処理し、埋込空間表現を生成するようにプログラムされる、側面52-60のいずれか1項に記載の頭部搭載型ディスプレイシステム。
第62の側面では、眼の第1の画像は、主に、眼の虹彩および網膜を含む、側面52-61のいずれか1項に記載の頭部搭載型ディスプレイシステム。
第63の側面では、眼の第1の画像は、主に、眼の網膜を含む、側面52-62のいずれか1項に記載の頭部搭載型ディスプレイシステム。
第64の側面では、埋込空間表現は、n-次元ベクトルであって、埋込空間表現の要素の大部分は、統計的に独立している、側面52-63のいずれか1項に記載の頭部搭載型ディスプレイシステム。
第65の側面では、ウェアラブルディスプレイシステムが、開示される。ウェアラブルディスプレイシステムは、ディスプレイと、ユーザの第1の眼の第1の画像およびユーザの第2の眼の第2の画像を捕捉するように構成される、画像捕捉デバイスと、実行可能命令を記憶するように構成される、非一過性メモリと、ディスプレイ、画像捕捉デバイス、および非一過性メモリと通信する、ハードウェアプロセッサであって、実行可能命令によって、第1の眼の第1の画像および第2の眼の第2の画像を受信することと、ディープニューラルネットワークを使用して、第1の眼の第1の画像および第2の眼の第2の画像を処理し、第1の眼の第1の埋込空間表現および第2の眼の第2の埋込空間表現を生成することと、分類子を使用して、第1の埋込空間表現および第2の埋込空間表現を処理し、第1の眼の第1の画像が、認可されたユーザの左眼の画像であって、第2の眼の第2の画像が、認可されたユーザの右眼の画像である、尤度スコアを生成することとを行うようにプログラムされる、ハードウェアプロセッサとを備える。
第66の側面では、ディープニューラルネットワーク(またはディープニューラルネットワークの一部)は、非一過性メモリ内に記憶される、側面65に記載のウェアラブルディスプレイシステム。
第67の側面では、分類子(または分類子の一部)は、非一過性メモリ内に記憶される、側面65-66のいずれか1項に記載のウェアラブルディスプレイシステム。
第68の側面では、ディープニューラルネットワークは、複数の層を備え、複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、側面65-67のいずれか1項に記載のウェアラブルディスプレイシステム。
第69の側面では、明度正規化層は、ローカルコントラスト正規化層、ローカル応答正規化層、またはそれらの組み合わせを備える、側面68に記載のウェアラブルディスプレイシステム。
第70の側面では、ディープニューラルネットワークは、トリプレットネットワークを備える、側面65-69のいずれか1項に記載のウェアラブルディスプレイシステム。
第71の側面では、トリプレットネットワークは、ディープニューラルネットワークを複数の人物の眼画像から学習するように構成され、同一人物からの眼画像に関する埋込空間表現内の距離は、異なる人物からの眼画像に関する埋込空間表現内の距離より小さい、側面70に記載のウェアラブルディスプレイシステム。
第72の側面では、ハードウェアプロセッサは、実行可能命令によって、尤度スコアに基づいて、ウェアラブルディスプレイシステムへのユーザアクセスを許可または否認するようにプログラムされる、側面65-71のいずれか1項に記載のウェアラブルディスプレイシステム。
第73の側面では、埋込空間表現は、単位長を有する、側面65-72のいずれか1項に記載のウェアラブルディスプレイシステム。
第74の側面では、分類子は、ユークリッド距離に基づいて、尤度スコアを生成する、側面65-73のいずれか1項に記載のウェアラブルディスプレイシステム。
第75の側面では、分類子は、バイナリ分類子、ロジスティック回帰分類子、サポートベクトルマシン分類子、ベイズ分類子、ソフトマックス分類子、または任意のそれらの組み合わせである、側面65-74のいずれか1項に記載のウェアラブルディスプレイシステム。
第76の側面では、ハードウェアプロセッサは、実行可能命令によって、眼の第1の画像をセグメント化し、眼の虹彩の第3の画像を生成することと、眼の第2の画像をセグメント化し、眼の虹彩の第4の画像を生成することとを行うようにプログラムされ、第1の眼の第1の画像および第2の眼の第2の画像を処理するために、ハードウェアプロセッサは、実行可能命令によって、ディープニューラルネットワークを使用して、第1の眼の第3の画像および第2の眼の第4の画像を処理し、第1の眼の第1の埋込空間表現および第2の眼の第2の埋込空間表現を生成するようにプログラムされる、側面65-75のいずれか1項に記載のウェアラブルディスプレイシステム。
第77の側面では、眼の第1の画像は、主に、眼の虹彩および網膜を含む、側面65-76のいずれか1項に記載のウェアラブルディスプレイシステム。
第78の側面では、眼の第1の画像は、主に、眼の網膜を含む、側面65-77のいずれか1項に記載のウェアラブルディスプレイシステム。
第79の側面では、埋込空間表現は、n-次元ベクトルであって、埋込空間表現の要素の大部分は、統計的に独立している、側面65-78のいずれか1項に記載のウェアラブルディスプレイシステム。
第80の側面では、ウェアラブルディスプレイシステムが、開示される。ウェアラブルディスプレイシステムは、ディスプレイと、眼の第1の画像を捕捉するように構成される、画像捕捉デバイスと、少なくとも1つの他のバイオメトリック情報を捕捉するように構成される、バイオメトリック情報捕捉デバイスと、実行可能命令を記憶するように構成される、非一過性メモリと、ディスプレイ、バイオメトリック情報捕捉デバイス、画像捕捉デバイス、および非一過性メモリと通信する、ハードウェアプロセッサであって、実行可能命令によって、眼の第1の画像および少なくとも1つの他のバイオメトリック情報を受信することと、ディープニューラルネットワークを使用して、眼の画像および少なくとも1つの他のバイオメトリック情報を処理し、埋込空間表現を生成することと、分類子を使用して、埋込空間表現を処理し、眼の画像が、認可されたユーザの眼の画像であって、少なくとも1つの他のバイオメトリック情報が、認可されたユーザのバイオメトリック情報である、尤度スコアを生成することとを行うようにプログラムされる、ハードウェアプロセッサとを備える。
第81の側面では、ディープニューラルネットワーク(またはディープニューラルネットワークの一部)は、非一過性メモリ内に記憶される、側面80に記載のウェアラブルディスプレイシステム。
第82の側面では、分類子(または分類子の一部)は、非一過性メモリ内に記憶される、側面80-81のいずれか1項に記載のウェアラブルディスプレイシステム。
第83の側面では、ディープニューラルネットワークは、複数の層を備え、複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、側面80-82のいずれか1項に記載のウェアラブルディスプレイシステム。
第84の側面では、明度正規化層は、ローカルコントラスト正規化層、ローカル応答正規化層、またはそれらの組み合わせを備える、側面83に記載のウェアラブルディスプレイシステム。
第85の側面では、ディープニューラルネットワークは、トリプレットネットワークを備える、側面80-84のいずれか1項に記載のウェアラブルディスプレイシステム。
第86の側面では、トリプレットネットワークは、ディープニューラルネットワークを複数の人物の眼画像および複数の人物の少なくとも1つの他のバイオメトリック情報から学習するように構成され、同一人物からの眼画像および少なくとも1つの他のバイオメトリック情報に関する埋込空間表現内の距離は、異なる人物からの眼画像および少なくとも1つの他のバイオメトリック情報に関する埋込空間表現内の距離より小さい、側面85に記載のウェアラブルディスプレイシステム。
第87の側面では、ハードウェアプロセッサは、実行可能命令によって、尤度スコアに基づいて、ウェアラブルディスプレイシステムへのユーザアクセスを許可または否認するようにプログラムされる、側面80-86のいずれか1項に記載のウェアラブルディスプレイシステム。
第88の側面では、埋込空間表現は、単位長を有する、側面80-87のいずれか1項に記載のウェアラブルディスプレイシステム。
第89の側面では、分類子は、ユークリッド距離に基づいて、尤度スコアを生成する、側面80-88のいずれか1項に記載のウェアラブルディスプレイシステム。
第90の側面では、分類子は、バイナリ分類子、ロジスティック回帰分類子、サポートベクトルマシン分類子、ベイズ分類子、ソフトマックス分類子、または任意のそれらの組み合わせである、側面80-89のいずれか1項に記載のウェアラブルディスプレイシステム。
第91の側面では、ハードウェアプロセッサは、実行可能命令によって、眼の第1の画像をセグメント化し、眼の虹彩の第2の画像を生成するようにプログラムされ、眼の第1の画像を処理するために、ハードウェアプロセッサは、実行可能命令によって、ディープニューラルネットワークを使用して、眼の虹彩の第2の画像を処理し、埋込空間表現を生成するようにプログラムされる、側面80-90のいずれか1項に記載のウェアラブルディスプレイシステム。
第92の側面では、眼の第1の画像は、主に、眼の虹彩および網膜を含む、側面80-91のいずれか1項に記載のウェアラブルディスプレイシステム。
第93の側面では、眼の第1の画像は、主に、眼の網膜を含む、側面80-92のいずれか1項に記載のウェアラブルディスプレイシステム。
第94の側面では、埋込空間表現は、n-次元ベクトルであって、埋込空間表現の要素の大部分は、統計的に独立している、側面80-93のいずれか1項に記載のウェアラブルディスプレイシステム。
第95の側面では、ウェアラブルディスプレイシステムが、開示される。ウェアラブルディスプレイシステムは、ディスプレイと、眼の第1の画像を捕捉するように構成される、画像捕捉デバイスと、少なくとも1つの他のバイオメトリック情報を捕捉するように構成される、バイオメトリック情報捕捉デバイスと、実行可能命令を記憶するように構成される、非一過性メモリと、ディスプレイ、バイオメトリック情報捕捉デバイス、画像捕捉デバイス、および非一過性メモリと通信する、ハードウェアプロセッサであって、実行可能命令によって、眼の第1の画像を受信することと、第1のディープニューラルネットワークを使用して、眼の第1の画像を処理し、第1の埋込空間表現を生成することと、少なくとも1つの他のバイオメトリック情報を受信することと、分類子を使用して、第1の埋込空間表現および少なくとも1つの他のバイオメトリック情報を処理し、眼の画像が、認可されたユーザの眼の画像であって、少なくとも1つの他のバイオメトリック情報が、認可されたユーザのバイオメトリック情報である、尤度スコアを生成することとを行うようにプログラムされる、ハードウェアプロセッサとを備える。
第96の側面では、第1のディープニューラルネットワーク(またはディープニューラルネットワークの一部)は、非一過性メモリ内に記憶される、側面95に記載のウェアラブルディスプレイシステム。
第97の側面では、分類子(または分類子の一部)は、非一過性メモリ内に記憶される、側面95-96のいずれか1項に記載のウェアラブルディスプレイシステム。
第98の側面では、ハードウェアプロセッサはさらに、実行可能命令によって、第2のディープニューラルネットワークを使用して、少なくとも1つの他のバイオメトリック情報を処理し、第2の埋込空間表現を生成するようにプログラムされ、分類子を使用して、第1の埋込空間表現および少なくとも1つの他のバイオメトリック情報を処理し、眼の画像が、認可されたユーザの眼の画像であって、少なくとも1つの他のバイオメトリック情報が、認可されたユーザのバイオメトリック情報である、尤度スコアを生成するための命令は、分類子を使用して、第1の埋込空間表現および第2の埋込空間表現を処理し、眼の画像が、認可されたユーザの眼の画像であって、少なくとも1つの他のバイオメトリック情報が、認可されたユーザのバイオメトリック情報である、尤度スコアを生成するための命令を備える、側面95-97のいずれか1項に記載のウェアラブルディスプレイシステム。
第99の側面では、ディープニューラルネットワークは、複数の層を備え、複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、側面95-98のいずれか1項に記載のウェアラブルディスプレイシステム。
第100の側面では、明度正規化層は、ローカルコントラスト正規化層、ローカル応答正規化層、またはそれらの組み合わせを備える、側面99に記載のウェアラブルディスプレイシステム。
第101の側面では、ディープニューラルネットワークは、トリプレットネットワークを備える、側面95-100のいずれか1項に記載のウェアラブルディスプレイシステム。
第102の側面では、トリプレットネットワークは、ディープニューラルネットワークを複数の人物の眼画像および複数の人物の少なくとも1つの他のバイオメトリック情報から学習するように構成され、同一人物からの眼画像および少なくとも1つの他のバイオメトリック情報に関する埋込空間表現内の距離は、異なる人物からの眼画像および少なくとも1つの他のバイオメトリック情報に関する埋込空間表現内の距離より小さい、側面101に記載のウェアラブルディスプレイシステム。
第103の側面では、ハードウェアプロセッサは、実行可能命令によって、尤度スコアに基づいて、ウェアラブルディスプレイシステムへのユーザアクセスを許可または否認するようにプログラムされる、側面95-102のいずれか1項に記載のウェアラブルディスプレイシステム。
第104の側面では、第1の埋込空間表現は、単位長を有する、側面95-103のいずれか1項に記載のウェアラブルディスプレイシステム。
第105の側面では、分類子は、ユークリッド距離に基づいて、尤度スコアを生成する、側面95-104のいずれか1項に記載のウェアラブルディスプレイシステム。
第106の側面では、分類子は、バイナリ分類子、ロジスティック回帰分類子、サポートベクトルマシン分類子、ベイズ分類子、ソフトマックス分類子、または任意のそれらの組み合わせである、側面95-105のいずれか1項に記載のウェアラブルディスプレイシステム。
第107の側面では、ハードウェアプロセッサは、実行可能命令によって、眼の第1の画像をセグメント化し、眼の虹彩の第2の画像を生成するようにプログラムされ、眼の第1の画像を処理するために、ハードウェアプロセッサは、実行可能命令によって、ディープニューラルネットワークを使用して、眼の虹彩の第2の画像を処理し、埋込空間表現を生成するようにプログラムされる、側面95-106のいずれか1項に記載のウェアラブルディスプレイシステム。
第108の側面では、眼の第1の画像は、主に、眼の虹彩および網膜を含む、側面95-107のいずれか1項に記載のウェアラブルディスプレイシステム。
第109の側面では、眼の第1の画像は、主に、眼の網膜を含む、側面95-108のいずれか1項に記載のウェアラブルディスプレイシステム。
第110の側面では、埋込空間表現は、n-次元ベクトルであって、埋込空間表現の要素の大部分は、統計的に独立している、側面95-109のいずれか1項に記載のウェアラブルディスプレイシステム。
第111の側面では、ウェアラブルディスプレイシステムが、開示される。ウェアラブルディスプレイシステムは、ディスプレイと、ユーザの第1の眼の複数の第1の画像を捕捉するように構成される、画像捕捉デバイスと、実行可能命令を記憶するように構成される、非一過性メモリと、ディスプレイ、画像捕捉デバイス、および非一過性メモリと通信する、ハードウェアプロセッサであって、実行可能命令によって、第1の眼の複数の第1の画像を受信することと、ディープニューラルネットワークを使用して、第1の眼の複数の第1の画像を処理し、第1の埋込空間表現を生成することと、第1の分類子を使用して、第1の埋込空間表現を処理し、第1の眼の複数の第1の画像が認可されたユーザの第1の眼の画像を備える、第1の尤度スコアを計算することとを行うようにプログラムされる、ハードウェアプロセッサとを備える。
第112の側面では、ディープニューラルネットワーク(またはディープニューラルネットワークの一部)は、非一過性メモリ内に記憶される、側面111に記載のウェアラブルディスプレイシステム。
第113の側面では、第1の分類子(または分類子の一部)は、非一過性メモリ内に記憶される、側面111-112のいずれか1項に記載のウェアラブルディスプレイシステム。
第114の側面では、ディープニューラルネットワークは、複数の層を備え、複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、側面111-113のいずれか1項に記載のウェアラブルディスプレイシステム。
第115の側面では、明度正規化層は、ローカルコントラスト正規化層、ローカル応答正規化層、またはそれらの組み合わせを備える、側面114に記載のウェアラブルディスプレイシステム。
第116の側面では、ディープニューラルネットワークは、トリプレットネットワークを備える、側面111-115のいずれか1項に記載のウェアラブルディスプレイシステム。
第117の側面では、トリプレットネットワークは、ディープニューラルネットワークを複数の人物のそれぞれの複数の眼画像から学習するように構成され、ある人物の眼の眼画像に関する第1の埋込空間表現内の距離は、異なる人物からの眼画像またはある人物の異なる眼からの眼画像に関する第1の埋込空間表現内の距離より小さい、側面116に記載のウェアラブルディスプレイシステム。
第118の側面では、ハードウェアプロセッサは、実行可能命令によって、第1の尤度スコアに基づいて、ウェアラブルディスプレイシステムへのユーザアクセスを許可または否認するようにプログラムされる、側面111-117のいずれか1項に記載のウェアラブルディスプレイシステム。
第119の側面では、第1の埋込空間表現は、単位長を有する、側面111-118のいずれか1項に記載のウェアラブルディスプレイシステム。
第120の側面では、分類子は、ユークリッド距離に基づいて、第1の尤度スコアを生成する、側面111-119のいずれか1項に記載のウェアラブルディスプレイシステム。
第121の側面では、分類子は、バイナリ分類子、ロジスティック回帰分類子、サポートベクトルマシン分類子、ベイズ分類子、ソフトマックス分類子、または任意のそれらの組み合わせである、側面111-120のいずれか1項に記載のウェアラブルディスプレイシステム。
第122の側面では、ハードウェアプロセッサは、実行可能命令によって、第1の眼の複数の第1の画像をセグメント化し、第1の眼の虹彩の複数の第2の画像を生成するようにプログラムされ、第1の眼の複数の第1の画像を処理するために、ハードウェアプロセッサは、実行可能命令によって、ディープニューラルネットワークを使用して、眼の虹彩の複数の第2の画像を処理し、第1の埋込空間表現を生成するようにプログラムされる、側面111-121のいずれか1項に記載のウェアラブルディスプレイシステム。
第123の側面では、眼の複数の第1の画像はそれぞれ、主に、眼の虹彩および網膜を含む、側面111-122のいずれか1項に記載のウェアラブルディスプレイシステム。
第124の側面では、眼の複数の第1の画像はそれぞれ、主に、眼の網膜を含む、側面111-123のいずれか1項に記載のウェアラブルディスプレイシステム。
第125の側面では、第1の埋込空間表現は、n-次元ベクトルであって、第1の埋込空間表現の要素の大部分は、統計的に独立している、側面111-124のいずれか1項に記載のウェアラブルディスプレイシステム。
第126の側面では、ハードウェアプロセッサはさらに、実行可能命令によって、ユーザの第2の眼の複数の第2の画像を受信することと、ディープニューラルネットワークを使用して、第2の眼の複数の第2の画像を処理し、第2の埋込空間表現を生成することと、第1の分類子を使用して、第2の埋込空間表現を処理し、第2の眼の複数の第1の画像が認可されたユーザの第2の眼の画像を備える、第2の尤度スコアを計算することとを行うようにプログラムされる、側面111-125のいずれか1項に記載のウェアラブルディスプレイシステム。
第127の側面では、ハードウェアプロセッサはさらに、実行可能命令によって、ユーザの第2の眼の複数の第2の画像を受信するようにプログラムされ、第1の眼の複数の第1の画像を処理するために、ハードウェアプロセッサは、実行可能命令によって、ディープニューラルネットワークを使用して、第1の眼の複数の第1の画像および第2の眼の複数の第2の画像を処理し、第1の埋込空間表現を生成するようにプログラムされ、第1の埋込空間表現を処理するために、ハードウェアプロセッサは、実行可能命令によって、第1の分類子を使用して、第1の埋込空間表現を処理し、第1の眼の複数の第1の画像が認可されたユーザの第1の眼の画像を備え、第2の眼の複数の第2の画像が認可されたユーザの第2の眼の画像を備える、第1の尤度スコアを計算するようにプログラムされる、側面111-125のいずれか1項に記載のウェアラブルディスプレイシステム。
第128の側面では、ハードウェアプロセッサはさらに、実行可能命令によって、ユーザの少なくとも1つの他のバイオメトリック情報を受信することと、第2のニューラルネットワークを使用して、少なくとも1つの他のバイオメトリック情報を処理し、第2の埋込空間表現を生成することと、第2の分類子を使用して、第2の埋込空間表現を処理し、少なくとも1つの他のバイオメトリック情報が認可されたユーザのバイオメトリック情報を備える、第2の尤度スコアを計算することとを行うようにプログラムされる、側面111-125のいずれか1項に記載のウェアラブルディスプレイシステム。
第129の側面では、ハードウェアプロセッサはさらに、実行可能命令によって、ユーザの少なくとも1つの他のバイオメトリック情報を受信するようにプログラムされ、第1の眼の複数の第1の画像を処理するために、ハードウェアプロセッサは、実行可能命令によって、ディープニューラルネットワークを使用して、第1の眼の複数の第1の画像および少なくとも1つの他のバイオメトリック情報を処理し、第1の埋込空間表現を生成するようにプログラムされ、第1の埋込空間表現を処理するために、ハードウェアプロセッサは、実行可能命令によって、第1の分類子を使用して、第1の埋込空間表現を処理し、第1の眼の複数の第1の画像が認可されたユーザの第1の眼の画像を備え、少なくとも1つの他のタイプのバイオメトリック情報が認可されたユーザのバイオメトリック情報を備える、第1の尤度スコアを計算するようにプログラムされる、側面111-125のいずれか1項に記載のウェアラブルディスプレイシステム。
第130の側面では、虹彩認証のために埋込ネットワークを訓練するためのシステムが、開示される。本システムは、実行可能命令を記憶するコンピュータ可読メモリと、1つ以上のハードウェアベースのハードウェアプロセッサであって、実行可能命令によって、少なくとも、複数の層を備えるディープニューラルネットワークにアクセスすることであって、複数の層の各層は、複数の層の少なくとも別の層に接続される、ことと、ディープニューラルネットワークに訓練セットを提供することであって、訓練セットの各要素は、人物の複数の眼画像を備え、訓練セットの要素は、異なる人物の複数の眼画像を備える、ことと、ディープニューラルネットワークを使用して、訓練セットの要素の埋込空間表現を算出することであって、同一人物の要素の埋込空間表現は、第1の閾値内にあって、異なる人物の要素の埋込空間表現は、第2の閾値を上回り、第1の閾値は、第2の閾値より小さい、こととを行うようにプログラムされる、1つ以上のハードウェアベースのハードウェアプロセッサとを備える。
第131の側面では、ディープニューラルネットワークを使用して、訓練セットの要素の埋込空間表現を算出するための命令は、同一人物および異なる人物の要素の埋込空間表現間の距離に基づいて、ディープニューラルネットワークを更新するための命令を備える、側面130に記載のシステム。
第132の側面では、複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、側面131に記載のシステム。
第133の側面では、ディープニューラルネットワークは、トリプレットネットワークを備える、側面130-132のいずれか1項に記載のシステム。
第134の側面では、トリプレットネットワークは、訓練セットの要素のトリプレットを使用して、訓練セットから埋込を学習し、トリプレットの2つの要素は、同一人物からの眼画像を備え、トリプレットの第3の要素は、異なる人物からの眼画像を備える、側面133に記載のシステム。
(結論)
本明細書に説明される、および/または添付される図に描写されるプロセス、方法、およびアルゴリズムはそれぞれ、具体的かつ特定のコンピュータ命令を実行するように構成される、1つ以上の物理的コンピューティングシステム、ハードウェアコンピュータハードウェアプロセッサ、特定用途向け回路、および/または電子ハードウェアによって実行される、コードモジュールにおいて具現化され、それによって完全または部分的に自動化され得る。例えば、コンピューティングシステムは、具体的コンピュータ命令とともにプログラムされた汎用コンピュータ(例えば、サーバ)または専用コンピュータ、専用回路等を含むことができる。コードモジュールは、実行可能プログラムにコンパイルおよびリンクされる、動的リンクライブラリ内にインストールされ得る、または解釈されるプログラミング言語において書き込まれ得る。いくつかの実装では、特定の動作および方法が、所与の機能に特有の回路によって実施され得る。
さらに、本開示の機能性のある実装は、十分に数学的、コンピュータ的、または技術的に複雑であるため、(適切な特殊化された実行可能命令を利用する)特定用途向けハードウェアまたは1つ以上の物理的コンピューティングデバイスは、例えば、関与する計算の量または複雑性に起因して、または結果を実質的にリアルタイムで提供するために、機能性を実施する必要があり得る。例えば、ビデオは、多くのフレームを含み、各フレームは、数百万のピクセルを有し得、具体的にプログラムされたコンピュータハードウェアは、商業的に妥当な時間量において所望の画像処理タスクまたは用途を提供するようにビデオデータを処理する必要がある。
コードモジュールまたは任意のタイプのデータは、ハードドライブ、ソリッドステートメモリ、ランダムアクセスメモリ(RAM)、読取専用メモリ(ROM)、光学ディスク、揮発性または不揮発性記憶装置、同一物の組み合わせ、および/または同等物を含む、物理的コンピュータ記憶装置等の任意のタイプの非一過性コンピュータ可読媒体上に記憶され得る。本方法およびモジュール(またはデータ)はまた、無線ベースおよび有線/ケーブルベースの媒体を含む、種々のコンピュータ可読伝送媒体上で生成されたデータ信号として(例えば、搬送波または他のアナログまたはデジタル伝搬信号の一部として)伝送され得、種々の形態(例えば、単一または多重化アナログ信号の一部として、または複数の離散デジタルパケットまたはフレームとして)をとり得る。開示されるプロセスまたはプロセスステップの結果は、任意のタイプの非一過性有形コンピュータ記憶装置内に持続的または別様に記憶され得る、またはコンピュータ可読伝送媒体を介して通信され得る。
本明細書に説明される、および/または添付される図に描写されるフロー図における任意のプロセス、ブロック、状態、ステップ、または機能性は、プロセスにおいて具体的機能(例えば、論理または算術)またはステップを実装するための1つ以上の実行可能命令を含む、コードモジュール、セグメント、またはコードの一部を潜在的に表すものとして理解されたい。種々のプロセス、ブロック、状態、ステップ、または機能性は、組み合わせられる、再配列される、追加される、削除される、修正される、または別様に本明細書に提供される例証的実施例から変更されることができる。いくつかの実施形態では、付加的または異なるコンピューティングシステムまたはコードモジュールが、本明細書に説明される機能性のいくつかまたは全てを実施し得る。本明細書に説明される方法およびプロセスはまた、任意の特定のシーケンスに限定されず、それに関連するブロック、ステップ、または状態は、適切な他のシーケンスで、例えば、連続して、並行して、またはある他の様式で実施されることができる。タスクまたはイベントが、開示される例示的実施形態に追加される、またはそれから除去され得る。さらに、本明細書に説明される実装における種々のシステムコンポーネントの分離は、例証を目的とし、全ての実装においてそのような分離を要求するものとして理解されるべきではない。説明されるプログラムコンポーネント、方法、およびシステムは、概して、単一のコンピュータ製品においてともに統合される、または複数のコンピュータ製品にパッケージ化され得ることを理解されたい。多くの実装変形例が、可能である。
本プロセス、方法、およびシステムは、ネットワーク(または分散)コンピューティング環境において実装され得る。ネットワーク環境は、企業全体コンピュータネットワーク、イントラネット、ローカルエリアネットワーク(LAN)、広域ネットワーク(WAN)、パーソナルエリアネットワーク(PAN)、クラウドコンピューティングネットワーク、クラウドソースコンピューティングネットワーク、インターネット、およびワールドワイドウェブを含む。ネットワークは、有線または無線ネットワークまたは任意の他のタイプの通信ネットワークであり得る。
本開示のシステムおよび方法は、それぞれ、いくつかの革新的側面を有し、そのうちのいかなるものも、本明細書に開示される望ましい属性に単独で関与しない、またはそのために要求されない。上記に説明される種々の特徴およびプロセスは、相互に独立して使用され得る、または種々の方法で組み合わせられ得る。全ての可能な組み合わせおよび副次的組み合わせが、本開示の範囲内に該当することが意図される。本開示に説明される実装の種々の修正が、当業者に容易に明白であり得、本明細書に定義される一般原理は、本開示の精神または範囲から逸脱することなく、他の実装に適用され得る。したがって、請求項は、本明細書に示される実装に限定されることを意図されず、本明細書に開示される本開示、原理、および新規の特徴と一貫する最も広い範囲を与えられるべきである。
別個の実装の文脈において本明細書に説明されるある特徴はまた、単一の実装における組み合わせにおいて実装されることができる。逆に、単一の実装の文脈において説明される種々の特徴もまた、複数の実装において別個に、または任意の好適な副次的組み合わせにおいて実装されることができる。さらに、特徴がある組み合わせにおいて作用するものとして上記に説明され、さらに、そのようなものとして最初に請求され得るが、請求される組み合わせからの1つ以上の特徴は、いくつかの場合では、組み合わせから削除されることができ、請求される組み合わせは、副次的組み合わせまたは副次的組み合わせの変形例を対象とし得る。いかなる単一の特徴または特徴のグループも、あらゆる実施形態に必要または必須ではない。
とりわけ、「~できる(can)」、「~し得る(could)」、「~し得る(might)」、「~し得る(may)」、「例えば(e.g.,)」、および同等物等、本明細書で使用される条件文は、別様に具体的に記載されない限り、または使用されるような文脈内で別様に理解されない限り、概して、ある実施形態がある特徴、要素、および/またはステップを含む一方、他の実施形態がそれらを含まないことを伝えることが意図される。したがって、そのような条件文は、概して、特徴、要素、および/またはステップが、1つ以上の実施形態に対していかようにも要求されること、または1つ以上の実施形態が、著者の入力または促しの有無を問わず、これらの特徴、要素、および/またはステップが任意の特定の実施形態において含まれる、または実施されるべきかどうかを決定するための論理を必然的に含むことを示唆することを意図されない。用語「~を備える」、「~を含む」、「~を有する」、および同等物は、同義語であり、非限定的方式で包括的に使用され、付加的要素、特徴、行為、動作等を除外しない。また、用語「または」は、その包括的意味において使用され(およびその排他的意味において使用されず)、したがって、例えば、要素のリストを接続するために使用されると、用語「または」は、リスト内の要素のうちの1つ、いくつか、または全てを意味する。加えて、本願および添付される請求項で使用されるような冠詞「a」、「an」、および「the」は、別様に規定されない限り、「1つ以上の」または「少なくとも1つ」を意味するように解釈されるべきである。
本明細書で使用されるように、項目のリスト「のうちの少なくとも1つ」を指す語句は、単一の要素を含む、それらの項目の任意の組み合わせを指す。ある実施例として、「A、B、またはCのうちの少なくとも1つ」は、A、B、C、AおよびB、AおよびC、BおよびC、およびA、B、およびCを網羅することが意図される。語句「X、Y、およびZのうちの少なくとも1つ」等の接続文は、別様に具体的に記載されない限り、概して、項目、用語等がX、Y、またはZのうちの少なくとも1つであり得ることを伝えるために使用されるような文脈で別様に理解される。したがって、そのような接続文は、概して、ある実施形態が、Xのうちの少なくとも1つ、Yのうちの少なくとも1つ、およびZのうちの少なくとも1つがそれぞれ存在するように要求することを示唆することを意図されない。
同様に、動作は、特定の順序で図面に描写され得るが、これは、望ましい結果を達成するために、そのような動作が示される特定の順序で、または連続的順序で実施されること、または全ての図示される動作が実施されることは必要ではないと認識されるべきである。さらに、図面は、フローチャートの形態で1つ以上の例示的プロセスを図式的に描写し得る。しかしながら、描写されない他の動作も、図式的に図示される例示的方法およびプロセス内に組み込まれることができる。例えば、1つ以上の付加的動作が、図示される動作のいずれかの前に、その後に、それと同時に、またはその間に実施されることができる。加えて、動作は、他の実装において再配列される、または再順序付けられ得る。ある状況では、マルチタスクおよび並列処理が、有利であり得る。さらに、上記に説明される実装における種々のシステムコンポーネントの分離は、全ての実装におけるそのような分離を要求するものとして理解されるべきではなく、説明されるプログラムコンポーネントおよびシステムは、概して、単一のソフトウェア製品においてともに統合される、または複数のソフトウェア製品にパッケージ化され得ることを理解されたい。加えて、他の実装も、以下の請求項の範囲内である。いくつかの場合では、請求項に列挙されるアクションは、異なる順序で実施され、依然として、望ましい結果を達成することができる。

Claims (19)

  1. ウェアラブルディスプレイシステムであって、
    ディスプレイと、
    ユーザの眼の第1の画像を捕捉するように構成される画像捕捉デバイスと、
    非一過性メモリであって、前記非一過性メモリは、
    前記眼の第1の画像を処理するための埋込であって、
    前記埋込は、トリプレットネットワークアーキテクチャを伴うディープニューラルネットワークを使用して学習され、
    前記ディープニューラルネットワークは、複数の人物の眼画像からの埋込を学習するように構成され、
    同一人物からの眼画像に関する埋込空間表現内の距離は、異なる人物からの眼画像に関する前記埋込空間表現内の距離より小さく、
    前記埋込空間表現は、n-次元ベクトルであり、
    前記埋込空間表現の要素の半分よりも多くは、統計的に独立している
    埋込と、
    前記眼の処理された第1の画像を処理するための分類子と、
    実行可能命令と
    を記憶するように構成される、非一過性メモリと、
    前記ディスプレイ、前記画像捕捉デバイス、および前記非一過性メモリと通信する、ハードウェアプロセッサであって、前記ハードウェアプロセッサは、前記実行可能命令によって、
    前記眼の第1の画像を受信することと、
    前記埋込を使用して、前記眼の第1の画像を処理し、埋込空間表現を生成することと、
    前記分類子を使用して、前記埋込空間表現を処理し、前記眼の第1の画像が認可されたユーザの眼の画像である尤度スコアを計算することと、
    前記尤度スコアに基づいて、前記ウェアラブルディスプレイシステムへのユーザアクセスを許可または否認することと
    を行うようにプログラムされる、ハードウェアプロセッサと
    を備える、ウェアラブルディスプレイシステム。
  2. 前記ディープニューラルネットワークは、複数の層を備え、
    前記複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、
    請求項1に記載のウェアラブルディスプレイシステム
  3. 前記明度正規化層は、ローカルコントラスト正規化層、ローカル応答正規化層、またはそれらの組み合わせを備える、請求項に記載のウェアラブルディスプレイシステム。
  4. 前記埋込空間表現は、単位長を有する、請求項1に記載のウェアラブルディスプレイシステム。
  5. 前記分類子は、ユークリッド距離に基づいて、前記尤度スコアを生成する、請求項1に記載のウェアラブルディスプレイシステム。
  6. 前記分類子は、バイナリ分類子、ロジスティック回帰分類子、サポートベクトルマシン分類子、ベイズ分類子、ソフトマックス分類子、または任意のそれらの組み合わせである、請求項1に記載のウェアラブルディスプレイシステム。
  7. 前記ハードウェアプロセッサは、前記実行可能命令によって、前記眼の第1の画像をセグメント化し、前記眼の虹彩の第2の画像を生成するようにプログラムされ、
    前記眼の第1の画像を処理するために、前記ハードウェアプロセッサは、前記実行可能命令によって、前記埋込を使用して、前記眼の虹彩の第2の画像を処理し、前記埋込空間表現を生成するようにプログラムされる、
    請求項16のいずれか1項に記載のウェアラブルディスプレイシステム。
  8. 虹彩認証のためにディープニューラルネットワークを訓練するためのシステムであって、
    実行可能命令を記憶するコンピュータ可読メモリと、
    1つ以上のハードウェアベースのプロセッサであって、前記1つ以上のハードウェアベースのプロセッサは、前記実行可能命令によって、少なくとも、
    複数の層を備えるディープニューラルネットワークにアクセスすることであって、前記複数の層の各層は、前記複数の層の少なくとも別の層に接続される、ことと、
    前記ディープニューラルネットワークに複数の人物の眼画像を備える訓練セットを提供することと、
    前記ディープニューラルネットワークを使用して、前記複数の眼画像の埋込空間表現を算出することであって、同一人物の前記複数の眼画像の埋込空間表現は、閾値内にあり、前記埋込空間表現は、n-次元ベクトルであり、前記埋込空間表現の要素の半分よりも多くは、統計的に独立している、ことと、
    同一人物および異なる人物の前記眼画像の埋込空間表現間の距離に基づいて、前記ディープニューラルネットワークを更新することと
    を行うようにプログラムされる、1つ以上のハードウェアベースのプロセッサと
    を備える、システム。
  9. 前記複数の層は、プーリング層、明度正規化層、畳み込み層、インセプション様層、正規化線形層、ソフトサイン層、または任意のそれらの組み合わせを備える、請求項8に記載のシステム。
  10. 前記ディープニューラルネットワークは、トリプレットネットワークアーキテクチャを備える、請求項89のいずれか1項に記載のシステム。
  11. 前記訓練セットは、眼画像のトリプレットを備え、前記ディープニューラルネットワークは、前記眼画像のトリプレットを使用して学習される、請求項10に記載のシステム。
  12. 前記トリプレットの2つの眼画像は、同一人物からのものであり、前記トリプレットの第3の眼画像は、異なる人物からのものである、請求項11に記載のシステム。
  13. 頭部搭載型ディスプレイシステムであって、
    ディスプレイと、
    ユーザの眼の第1の画像を捕捉するように構成される画像捕捉デバイスと、
    実行可能命令を記憶するように構成される非一過性メモリと、
    前記ディスプレイ、前記画像捕捉デバイス、および前記非一過性メモリと通信する、ハードウェアプロセッサであって、前記ハードウェアプロセッサは、前記実行可能命令によって、
    前記眼の第1の画像を受信することと、
    前記眼の第1の画像を処理し、前記眼の第1の画像の表現を極座標内に生成することと、
    ディープニューラルネットワークを使用して、極座標内の前記眼の第1の画像の表現を処理し、埋込空間表現を生成することと、
    分類子を使用して、前記埋込空間表現を処理し、前記眼の画像が認可されたユーザの眼の画像である尤度スコアを生成することと
    を行うようにプログラムされ、前記埋込空間表現は、n-次元ベクトルであり、前記埋込空間表現の要素の半分よりも多くは、統計的に独立している、ハードウェアプロセッサと
    を備える、頭部搭載型ディスプレイシステム。
  14. 前記ディープニューラルネットワークは、トリプレットネットワークを使用して学習される、請求項13に記載の頭部搭載型ディスプレイシステム。
  15. 前記トリプレットネットワークは、前記ディープニューラルネットワークを複数の人物の眼画像から学習するように構成され、
    同一人物からの眼画像に関する前記埋込空間表現内の距離は、異なる人物からの眼画像に関する前記埋込空間表現内の距離より小さい、
    請求項14に記載の頭部搭載型ディスプレイシステム。
  16. 前記ハードウェアプロセッサは、前記実行可能命令によって、
    前記尤度スコアに基づいて、前記頭部搭載型ディスプレイシステムへのユーザアクセスを許可または否認する
    ようにプログラムされる、請求項1315のいずれか1項に記載の頭部搭載型ディスプレイシステム。
  17. 前記ハードウェアプロセッサは、前記実行可能命令によって、前記眼の第1の画像をセグメント化し、前記眼の虹彩の第2の画像を生成するようにプログラムされ、
    前記眼の第1の画像を処理するために、前記ハードウェアプロセッサは、前記実行可能命令によって、前記ディープニューラルネットワークを使用して、前記眼の虹彩の第2の画像を処理し、前記埋込空間表現を生成するようにプログラムされる、
    請求項1315のいずれか1項に記載の頭部搭載型ディスプレイシステム。
  18. 前記眼の第1の画像は前記眼の虹彩および網膜を含む、請求項1315のいずれか1項に記載の頭部搭載型ディスプレイシステム。
  19. 前記眼の第1の画像は前記眼の網膜を含む、請求項1315のいずれか1項に記載の頭部搭載型ディスプレイシステム。
JP2019501636A 2016-07-14 2017-04-26 虹彩識別のためのディープニューラルネットワーク Active JP7001672B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021210354A JP7237137B2 (ja) 2016-07-14 2021-12-24 虹彩識別のためのディープニューラルネットワーク

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
RU2016128792 2016-07-14
RU2016128792 2016-07-14
PCT/US2017/029699 WO2018013200A1 (en) 2016-07-14 2017-04-26 Deep neural network for iris identification

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021210354A Division JP7237137B2 (ja) 2016-07-14 2021-12-24 虹彩識別のためのディープニューラルネットワーク

Publications (2)

Publication Number Publication Date
JP2019525325A JP2019525325A (ja) 2019-09-05
JP7001672B2 true JP7001672B2 (ja) 2022-01-19

Family

ID=60941088

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019501636A Active JP7001672B2 (ja) 2016-07-14 2017-04-26 虹彩識別のためのディープニューラルネットワーク
JP2021210354A Active JP7237137B2 (ja) 2016-07-14 2021-12-24 虹彩識別のためのディープニューラルネットワーク

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021210354A Active JP7237137B2 (ja) 2016-07-14 2021-12-24 虹彩識別のためのディープニューラルネットワーク

Country Status (5)

Country Link
US (2) US10922393B2 (ja)
EP (1) EP3485425B1 (ja)
JP (2) JP7001672B2 (ja)
KR (2) KR102648770B1 (ja)
WO (1) WO2018013200A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11762969B1 (en) 2023-01-12 2023-09-19 King Saud University Systems and methods for facilitating biometric recognition

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102393228B1 (ko) 2015-05-11 2022-04-29 매직 립, 인코포레이티드 뉴럴 네트워크들을 활용하여 생체 인증 사용자 인식을 위한 디바이스들, 방법들 및 시스템들
JP6889728B2 (ja) 2016-03-11 2021-06-18 マジック リープ, インコーポレイテッドMagic Leap,Inc. 畳み込みニューラルネットワークにおける構造学習
KR102648770B1 (ko) 2016-07-14 2024-03-15 매직 립, 인코포레이티드 홍채 식별을 위한 딥 뉴럴 네트워크
KR102442569B1 (ko) 2016-07-14 2022-09-08 매직 립, 인코포레이티드 각막 곡률을 이용한 홍채 경계 추정
KR102529137B1 (ko) 2016-08-22 2023-05-03 매직 립, 인코포레이티드 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스
RU2016138608A (ru) 2016-09-29 2018-03-30 Мэджик Лип, Инк. Нейронная сеть для сегментации изображения глаза и оценки качества изображения
US10489680B2 (en) 2016-10-04 2019-11-26 Magic Leap, Inc. Efficient data layouts for convolutional neural networks
KR102707594B1 (ko) * 2016-11-11 2024-09-19 삼성전자주식회사 홍채 영역 추출 방법 및 장치
AU2017361061B2 (en) 2016-11-15 2022-02-03 Magic Leap, Inc. Deep learning system for cuboid detection
EP3549109B1 (en) 2016-12-05 2023-04-19 Magic Leap, Inc. Virtual user input controls in a mixed reality environment
US10275648B2 (en) * 2017-02-08 2019-04-30 Fotonation Limited Image processing method and system for iris recognition
EP3580718A4 (en) * 2017-02-09 2021-01-13 Painted Dog, Inc. METHODS AND APPARATUS FOR DETECTING, FILTERING AND IDENTIFYING OBJECTS IN CONTINUOUS VIDEO
US10657376B2 (en) 2017-03-17 2020-05-19 Magic Leap, Inc. Room layout estimation methods and techniques
AU2018308418A1 (en) 2017-07-26 2020-01-16 Magic Leap, Inc. Training a neural network with representations of user interface devices
CN107679448B (zh) * 2017-08-17 2018-09-25 平安科技(深圳)有限公司 眼球动作分析方法、装置及存储介质
CN107516080A (zh) * 2017-08-22 2017-12-26 京东方科技集团股份有限公司 视网膜病变影像的眼球定位方法、装置及电子设备
US10719951B2 (en) 2017-09-20 2020-07-21 Magic Leap, Inc. Personalized neural network for eye tracking
CA3078530A1 (en) 2017-10-26 2019-05-02 Magic Leap, Inc. Gradient normalization systems and methods for adaptive loss balancing in deep multitask networks
US11335328B2 (en) * 2017-10-27 2022-05-17 Google Llc Unsupervised learning of semantic audio representations
US11556741B2 (en) 2018-02-09 2023-01-17 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters using a neural network
WO2019154510A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
WO2019154509A1 (en) 2018-02-09 2019-08-15 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
CN108388858B (zh) * 2018-02-11 2020-05-01 京东数字科技控股有限公司 虹膜防伪方法与装置
US11789699B2 (en) 2018-03-07 2023-10-17 Private Identity Llc Systems and methods for private authentication with helper networks
US11392802B2 (en) 2018-03-07 2022-07-19 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11170084B2 (en) 2018-06-28 2021-11-09 Private Identity Llc Biometric authentication
US11265168B2 (en) 2018-03-07 2022-03-01 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US10938852B1 (en) * 2020-08-14 2021-03-02 Private Identity Llc Systems and methods for private authentication with helper networks
US20220277064A1 (en) * 2018-03-07 2022-09-01 Private Identity Llc System and methods for implementing private identity
US11489866B2 (en) * 2018-03-07 2022-11-01 Private Identity Llc Systems and methods for private authentication with helper networks
US11210375B2 (en) 2018-03-07 2021-12-28 Private Identity Llc Systems and methods for biometric processing with liveness
US11502841B2 (en) * 2018-03-07 2022-11-15 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11394552B2 (en) * 2018-03-07 2022-07-19 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11138333B2 (en) * 2018-03-07 2021-10-05 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US10721070B2 (en) 2018-03-07 2020-07-21 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US10419221B1 (en) * 2018-03-07 2019-09-17 Open Inference Holdings LLC Systems and methods for privacy-enabled biometric processing
GB2574372B (en) * 2018-05-21 2021-08-11 Imagination Tech Ltd Implementing Traditional Computer Vision Algorithms As Neural Networks
US10789696B2 (en) * 2018-05-24 2020-09-29 Tfi Digital Media Limited Patch selection for neural network based no-reference image quality assessment
CN108766440B (zh) * 2018-05-28 2020-01-14 平安科技(深圳)有限公司 说话人分离模型训练方法、两说话人分离方法及相关设备
JP7057717B2 (ja) * 2018-05-28 2022-04-20 日本放送協会 位相差検出器及び画像処理装置、並びにプログラム
WO2020023399A1 (en) 2018-07-23 2020-01-30 Magic Leap, Inc. Deep predictor recurrent neural network for head pose prediction
US11386719B2 (en) * 2018-08-16 2022-07-12 Samsung Electronics Co.. Ltd. Electronic device and operating method therefor
CN109240510B (zh) * 2018-10-30 2023-12-26 东北大学 基于视线追踪的增强现实人机交互设备及控制方法
WO2020123868A1 (en) * 2018-12-12 2020-06-18 Tesseract Health, Inc. Biometric identification and health status determination
JP7258540B2 (ja) * 2018-12-20 2023-04-17 キヤノンメディカルシステムズ株式会社 データ処理装置、磁気共鳴イメージング装置、学習装置および学習方法
WO2020147948A1 (en) 2019-01-16 2020-07-23 Pupil Labs Gmbh Methods for generating calibration data for head-wearable devices and eye tracking system
US11615264B2 (en) 2019-03-05 2023-03-28 Memorial Sloan Kettering Cancer Center Systems and methods for image classification using visual dictionaries
US11442417B2 (en) 2019-03-29 2022-09-13 Microsoft Technology Licensing, Llc Control system using autoencoder
EP3973468A4 (en) 2019-05-21 2022-09-14 Magic Leap, Inc. HANDPOSITION ESTIMATING
US11720790B2 (en) 2019-05-22 2023-08-08 Electronics And Telecommunications Research Institute Method of training image deep learning model and device thereof
CN112016065B (zh) * 2019-05-31 2023-10-10 杭州海康威视数字技术股份有限公司 一种双用户认证方法及装置
US11676422B2 (en) 2019-06-05 2023-06-13 Pupil Labs Gmbh Devices, systems and methods for predicting gaze-related parameters
US11737665B2 (en) 2019-06-21 2023-08-29 Tesseract Health, Inc. Multi-modal eye imaging with shared optical path
CN110263755B (zh) 2019-06-28 2021-04-27 上海鹰瞳医疗科技有限公司 眼底图像识别模型训练方法、眼底图像识别方法和设备
US11698529B2 (en) * 2019-07-09 2023-07-11 Meta Platforms Technologies, Llc Systems and methods for distributing a neural network across multiple computing devices
US11195172B2 (en) * 2019-07-24 2021-12-07 Capital One Services, Llc Training a neural network model for recognizing handwritten signatures based on different cursive fonts and transformations
CN110532880B (zh) * 2019-07-29 2022-11-22 深圳大学 样本筛选及表情识别方法、神经网络、设备及存储介质
US11593651B2 (en) 2019-08-28 2023-02-28 Tata Consultancy Services Limited Method and system for training a neural network for time series data classification
CN110796161B (zh) * 2019-09-18 2024-09-17 平安科技(深圳)有限公司 识别模型训练、眼底特征的识别方法、装置、设备及介质
CN110909601B (zh) * 2019-10-18 2022-12-09 武汉虹识技术有限公司 一种基于深度学习的美瞳识别方法及系统
US10607077B1 (en) * 2019-10-28 2020-03-31 EyeVerify Inc. Identity authentication using an inlier neural network
CN112949353B (zh) * 2019-12-10 2024-06-18 北京眼神智能科技有限公司 虹膜静默活体检测方法、装置、可读存储介质及设备
US11899765B2 (en) 2019-12-23 2024-02-13 Dts Inc. Dual-factor identification system and method with adaptive enrollment
CN111507952A (zh) * 2020-04-13 2020-08-07 上海泗科智能科技有限公司 一种嵌入式端的糖尿病性视网膜病变筛查解决方法
US20210365533A1 (en) * 2020-05-20 2021-11-25 Facebook Technologies, Llc Systems and methods for authenticating a user of a head-mounted display
KR102472368B1 (ko) * 2020-05-28 2022-11-30 주식회사 두손씨엔에이 하나의 완성품을 생산하는 복수의 기업 간 생산 정보 공유를 위한 빅데이터 구축 장치 및 이를 위한 방법
CN112699874B (zh) * 2020-12-30 2023-02-17 中孚信息股份有限公司 一种面向任意旋转方向图像的文字识别方法及系统
CN112801182B (zh) * 2021-01-27 2022-11-04 安徽大学 一种基于困难样本感知的rgbt目标跟踪方法
CN112818938B (zh) * 2021-03-03 2023-06-16 长春理工大学 一种自适应光照干扰环境的人脸识别算法及人脸识别装置
KR102538080B1 (ko) * 2021-05-27 2023-05-30 주식회사 에이제이투 홍채 이미지 학습 장치 및 방법
US20230053464A1 (en) * 2021-08-19 2023-02-23 Data-Core Systems, Inc. Systems, Methods, and Devices for Automatically Converting Explanation of Benefits (EOB) Printable Documents into Electronic Format using Artificial Intelligence Techniques
CN113674245B (zh) * 2021-08-20 2023-10-31 中汽创智科技有限公司 一种目标停车位的确定方法、装置、电子设备及存储介质
JP7335651B1 (ja) 2022-08-05 2023-08-30 株式会社Interior Haraguchi 顔認証決済システムおよび顔認証決済方法
CN116045734B (zh) * 2022-12-30 2024-08-30 西北工业大学 一种机载末端防御决策方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016018488A2 (en) 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification

Family Cites Families (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US6222525B1 (en) 1992-03-05 2001-04-24 Brad A. Armstrong Image controllers with sheet connected sensors
US5583795A (en) 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
US5670988A (en) 1995-09-05 1997-09-23 Interlink Electronics, Inc. Trigger operated electronic device
US7856055B2 (en) 2002-03-13 2010-12-21 Imax Corporation Systems and methods for digitally re-mastering or otherwise modifying motion pictures or other image sequences data
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
KR20050025927A (ko) * 2003-09-08 2005-03-14 유웅덕 홍채인식을 위한 동공 검출 방법 및 형상기술자 추출방법과 그를 이용한 홍채 특징 추출 장치 및 그 방법과홍채인식 시스템 및 그 방법
USD514570S1 (en) 2004-06-24 2006-02-07 Microsoft Corporation Region of a fingerprint scanning device with an illuminated ring
US7698339B2 (en) * 2004-08-13 2010-04-13 Microsoft Corporation Method and system for summarizing a document
US7248720B2 (en) * 2004-10-21 2007-07-24 Retica Systems, Inc. Method and system for generating a combined retina/iris pattern biometric
JP5008269B2 (ja) * 2005-04-08 2012-08-22 キヤノン株式会社 情報処理装置、情報処理方法
US20070052672A1 (en) * 2005-09-08 2007-03-08 Swisscom Mobile Ag Communication device, system and method
US11428937B2 (en) 2005-10-07 2022-08-30 Percept Technologies Enhanced optical and perceptual digital eyewear
US8696113B2 (en) 2005-10-07 2014-04-15 Percept Technologies Inc. Enhanced optical and perceptual digital eyewear
US20070081123A1 (en) 2005-10-07 2007-04-12 Lewis Scott W Digital eyewear
JP4824420B2 (ja) 2006-02-07 2011-11-30 アイテック株式会社 視線ベクトル検出方法及び同装置
US8077914B1 (en) 2006-08-07 2011-12-13 Arkady Kaplan Optical tracking apparatus using six degrees of freedom
US7970179B2 (en) 2006-09-25 2011-06-28 Identix Incorporated Iris data extraction
US8340437B2 (en) * 2007-05-29 2012-12-25 University Of Iowa Research Foundation Methods and systems for determining optimal features for classifying patterns or objects in images
US8363783B2 (en) 2007-06-04 2013-01-29 Oraya Therapeutics, Inc. Method and device for ocular alignment and coupling of ocular structures
US7936906B2 (en) * 2007-06-15 2011-05-03 Microsoft Corporation Face recognition using discriminatively trained orthogonal tensor projections
JP5088024B2 (ja) * 2007-07-11 2012-12-05 沖電気工業株式会社 試供品配布システム、試供品配布情報サーバ、試供品配布方法及び試供品配布情報処理プログラム
US20090129591A1 (en) * 2007-11-21 2009-05-21 Hayes Gregory A Techniques for Securing Document Content in Print and Electronic Form
US8098891B2 (en) 2007-11-29 2012-01-17 Nec Laboratories America, Inc. Efficient multi-hypothesis multi-human 3D tracking in crowded scenes
US8064653B2 (en) * 2007-11-29 2011-11-22 Viewdle, Inc. Method and system of person identification by facial image
US8165406B2 (en) * 2007-12-12 2012-04-24 Microsoft Corp. Interactive concept learning in image search
US20090232365A1 (en) * 2008-03-11 2009-09-17 Cognimatics Ab Method and device for face recognition
US8411910B2 (en) * 2008-04-17 2013-04-02 Biometricore, Inc. Computationally efficient feature extraction and matching iris recognition
WO2010003044A2 (en) 2008-07-03 2010-01-07 Nec Laboratories America, Inc. Epithelial layer detector and related methods
WO2010129074A1 (en) * 2009-01-14 2010-11-11 Indiana University Research & Technology Corporation System and method for identifying a person with reference to a sclera image
US8374404B2 (en) * 2009-02-13 2013-02-12 Raytheon Company Iris recognition using hyper-spectral signatures
US20100232654A1 (en) * 2009-03-11 2010-09-16 Harris Corporation Method for reconstructing iris scans through novel inpainting techniques and mosaicing of partial collections
WO2011091326A1 (en) 2010-01-22 2011-07-28 Optimedica Corporation Apparatus for automated placement of scanned laser capsulorhexis incisions
US8345984B2 (en) 2010-01-28 2013-01-01 Nec Laboratories America, Inc. 3D convolutional neural networks for automatic human action recognition
US20150309316A1 (en) 2011-04-06 2015-10-29 Microsoft Technology Licensing, Llc Ar glasses with predictive control of external device based on event input
US9304319B2 (en) 2010-11-18 2016-04-05 Microsoft Technology Licensing, Llc Automatic focus improvement for augmented reality displays
US10156722B2 (en) 2010-12-24 2018-12-18 Magic Leap, Inc. Methods and systems for displaying stereoscopy with a freeform optical system with addressable focus for virtual and augmented reality
CA2822978C (en) 2010-12-24 2019-02-19 Hong Hua An ergonomic head mounted display device and optical system
JP6316186B2 (ja) 2011-05-06 2018-04-25 マジック リープ, インコーポレイテッドMagic Leap,Inc. 広範囲同時遠隔ディジタル提示世界
KR20140059213A (ko) * 2011-08-30 2014-05-15 마이크로소프트 코포레이션 홍채 스캔 프로파일링을 이용하는 헤드 마운티드 디스플레이
US10795448B2 (en) 2011-09-29 2020-10-06 Magic Leap, Inc. Tactile glove for human-computer interaction
RU2017115669A (ru) 2011-10-28 2019-01-28 Мэджик Лип, Инк. Система и способ для дополненной и виртуальной реальности
KR102116697B1 (ko) 2011-11-23 2020-05-29 매직 립, 인코포레이티드 3차원 가상 및 증강 현실 디스플레이 시스템
KR102028732B1 (ko) 2012-04-05 2019-10-04 매직 립, 인코포레이티드 능동 포비에이션 능력을 갖는 와이드-fov(field of view) 이미지 디바이스들
US9310559B2 (en) 2012-06-11 2016-04-12 Magic Leap, Inc. Multiple depth plane three-dimensional display using a wave guide reflector array projector
US9671566B2 (en) 2012-06-11 2017-06-06 Magic Leap, Inc. Planar waveguide apparatus with diffraction element(s) and system employing same
US9141916B1 (en) * 2012-06-29 2015-09-22 Google Inc. Using embedding functions with a deep network
EP2826414B1 (en) 2012-07-31 2016-11-30 Japan Science and Technology Agency Point-of-gaze detection device, point-of-gaze detection method, personal parameter calculating device, personal parameter calculating method, program, and computer-readable storage medium
US8369595B1 (en) * 2012-08-10 2013-02-05 EyeVerify LLC Texture features for biometric authentication
AU2013315607A1 (en) 2012-09-11 2015-04-02 Magic Leap, Inc Ergonomic head mounted display device and optical system
JP2014092940A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9195890B2 (en) * 2012-12-10 2015-11-24 Sri International Iris biometric matching system
IL293789B2 (en) 2013-01-15 2023-08-01 Magic Leap Inc A system for scanning electromagnetic imaging radiation
CN105188516B (zh) 2013-03-11 2017-12-22 奇跃公司 用于增强和虚拟现实的系统与方法
US9141906B2 (en) * 2013-03-13 2015-09-22 Google Inc. Scoring concept terms using a deep network
US9147154B2 (en) * 2013-03-13 2015-09-29 Google Inc. Classifying resources using a deep network
KR102458124B1 (ko) 2013-03-15 2022-10-21 매직 립, 인코포레이티드 디스플레이 시스템 및 방법
WO2014182769A1 (en) 2013-05-07 2014-11-13 The Johns Hopkins University Automated and non-mydriatic fundus-perimetry camera for irreversible eye diseases
US20140341441A1 (en) * 2013-05-20 2014-11-20 Motorola Mobility Llc Wearable device user authentication
US9275308B2 (en) 2013-05-31 2016-03-01 Google Inc. Object detection using deep neural networks
US9874749B2 (en) 2013-11-27 2018-01-23 Magic Leap, Inc. Virtual and augmented reality systems and methods
US10262462B2 (en) 2014-04-18 2019-04-16 Magic Leap, Inc. Systems and methods for augmented and virtual reality
US20140380249A1 (en) 2013-06-25 2014-12-25 Apple Inc. Visual recognition of gestures
CN103431840B (zh) 2013-07-31 2016-01-20 北京智谷睿拓技术服务有限公司 眼睛光学参数检测系统及方法
US10025982B2 (en) * 2013-10-08 2018-07-17 Princeton Identity, Inc. Collecting and targeting marketing data and information based upon iris identification
KR20150041453A (ko) * 2013-10-08 2015-04-16 엘지전자 주식회사 안경형 영상표시장치 및 그것의 제어방법
IL302408B2 (en) 2013-10-16 2024-09-01 Magic Leap Inc An augmented or virtual reality head device with intrapupillary distance adjustment
US9202144B2 (en) 2013-10-30 2015-12-01 Nec Laboratories America, Inc. Regionlets with shift invariant neural patterns for object detection
US10095917B2 (en) 2013-11-04 2018-10-09 Facebook, Inc. Systems and methods for facial representation
JP6236296B2 (ja) 2013-11-14 2017-11-22 株式会社デンソーアイティーラボラトリ 学習装置、学習プログラム、及び学習方法
US9857591B2 (en) 2014-05-30 2018-01-02 Magic Leap, Inc. Methods and system for creating focal planes in virtual and augmented reality
CN110542938B (zh) 2013-11-27 2023-04-18 奇跃公司 虚拟和增强现实系统与方法
JP2015138449A (ja) * 2014-01-23 2015-07-30 キヤノン株式会社 個人認証装置、個人認証方法及びプログラム
KR101791518B1 (ko) * 2014-01-23 2017-10-30 삼성전자주식회사 사용자 인증 방법 및 장치
US9430829B2 (en) 2014-01-30 2016-08-30 Case Western Reserve University Automatic detection of mitosis using handcrafted and convolutional neural network features
CN106461955B (zh) 2014-01-31 2019-08-13 奇跃公司 显示增强现实的方法
NZ722903A (en) 2014-01-31 2020-05-29 Magic Leap Inc Multi-focal display system and method
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
IL231862A (en) 2014-04-01 2015-04-30 Superfish Ltd Image representation using a neural network
WO2015164807A1 (en) * 2014-04-25 2015-10-29 Texas State University Detection of brain injury and subject state with eye movement biometrics
USD759657S1 (en) 2014-05-19 2016-06-21 Microsoft Corporation Connector with illumination region
CN113253476B (zh) 2014-05-30 2022-12-27 奇跃公司 采用虚拟或增强现实装置生成虚拟内容显示的方法和系统
USD752529S1 (en) 2014-06-09 2016-03-29 Comcast Cable Communications, Llc Electronic housing with illuminated region
US9330329B2 (en) * 2014-07-09 2016-05-03 Ditto Labs, Inc. Systems, methods, and devices for image matching and object recognition in images using minimal feature points
JPWO2016013269A1 (ja) * 2014-07-22 2017-04-27 ソニー株式会社 画像表示装置及び画像表示方法、並びにコンピューター・プログラム
US9536293B2 (en) 2014-07-30 2017-01-03 Adobe Systems Incorporated Image assessment using deep convolutional neural networks
US20160034811A1 (en) 2014-07-31 2016-02-04 Apple Inc. Efficient generation of complementary acoustic models for performing automatic speech recognition system combination
KR102216126B1 (ko) * 2014-07-31 2021-02-16 삼성전자주식회사 정맥 인증을 이용하여 동작하는 웨어러블 디바이스 및 웨어러블 디바이스의 동작 방법
US20160078359A1 (en) * 2014-09-12 2016-03-17 Xerox Corporation System for domain adaptation with a domain-specific class means classifier
US9659384B2 (en) 2014-10-03 2017-05-23 EyeEm Mobile GmbH. Systems, methods, and computer program products for searching and sorting images by aesthetic quality
EP3204888A4 (en) 2014-10-09 2017-10-04 Microsoft Technology Licensing, LLC Spatial pyramid pooling networks for image processing
WO2016054802A1 (en) 2014-10-10 2016-04-14 Beijing Kuangshi Technology Co., Ltd. Hierarchical interlinked multi-scale convolutional network for image parsing
KR102438110B1 (ko) * 2014-10-15 2022-08-31 삼성전자주식회사 사용자 단말 장치 및 이의 홍채 인식 방법
KR102276339B1 (ko) 2014-12-09 2021-07-12 삼성전자주식회사 Cnn의 근사화를 위한 학습 장치 및 방법
KR20160072682A (ko) * 2014-12-15 2016-06-23 삼성전자주식회사 생체 정보를 이용한 인증 방법 및 이를 위한 전자 장치
KR102139795B1 (ko) * 2014-12-15 2020-07-31 삼성전자주식회사 생채 특징 패턴을 업데이트하는 방법 및 이를 위한 전자 장치
EP3796235B1 (en) * 2014-12-17 2024-09-04 Google LLC Generating numeric embeddings of images
KR102103286B1 (ko) * 2015-02-10 2020-04-22 삼성전자주식회사 사용자 단말 및 이의 제공 방법
US9678664B2 (en) 2015-04-10 2017-06-13 Google Inc. Neural network for keyboard input decoding
USD758367S1 (en) 2015-05-14 2016-06-07 Magic Leap, Inc. Virtual reality headset
US20160364609A1 (en) * 2015-06-12 2016-12-15 Delta ID Inc. Apparatuses and methods for iris based biometric recognition
CN112836664A (zh) 2015-08-21 2021-05-25 奇跃公司 使用眼睛姿态测量的眼睑形状估计
US10282677B2 (en) * 2015-11-05 2019-05-07 International Business Machines Corporation Individual and user group attributes discovery and comparison from social media visual content
US20170161506A1 (en) * 2015-12-07 2017-06-08 Dell Products L.P. Information Handling System Encrypted Image Display Through Secondary Device
US10565496B2 (en) * 2016-02-04 2020-02-18 Nec Corporation Distance metric learning with N-pair loss
USD805734S1 (en) 2016-03-04 2017-12-26 Nike, Inc. Shirt
USD794288S1 (en) 2016-03-11 2017-08-15 Nike, Inc. Shoe with illuminable sole light sequence
US10423830B2 (en) * 2016-04-22 2019-09-24 Intel Corporation Eye contact correction in real time using neural network based machine learning
KR102442569B1 (ko) 2016-07-14 2022-09-08 매직 립, 인코포레이티드 각막 곡률을 이용한 홍채 경계 추정
KR102648770B1 (ko) 2016-07-14 2024-03-15 매직 립, 인코포레이티드 홍채 식별을 위한 딥 뉴럴 네트워크
KR102529137B1 (ko) 2016-08-22 2023-05-03 매직 립, 인코포레이티드 딥 러닝 센서들을 갖는 증강 현실 디스플레이 디바이스
RU2016138608A (ru) 2016-09-29 2018-03-30 Мэджик Лип, Инк. Нейронная сеть для сегментации изображения глаза и оценки качества изображения
US10489680B2 (en) 2016-10-04 2019-11-26 Magic Leap, Inc. Efficient data layouts for convolutional neural networks
AU2017361061B2 (en) 2016-11-15 2022-02-03 Magic Leap, Inc. Deep learning system for cuboid detection
US11216725B2 (en) * 2017-03-31 2022-01-04 Vyasa Analytics, LLC Data searching system and method
US10452954B2 (en) * 2017-09-14 2019-10-22 Google Llc Object detection and representation in images
US10592732B1 (en) * 2017-12-14 2020-03-17 Perceive Corporation Probabilistic loss function for training network with triplets

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016018488A2 (en) 2014-05-09 2016-02-04 Eyefluence, Inc. Systems and methods for discerning eye signals and continuous biometric identification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Florian Schroff et al.,FaceNet: A unified embedding for face recognition and clustering,2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),IEEE,2015年06月07日,pp.815-823,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7298682

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11762969B1 (en) 2023-01-12 2023-09-19 King Saud University Systems and methods for facilitating biometric recognition

Also Published As

Publication number Publication date
JP2019525325A (ja) 2019-09-05
US11568035B2 (en) 2023-01-31
EP3485425A1 (en) 2019-05-22
EP3485425A4 (en) 2020-02-19
EP3485425B1 (en) 2023-08-23
KR20220136510A (ko) 2022-10-07
WO2018013200A1 (en) 2018-01-18
JP2022044603A (ja) 2022-03-17
JP7237137B2 (ja) 2023-03-10
KR102648770B1 (ko) 2024-03-15
KR20190028749A (ko) 2019-03-19
US20180018451A1 (en) 2018-01-18
US20210110020A1 (en) 2021-04-15
US10922393B2 (en) 2021-02-16
KR102450441B1 (ko) 2022-09-30

Similar Documents

Publication Publication Date Title
JP7001672B2 (ja) 虹彩識別のためのディープニューラルネットワーク
US11776131B2 (en) Neural network for eye image segmentation and image quality estimation
CN109661194B (zh) 使用角膜曲率的虹膜边界估计
US10671845B2 (en) Eyelid shape estimation using eye pose measurement
US11386598B2 (en) Method and system for sensor data recognition using data enrichment for the learning process

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200406

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211224

R150 Certificate of patent or registration of utility model

Ref document number: 7001672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150