JP2021527872A - 非接触生体認証システム - Google Patents
非接触生体認証システム Download PDFInfo
- Publication number
- JP2021527872A JP2021527872A JP2020568705A JP2020568705A JP2021527872A JP 2021527872 A JP2021527872 A JP 2021527872A JP 2020568705 A JP2020568705 A JP 2020568705A JP 2020568705 A JP2020568705 A JP 2020568705A JP 2021527872 A JP2021527872 A JP 2021527872A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- image data
- partial
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 239000013598 vector Substances 0.000 claims abstract description 214
- 238000000034 method Methods 0.000 claims description 91
- 238000013528 artificial neural network Methods 0.000 claims description 78
- 238000012545 processing Methods 0.000 claims description 52
- 230000010287 polarization Effects 0.000 claims description 50
- 230000008569 process Effects 0.000 claims description 47
- 230000009466 transformation Effects 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 18
- 210000003484 anatomy Anatomy 0.000 claims description 10
- 230000001747 exhibiting effect Effects 0.000 claims description 8
- 238000005286 illumination Methods 0.000 claims description 7
- 239000004973 liquid crystal related substance Substances 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 9
- 210000003462 vein Anatomy 0.000 abstract description 8
- 230000003287 optical effect Effects 0.000 description 25
- 230000036544 posture Effects 0.000 description 25
- 238000006243 chemical reaction Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 17
- 238000001514 detection method Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 12
- 230000007246 mechanism Effects 0.000 description 12
- 230000009471 action Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 9
- 239000000463 material Substances 0.000 description 9
- 230000009467 reduction Effects 0.000 description 9
- 210000003811 finger Anatomy 0.000 description 7
- 238000000844 transformation Methods 0.000 description 7
- 230000037303 wrinkles Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000005291 magnetic effect Effects 0.000 description 6
- 238000012546 transfer Methods 0.000 description 6
- 230000007704 transition Effects 0.000 description 6
- 210000004247 hand Anatomy 0.000 description 5
- 238000009825 accumulation Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000007423 decrease Effects 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 210000003491 skin Anatomy 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- FUHMZYWBSHTEDZ-UHFFFAOYSA-M bispyribac-sodium Chemical compound [Na+].COC1=CC(OC)=NC(OC=2C(=C(OC=3N=C(OC)C=C(OC)N=3)C=CC=2)C([O-])=O)=N1 FUHMZYWBSHTEDZ-UHFFFAOYSA-M 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 210000002615 epidermis Anatomy 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 210000000988 bone and bone Anatomy 0.000 description 2
- 230000001934 delay Effects 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005684 electric field Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000005305 interferometry Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012856 packing Methods 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000035807 sensation Effects 0.000 description 2
- 210000004872 soft tissue Anatomy 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 208000032544 Cicatrix Diseases 0.000 description 1
- 208000034656 Contusions Diseases 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- KRHYYFGTRYWZRS-UHFFFAOYSA-N Fluorane Chemical group F KRHYYFGTRYWZRS-UHFFFAOYSA-N 0.000 description 1
- 206010027476 Metastases Diseases 0.000 description 1
- 239000002033 PVDF binder Substances 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- FOIXSVOLVBLSDH-UHFFFAOYSA-N Silver ion Chemical compound [Ag+] FOIXSVOLVBLSDH-UHFFFAOYSA-N 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 208000034526 bruise Diseases 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000002500 effect on skin Effects 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 230000004907 flux Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 229910052732 germanium Inorganic materials 0.000 description 1
- GNPVGFCGXDBREM-UHFFFAOYSA-N germanium atom Chemical compound [Ge] GNPVGFCGXDBREM-UHFFFAOYSA-N 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000009401 metastasis Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920002981 polyvinylidene fluoride Polymers 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 231100000241 scar Toxicity 0.000 description 1
- 230000037387 scars Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000005477 standard model Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 210000001519 tissue Anatomy 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/70—Protecting specific internal or peripheral components, in which the protection of a component leads to protection of the entire computer
- G06F21/82—Protecting input, output or interconnection devices
- G06F21/83—Protecting input, output or interconnection devices input devices, e.g. keyboards, mice or controllers thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/13—Sensors therefor
- G06V40/1312—Sensors therefor direct reading, e.g. contactless acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/13—Sensors therefor
- G06V40/1318—Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1341—Sensing with light passing through the finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Security & Cryptography (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computer Hardware Design (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Vascular Medicine (AREA)
- Collating Specific Patterns (AREA)
Abstract
【選択図】図1
Description
本出願は、2018年6月21日に出願され、「NON−CONTACT BIOMETRIC IDENTIFICATION SYSTEM」と題する米国特許出願16/014,843号に対する優先権を主張する。この前に出願された特許出願の全体は、参照によって以下に組み込まれる。
図1は、いくつかの実施態様に従った、施設においてユーザ102を識別するシステム100を示す。
条項
条項1.
スキャナであって、
第1の偏光を有する偏光子を有する第1の赤外線光源であって、前記第1の赤外線光源は、第1の時間に前記第1の偏光を有する光を生成する、前記第1の赤外線光源と、
第2の偏光を有する偏光子を有する第2の赤外線光源であって、前記第2の赤外線光源は、第2の時間に前記第2の偏光を有する光を生成する、前記第2の赤外線光源と、
前記第1の偏光を有する偏光子を有する第1のカメラであって、前記第1のカメラは、
前記第1の時間に第1の未処理画像を取得し、
前記第2の時間に第2の未処理画像を取得する、前記第1のカメラと、を含む、前記スキャナと、
コンピューティングデバイスであって、
第1のコンピュータ実行可能命令を記憶したメモリと、
ハードウェアプロセッサと、を含み、前記ハードウェアプロセッサは、
前記第1の未処理画像から第1の処理済み画像を生成し、前記第1の処理済み画像は、標準的な方位及び標準的な姿勢にある人間の掌を表し、前記人間の掌の表面を示し、
前記第2の未処理画像から第2の処理済み画像を生成し、前記第2の処理済み画像は、前記標準的な方位及び前記標準的な姿勢にある前記人間の掌を表し、前記人間の掌の静脈パターンを示し、
部分画像の第1のセットを判定し、部分画像の前記第1のセット内の部分画像は、前記第1の処理済み画像内の特定の領域に対応し、
第1のニューラルネットワークを使用して、部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定し、
部分画像の第2のセットを判定し、部分画像の前記第2のセット内の部分画像は、前記第2の処理済み画像内の特定の領域に対応し、
第2のニューラルネットワークを使用して、部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定し、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットを使用して、第3のニューラルネットワークへの入力として最新の署名を判定し、
前記最新の署名が、共通ベクトル空間内の参照署名の閾値距離内にあると判定し、
前記参照署名と関連付けられたユーザ識別子を判定する、ように前記第1のコンピュータ実行可能命令を実行する、
前記コンピューティングデバイスと、を備えたシステム。
条項2.
前記第2の処理済み画像の生成は、前記第2の未処理画像をダウンサンプルする命令を含み、
特徴ベクトルの前記第1のセットは、k次元空間内で表され、特徴ベクトルの前記第2のセットは、p次元空間内で表され、kは、pよりも大きい、
条項1に記載のシステム。
条項3.
赤外線光源と、
カメラと、
コントローラであって、
第1の時間に、第1の偏光を示す第1の赤外線光によりシーンを照明することと、
前記第1の偏光を示す入射光を使用して、前記第1の時間に第1の画像データを取得するよう前記カメラを動作させることと、
第2の時間に、第2の偏光を示す第2の赤外線光によりシーンを照明することと、
前記第1の偏光を示す入射光を使用して、前記第2の時間に第2の画像データを取得するよう前記カメラを動作させることと、
を行う、前記コントローラと、
コンピューティングデバイスであって、
第1のコンピュータ実行可能命令を記憶したメモリと、
前記第1のコンピュータ実行可能命令を実行するハードウェアプロセッサと、
を含む、前記コンピューティングデバイスと、
を備える、システムであって、
前記第1のコンピュータ実行可能命令は、
部分画像の第1のセットを判定することであって、部分画像の前記第1のセット内の各々の部分画像は、前記第1の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定し、
部分画像の第2のセットを判定することであって、部分画像の前記第2のセット内の各々の部分画像は、前記第2の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第2のセットの前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定することと、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットに基づいて、1つ以上の最新の署名を判定することと、
1つ以上の参照署名と、前記1つ以上の最新の署名の少なくとも一部との比較に基づいて、ユーザ識別子を判定することと、
のためのものである、
前記システム。
条項4.
前記赤外線光源であって、
第1の偏光を有する第1の偏光子を通過する光出力を有する第1の赤外線光源と、
第2の偏光を有する第2の偏光子を通過する光出力を有する第2の赤外線光源と、を含む、前記赤外線光源と、
前記第1の偏光を有する第3の偏光子を含む前記カメラと、
を更に備えた、条項3に記載のシステム。
条項5.
光を選択的にフィルタリングする前記コントローラからの入力に応答した偏光子を更に備え、前記偏光子は、
電気モータにより駆動されるホイールであって、
前記第1の偏光を有する光を通す第1の偏光ウインドウを有する第1のセグメントと、
前記第2の偏光を有する光を通す第2の偏光ウインドウを有する第2のセグメントと、を含む、前記ホイール、
液晶、または
光弾性変調器、のうちの1つ以上を含む、
条項3または4のいずれかに記載のシステム。
条項6.
前記ハードウェアプロセッサは更に、
部分画像の前記第1のセットを判定する前記命令の前に、
人間の掌を表す前記第1の画像データから画像の第3のセットを判定することと、
画像の前記第3のセットから、前記人間の掌の特定の方位を表す画像の第4のセットを判定することと、
画像の前記第4のセットから、前記人間の掌の特定の姿勢を表す画像の第5のセットを判定することであって、前記第1の画像データは、画像の前記第5のセットの少なくとも一部を含む、前記判定することと、
を行う命令により、前記第1の画像データを処理することと、
部分画像の前記第2のセットを判定する前記命令の前に、
前記人間の掌を表す前記第2の画像データから画像の第6のセットを判定することと、
画像の前記第6のセットから、前記人間の掌の前記特定の方位を表す画像の第7のセットを判定することと、
画像の前記第7のセットから、前記人間の掌の前記特定の姿勢を表す画像の第8のセットを判定することであって、前記第2の画像データは、画像の前記第8のセットの少なくとも一部を含む、前記判定することと、
を行う命令により、前記第2の画像データを処理することと、
を行うように、前記第1のコンピュータ実行可能命令を実行する、
条項3、4、または5のいずれかに記載のシステム。
条項7.
前記1つ以上の最新の署名を判定する前記命令は更に、
前記1つ以上の最新の署名を生成するよう、ニューラルネットワークにより特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットのうちの少なくとも一部を処理する、命令を含む、条項3、4、5、または6のいずれかに記載のシステム。
条項8.
前記1つ以上の最新の署名を判定する前記命令は更に、
前記1つ以上の最新の署名を生成するよう、特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットの少なくとも一部を連結させる命令を含む、条項3に記載のシステム。
条項9.
特徴ベクトルの前記第1のセットを判定する前記命令は更に、
人間の掌の表面の画像を特徴付けるよう訓練された第1のニューラルネットワークにより部分画像の前記第1のセット内の前記部分画像のうちの前記1つ以上を処理する命令を含み、前記第1のニューラルネットワークからの出力は、n次元空間内で表現される第1の特徴ベクトルであり、
特徴ベクトルの前記第2のセットを判定する前記命令は更に、
前記人間の掌の内部解剖学的構造の画像を特徴付けるよう訓練された第2のニューラルネットワークにより部分画像の第2のセット内の前記部分画像のうちの前記1つ以上を処理する命令を含み、前記第2のニューラルネットワークからの出力は、p次元空間内で表現される第2の特徴ベクトルであり、pはnよりも小さい、
条項3に記載のシステム。
条項10.
前記ユーザ識別子を判定する前記命令は更に、
前記最新の署名の少なくとも一部と、1つ以上の前に記憶された参照署名の少なくとも一部との間の対応関係を示す信頼値の第1のセットを判定することであって、前記前に記憶された参照署名は、候補ユーザ識別子と関連付けられる、前記判定することと、
信頼値の前記第1のセットの最大信頼値と関連付けられた前記候補ユーザ識別子の特定の1つに基づいて、前記ユーザ識別子を判定することと、
のための命令を含む、
条項3に記載のシステム。
条項11.
部分画像の前記第1のセットは、第1の分解能を含み、
部分画像の前記第2のセットが前記第1の分解能よりも低い第2の分解能を有するように、前記第2の画像データをダウンサンプルする命令を更に含む、
条項3、4、5、6、7、8、9、または10のいずれかに記載のシステム。
条項12.
第1の偏光を有する赤外線光を使用して、カメラによって取得された第1の画像データにアクセスすることと、
第2の偏光を有する赤外線光を使用して、前記第1の偏光を有する偏光子及び照明により、前記カメラによって取得された第2の画像データにアクセスすることと、
部分画像の第1のセットを判定することであって、部分画像は、前記第1の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定することと、
部分画像の第2のセットを判定することであって、部分画像は、前記第2の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定することと、
特徴ベクトルの前記第1のセットまたは特徴ベクトルの前記第2のセットのうちの1つ以上に基づいて、1つ以上の最新の署名を判定することと、
前記1つ以上の最新の署名及び1つ以上の前に記憶された参照署名に基づいて、ユーザ識別子を判定することと、
を備えた、方法。
条項13.
前記第1の画像データは、人間の掌の表面の少なくとも一部を表し、前記第2の画像データは、前記人間の掌の内部解剖学的構造の少なくとも一部を表す、条項12に記載の方法。
条項14.
前記1つ以上の最新の署名を判定することは、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットの少なくとも一部を連結させて、前記1つ以上の最新の署名を生成することを含む、条項12または13のいずれかに記載の方法。
条項15.
特徴ベクトルの前記第1のセットを判定することは、
人間の掌の表面の画像を特徴付けるよう訓練された第1のニューラルネットワークにより部分画像の前記第1のセットの前記部分画像のうちの前記1つ以上を処理することであって、前記第1のニューラルネットワークからの出力は、n次元空間内で表現される第1の特徴ベクトルである、前記処理すること、
を含み、
特徴ベクトルの前記第2のセットを判定することは、
前記人間の掌の内部解剖学的構造の画像を特徴付けるよう訓練された第2のニューラルネットワークにより部分画像の前記第2のセットの前記部分画像のうちの前記1つ以上を処理することであって、前記第2のニューラルネットワークからの出力は、p次元空間内で表現される第2の特徴ベクトルであり、pはnよりも小さい、前記処理すること、
を含む、
条項12、13、または14のいずれかに記載の方法。
条項16.
前記ユーザ識別子を前記判定することは、
前記1つ以上の最新の署名と前記前に記憶された参照署名との間のベクトル空間内の距離の第1のセットを判定することであって、前記前に記憶された参照署名は、候補ユーザ識別子と関連付けられる、前記判定することと、
前記ベクトル空間内の距離の前記第1のセットに基づいて、前記ベクトル空間内の前記1つ以上の最新の署名に最も近い前記1つ以上の前に記憶された参照署名の1つを判定することと、
前記1つ以上の前に記憶された参照署名の前記最も近い1つと関連付けられた前記候補ユーザ識別子の特定の1つに基づいて、前記ユーザ識別子を判定することと、
を含む、条項12、13、14、または15のいずれかに記載の方法。
条項17.
部分画像の前記第1のセットを判定する前に、
前記第1の偏光を有する前記赤外線光を使用して、前記カメラによって取得された第1の未処理画像データにアクセスすることと、
前記第1の未処理画像データから前記第1の画像データを生成することであって、前記第1の画像データは、
人間の掌を表し、
前記人間の掌の特定の方位を示し、
前記人間の掌の特定の姿勢を示し、
第1の閾値を上回る総輝度を示し、
第2の閾値を下回る総不明瞭度を示し、
修正される、1つ以上の画像を含む、前記生成することと、
部分画像の前記第2のセットを判定する前に、
前記第2の偏光を有する前記赤外線光を使用して、前記カメラによって取得された第2の未処理画像データにアクセスすることと、
前記第2の未処理画像データから前記第2の画像データを生成することであって、前記第2の画像データは、
前記人間の掌を表し、
前記人間の掌の前記特定の方位を示し、
前記人間の掌の前記特定の姿勢を示し、
第2の閾値を上回る総輝度を示し、
第2の閾値を下回る総不明瞭度を示し、
修正される、1つ以上の画像を含む、前記生成することと、
を更に備えた、条項12、13、14、15、または16のいずれかに記載の方法。
条項18.
部分画像の前記第1のセットは、第1の分解能を有し、
部分画像の前記第2のセットが前記第1の分解能よりも低い第2の分解能を有するように、前記第2の画像データをダウンサンプルすることによって、部分画像の前記第2のセットを生成することを更に備えた、
条項12、13、14、15、16、または17のいずれかに記載の方法。
条項19.
部分画像の前記第1のセットの前記部分画像は、前記カメラの視角内の第1の領域を表し、部分画像の前記第2のセットの前記部分画像は、前記カメラの前記視角内の第2の領域を表し、更に、
前記視角内の前記第2の領域は、前記視角内の前記第1の領域よりも大きい、条項12、13、14、15、16、17、または18のいずれかに記載の方法。
条項20.
部分画像の前記第1のセットを前記判定することは更に、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に画像変換を適用することを含み、
部分画像の前記第2のセットを前記判定することは更に、
部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に画像変換を適用することを含む、
条項12、13、14、15、16、17、18、または19のいずれかに記載の方法。
条項
条項1.
スキャナであって、
第1の偏光を有する偏光子を有する第1の赤外線光源であって、前記第1の赤外線光源は、第1の時間に前記第1の偏光を有する光を生成する、前記第1の赤外線光源と、
第2の偏光を有する偏光子を有する第2の赤外線光源であって、前記第2の赤外線光源は、第2の時間に前記第2の偏光を有する光を生成する、前記第2の赤外線光源と、
前記第1の偏光を有する偏光子を有する第1のカメラであって、前記第1のカメラは、
前記第1の時間に第1の未処理画像を取得し、
前記第2の時間に第2の未処理画像を取得する、前記第1のカメラと、を含む、前記スキャナと、
コンピューティングデバイスであって、
第1のコンピュータ実行可能命令を記憶したメモリと、
ハードウェアプロセッサと、を含み、前記ハードウェアプロセッサは、
前記第1の未処理画像から第1の処理済み画像を生成し、前記第1の処理済み画像は、標準的な方位及び標準的な姿勢にある人間の掌を表し、前記人間の掌の表面を示し、
前記第2の未処理画像から第2の処理済み画像を生成し、前記第2の処理済み画像は、前記標準的な方位及び前記標準的な姿勢にある前記人間の掌を表し、前記人間の掌の静脈パターンを示し、
部分画像の第1のセットを判定し、部分画像の前記第1のセット内の部分画像は、前記第1の処理済み画像内の特定の領域に対応し、
第1のニューラルネットワークを使用して、部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定し、
部分画像の第2のセットを判定し、部分画像の前記第2のセット内の部分画像は、前記第2の処理済み画像内の特定の領域に対応し、
第2のニューラルネットワークを使用して、部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定し、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットを使用して、第3のニューラルネットワークへの入力として最新の署名を判定し、
前記最新の署名が、共通ベクトル空間内の参照署名の閾値距離内にあると判定し、
前記参照署名と関連付けられたユーザ識別子を判定する、ように前記第1のコンピュータ実行可能命令を実行する、
前記コンピューティングデバイスと、を備えたシステム。
条項2.
前記第2の処理済み画像の生成は、前記第2の未処理画像をダウンサンプルする命令を含み、
特徴ベクトルの前記第1のセットは、k次元空間内で表され、特徴ベクトルの前記第2のセットは、p次元空間内で表され、kは、pよりも大きい、
条項1に記載のシステム。
条項3.
赤外線光源と、
カメラと、
コントローラであって、
第1の時間に、第1の偏光を示す第1の赤外線光によりシーンを照明することと、
前記第1の偏光を示す入射光を使用して、前記第1の時間に第1の画像データを取得するよう前記カメラを動作させることと、
第2の時間に、第2の偏光を示す第2の赤外線光によりシーンを照明することと、
前記第1の偏光を示す入射光を使用して、前記第2の時間に第2の画像データを取得するよう前記カメラを動作させることと、
を行う、前記コントローラと、
コンピューティングデバイスであって、
第1のコンピュータ実行可能命令を記憶したメモリと、
前記第1のコンピュータ実行可能命令を実行するハードウェアプロセッサと、
を含む、前記コンピューティングデバイスと、
を備える、システムであって、
前記第1のコンピュータ実行可能命令は、
部分画像の第1のセットを判定することであって、部分画像の前記第1のセット内の各々の部分画像は、前記第1の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定し、
部分画像の第2のセットを判定することであって、部分画像の前記第2のセット内の各々の部分画像は、前記第2の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第2のセットの前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定することと、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットに基づいて、1つ以上の最新の署名を判定することと、
1つ以上の参照署名と、前記1つ以上の最新の署名の少なくとも一部との比較に基づいて、ユーザ識別子を判定することと、
のためのものである、
前記システム。
条項4.
前記赤外線光源であって、
第1の偏光を有する第1の偏光子を通過する光出力を有する第1の赤外線光源と、
第2の偏光を有する第2の偏光子を通過する光出力を有する第2の赤外線光源と、を含む、前記赤外線光源と、
前記第1の偏光を有する第3の偏光子を含む前記カメラと、
を更に備えた、条項3に記載のシステム。
条項5.
光を選択的にフィルタリングする前記コントローラからの入力に応答した偏光子を更に備え、前記偏光子は、
電気モータにより駆動されるホイールであって、
前記第1の偏光を有する光を通す第1の偏光ウインドウを有する第1のセグメントと、
前記第2の偏光を有する光を通す第2の偏光ウインドウを有する第2のセグメントと、を含む、前記ホイール、
液晶、または
光弾性変調器、のうちの1つ以上を含む、
条項3または4のいずれかに記載のシステム。
条項6.
前記ハードウェアプロセッサは更に、
部分画像の前記第1のセットを判定する前記命令の前に、
人間の掌を表す前記第1の画像データから画像の第3のセットを判定することと、
画像の前記第3のセットから、前記人間の掌の特定の方位を表す画像の第4のセットを判定することと、
画像の前記第4のセットから、前記人間の掌の特定の姿勢を表す画像の第5のセットを判定することであって、前記第1の画像データは、画像の前記第5のセットの少なくとも一部を含む、前記判定することと、
を行う命令により、前記第1の画像データを処理することと、
部分画像の前記第2のセットを判定する前記命令の前に、
前記人間の掌を表す前記第2の画像データから画像の第6のセットを判定することと、
画像の前記第6のセットから、前記人間の掌の前記特定の方位を表す画像の第7のセットを判定することと、
画像の前記第7のセットから、前記人間の掌の前記特定の姿勢を表す画像の第8のセットを判定することであって、前記第2の画像データは、画像の前記第8のセットの少なくとも一部を含む、前記判定することと、
を行う命令により、前記第2の画像データを処理することと、
を行うように、前記第1のコンピュータ実行可能命令を実行する、
条項3、4、または5のいずれかに記載のシステム。
条項7.
前記1つ以上の最新の署名を判定する前記命令は更に、
前記1つ以上の最新の署名を生成するよう、ニューラルネットワークにより特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットのうちの少なくとも一部を処理する、命令を含む、条項3、4、5、または6のいずれかに記載のシステム。
条項8.
前記1つ以上の最新の署名を判定する前記命令は更に、
前記1つ以上の最新の署名を生成するよう、特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットの少なくとも一部を連結させる命令を含む、条項3に記載のシステム。
条項9.
特徴ベクトルの前記第1のセットを判定する前記命令は更に、
人間の掌の表面の画像を特徴付けるよう訓練された第1のニューラルネットワークにより部分画像の前記第1のセット内の前記部分画像のうちの前記1つ以上を処理する命令を含み、前記第1のニューラルネットワークからの出力は、n次元空間内で表現される第1の特徴ベクトルであり、
特徴ベクトルの前記第2のセットを判定する前記命令は更に、
前記人間の掌の内部解剖学的構造の画像を特徴付けるよう訓練された第2のニューラルネットワークにより部分画像の第2のセット内の前記部分画像のうちの前記1つ以上を処理する命令を含み、前記第2のニューラルネットワークからの出力は、p次元空間内で表現される第2の特徴ベクトルであり、pはnよりも小さい、
条項3に記載のシステム。
条項10.
前記ユーザ識別子を判定する前記命令は更に、
前記最新の署名の少なくとも一部と、1つ以上の前に記憶された参照署名の少なくとも一部との間の対応関係を示す信頼値の第1のセットを判定することであって、前記前に記憶された参照署名は、候補ユーザ識別子と関連付けられる、前記判定することと、
信頼値の前記第1のセットの最大信頼値と関連付けられた前記候補ユーザ識別子の特定の1つに基づいて、前記ユーザ識別子を判定することと、
のための命令を含む、
条項3に記載のシステム。
条項11.
部分画像の前記第1のセットは、第1の分解能を含み、
部分画像の前記第2のセットが前記第1の分解能よりも低い第2の分解能を有するように、前記第2の画像データをダウンサンプルする命令を更に含む、
条項3、4、5、6、7、8、9、または10のいずれかに記載のシステム。
条項12.
第1の偏光を有する赤外線光を使用して、カメラによって取得された第1の画像データにアクセスすることと、
第2の偏光を有する赤外線光を使用して、前記第1の偏光を有する偏光子及び照明により、前記カメラによって取得された第2の画像データにアクセスすることと、
部分画像の第1のセットを判定することであって、部分画像は、前記第1の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定することと、
部分画像の第2のセットを判定することであって、部分画像は、前記第2の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定することと、
特徴ベクトルの前記第1のセットまたは特徴ベクトルの前記第2のセットのうちの1つ以上に基づいて、1つ以上の最新の署名を判定することと、
前記1つ以上の最新の署名及び1つ以上の前に記憶された参照署名に基づいて、ユーザ識別子を判定することと、
を備えた、方法。
条項13.
前記第1の画像データは、人間の掌の表面の少なくとも一部を表し、前記第2の画像データは、前記人間の掌の内部解剖学的構造の少なくとも一部を表す、条項12に記載の方法。
条項14.
前記1つ以上の最新の署名を判定することは、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットの少なくとも一部を連結させて、前記1つ以上の最新の署名を生成することを含む、条項12または13のいずれかに記載の方法。
条項15.
特徴ベクトルの前記第1のセットを判定することは、
人間の掌の表面の画像を特徴付けるよう訓練された第1のニューラルネットワークにより部分画像の前記第1のセットの前記部分画像のうちの前記1つ以上を処理することであって、前記第1のニューラルネットワークからの出力は、n次元空間内で表現される第1の特徴ベクトルである、前記処理すること、
を含み、
特徴ベクトルの前記第2のセットを判定することは、
前記人間の掌の内部解剖学的構造の画像を特徴付けるよう訓練された第2のニューラルネットワークにより部分画像の前記第2のセットの前記部分画像のうちの前記1つ以上を処理することであって、前記第2のニューラルネットワークからの出力は、p次元空間内で表現される第2の特徴ベクトルであり、pはnよりも小さい、前記処理すること、
を含む、
条項12、13、または14のいずれかに記載の方法。
条項16.
前記ユーザ識別子を前記判定することは、
前記1つ以上の最新の署名と前記前に記憶された参照署名との間のベクトル空間内の距離の第1のセットを判定することであって、前記前に記憶された参照署名は、候補ユーザ識別子と関連付けられる、前記判定することと、
前記ベクトル空間内の距離の前記第1のセットに基づいて、前記ベクトル空間内の前記1つ以上の最新の署名に最も近い前記1つ以上の前に記憶された参照署名の1つを判定することと、
前記1つ以上の前に記憶された参照署名の前記最も近い1つと関連付けられた前記候補ユーザ識別子の特定の1つに基づいて、前記ユーザ識別子を判定することと、
を含む、条項12、13、14、または15のいずれかに記載の方法。
条項17.
部分画像の前記第1のセットを判定する前に、
前記第1の偏光を有する前記赤外線光を使用して、前記カメラによって取得された第1の未処理画像データにアクセスすることと、
前記第1の未処理画像データから前記第1の画像データを生成することであって、前記第1の画像データは、
人間の掌を表し、
前記人間の掌の特定の方位を示し、
前記人間の掌の特定の姿勢を示し、
第1の閾値を上回る総輝度を示し、
第2の閾値を下回る総不明瞭度を示し、
修正される、1つ以上の画像を含む、前記生成することと、
部分画像の前記第2のセットを判定する前に、
前記第2の偏光を有する前記赤外線光を使用して、前記カメラによって取得された第2の未処理画像データにアクセスすることと、
前記第2の未処理画像データから前記第2の画像データを生成することであって、前記第2の画像データは、
前記人間の掌を表し、
前記人間の掌の前記特定の方位を示し、
前記人間の掌の前記特定の姿勢を示し、
第1の閾値を上回る総輝度を示し、
第2の閾値を下回る総不明瞭度を示し、
修正される、1つ以上の画像を含む、前記生成することと、
を更に備えた、条項12、13、14、15、または16のいずれかに記載の方法。
条項18.
部分画像の前記第1のセットは、第1の分解能を有し、
部分画像の前記第2のセットが前記第1の分解能よりも低い第2の分解能を有するように、前記第2の画像データをダウンサンプルすることによって、部分画像の前記第2のセットを生成することを更に備えた、
条項12、13、14、15、16、または17のいずれかに記載の方法。
条項19.
部分画像の前記第1のセットの前記部分画像は、前記カメラの視角内の第1の領域を表し、部分画像の前記第2のセットの前記部分画像は、前記カメラの前記視角内の第2の領域を表し、更に、
前記視角内の前記第2の領域は、前記視角内の前記第1の領域よりも大きい、条項12、13、14、15、16、17、または18のいずれかに記載の方法。
条項20.
部分画像の前記第1のセットを前記判定することは更に、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に画像変換を適用することを含み、
部分画像の前記第2のセットを前記判定することは更に、
部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に画像変換を適用することを含む、
条項12、13、14、15、16、17、18、または19のいずれかに記載の方法。
Claims (15)
- 赤外線光源と、
カメラと、
コントローラであって、
第1の時間に、第1の偏光を示す第1の赤外線光によりシーンを照明することと、
前記第1の偏光を示す入射光を使用して、前記第1の時間に第1の画像データを取得するよう前記カメラを動作させることと、
第2の時間に、第2の偏光を示す第2の赤外線光によりシーンを照明することと、
前記第1の偏光を示す入射光を使用して、前記第2の時間に第2の画像データを取得するよう前記カメラを動作させることと、
を行う、前記コントローラと、
コンピューティングデバイスであって、
第1のコンピュータ実行可能命令を記憶したメモリと、
前記第1のコンピュータ実行可能命令を実行するハードウェアプロセッサと、
を含む、前記コンピューティングデバイスと、
を備える、システムであって、
前記第1のコンピュータ実行可能命令は、
部分画像の第1のセットを判定することであって、部分画像の前記第1のセット内の各々の部分画像は、前記第1の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定し、
部分画像の第2のセットを判定することであって、部分画像の前記第2のセット内の各々の部分画像は、前記第2の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第2のセットの前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定することと、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットに基づいて、1つ以上の最新の署名を判定することと、
1つ以上の参照署名と、前記1つ以上の最新の署名の少なくとも一部との比較に基づいて、ユーザ識別子を判定することと、
のためのものである、
前記システム。 - 前記赤外線光源であって、
第1の偏光を有する第1の偏光子を通過する光出力を有する第1の赤外線光源と、
第2の偏光を有する第2の偏光子を通過する光出力を有する第2の赤外線光源と、を含む、前記赤外線光源と、
前記第1の偏光を有する第3の偏光子を含む前記カメラと、
を更に備えた、請求項1に記載のシステム。 - 光を選択的にフィルタリングする前記コントローラからの入力に応答した偏光子を更に備え、前記偏光子は、
電気モータにより駆動されるホイールであって、
前記第1の偏光を有する光を通す第1の偏光ウインドウを有する第1のセグメントと、
前記第2の偏光を有する光を通す第2の偏光ウインドウを有する第2のセグメントと、
を含む、前記ホイール、
液晶、または
光弾性変調器、
のうちの1つ以上を含む、請求項1または2のいずれか一項に記載のシステム。 - 前記ハードウェアプロセッサは更に、
部分画像の前記第1のセットを判定する前記命令の前に、
人間の掌を表す前記第1の画像データから画像の第3のセットを判定することと、
画像の前記第3のセットから、前記人間の掌の特定の方位を表す画像の第4のセットを判定することと、
画像の前記第4のセットから、前記人間の掌の特定の姿勢を表す画像の第5のセットを判定することであって、前記第1の画像データは、画像の前記第5のセットの少なくとも一部を含む、前記判定することと、
を行う命令により、前記第1の画像データを処理することと、
部分画像の前記第2のセットを判定する前記命令の前に、
前記人間の掌を表す前記第2の画像データから画像の第6のセットを判定することと、
画像の前記第6のセットから、前記人間の掌の前記特定の方位を表す画像の第7のセットを判定することと、
画像の前記第7のセットから、前記人間の掌の前記特定の姿勢を表す画像の第8のセットを判定することであって、前記第2の画像データは、画像の前記第8のセットの少なくとも一部を含む、前記判定することと、
を行う命令により、前記第2の画像データを処理することと、
を行うように、前記第1のコンピュータ実行可能命令を実行する、
請求項1、2、または3のいずれか一項に記載のシステム。 - 前記1つ以上の最新の署名を判定する前記命令は更に、
前記1つ以上の最新の署名を生成するよう、ニューラルネットワークにより特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットのうちの少なくとも一部を処理する、命令を含む、請求項1、2、3、または4のいずれか一項に記載のシステム。 - 前記ユーザ識別子を判定する前記命令は更に、
前記最新の署名の少なくとも一部と、1つ以上の前に記憶された参照署名の少なくとも一部との間の対応関係を示す信頼値の第1のセットを判定することであって、前記前に記憶された参照署名は、候補ユーザ識別子と関連付けられる、前記判定することと、
信頼値の前記第1のセットの最大信頼値と関連付けられた前記候補ユーザ識別子の特定の1つに基づいて、前記ユーザ識別子を判定することと、
のための命令を含む、
請求項1、2、3、4、または5のいずれか一項に記載のシステム。 - 第1の偏光を有する赤外線光を使用して、カメラによって取得された第1の画像データにアクセスすることと、
第2の偏光を有する赤外線光を使用して、前記第1の偏光を有する偏光子及び照明により、前記カメラによって取得された第2の画像データにアクセスすることと、
部分画像の第1のセットを判定することであって、部分画像は、前記第1の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第1のセットを判定することと、
部分画像の第2のセットを判定することであって、部分画像は、前記第2の画像データ内の特定の領域に対応する、前記判定することと、
部分画像の前記第2のセット内の前記部分画像のうちの1つ以上に対して特徴ベクトルの第2のセットを判定することと、
特徴ベクトルの前記第1のセットまたは特徴ベクトルの前記第2のセットのうちの1つ以上に基づいて、1つ以上の最新の署名を判定することと、
前記1つ以上の最新の署名及び1つ以上の前に記憶された参照署名に基づいて、ユーザ識別子を判定することと、
を備えた、方法。 - 前記第1の画像データは、人間の掌の表面の少なくとも一部を表し、
前記第2の画像データは、前記人間の掌の内部解剖学的構造の少なくとも一部を表す、
請求項7に記載の方法。 - 前記1つ以上の最新の署名を判定することは、
特徴ベクトルの前記第1のセット及び特徴ベクトルの前記第2のセットの少なくとも一部を連結させて、前記1つ以上の最新の署名を生成することを含む、請求項7または8のいずれか一項に記載の方法。 - 特徴ベクトルの前記第1のセットを判定することは、
人間の掌の表面の画像を特徴付けるよう訓練された第1のニューラルネットワークにより部分画像の前記第1のセットの前記部分画像のうちの前記1つ以上を処理することであって、前記第1のニューラルネットワークからの出力は、n次元空間内で表現される第1の特徴ベクトルである、前記処理すること、
を含み、
特徴ベクトルの前記第2のセットを判定することは、
前記人間の掌の内部解剖学的構造の画像を特徴付けるよう訓練された第2のニューラルネットワークにより部分画像の前記第2のセットの前記部分画像のうちの前記1つ以上を処理することであって、前記第2のニューラルネットワークからの出力は、p次元空間内で表現される第2の特徴ベクトルであり、pはnよりも小さい、前記処理すること、
を含む、請求項7、8、または9のいずれか一項に記載の方法。 - 前記ユーザ識別子を前記判定することは、
前記1つ以上の最新の署名と、前記前に記憶された参照署名との間のベクトル空間内の距離の第1のセットを判定することであって、前記前に記憶された参照署名は、候補ユーザ識別子と関連付けられる、前記判定することと、
前記ベクトル空間内の距離の前記第1のセットに基づいて、前記ベクトル空間内の前記1つ以上の最新の署名に最も近い前記1つ以上の前に記憶された参照署名の1つを判定することと、
前記1つ以上の前に記憶された参照署名の前記最も近い1つと関連付けられた前記候補ユーザ識別子の特定の1つに基づいて、前記ユーザ識別子を判定することと、
を含む、請求項7、8、9、または10のいずれか一項に記載の方法。 - 部分画像の前記第1のセットを判定する前に、
前記第1の偏光を有する前記赤外線光を使用して、前記カメラによって取得された第1の未処理画像データにアクセスすることと、
前記第1の未処理画像データから前記第1の画像データを生成することであって、前記第1の画像データは、
人間の掌を表し、
前記人間の掌の特定の方位を示し、
前記人間の掌の特定の姿勢を示し、
第1の閾値を上回る総輝度を示し、
第2の閾値を下回る総不明瞭度を示し、
修正される、1つ以上の画像を含む、
前記生成することと、
部分画像の前記第2のセットを判定する前に、
前記第2の偏光を有する前記赤外線光を使用して、前記カメラによって取得された第2の未処理画像データにアクセスすることと、
前記第2の未処理画像データから前記第2の画像データを生成することであって、前記第2の画像データは、
前記人間の掌を表し、
前記人間の掌の前記特定の方位を示し、
前記人間の掌の前記特定の姿勢を示し、
第2の閾値を上回る総輝度を示し、
第2の閾値を下回る総不明瞭度を示し、
修正される、1つ以上の画像を含む、
前記生成することと、
を更に備えた、請求項7、8、9、10、または11のいずれか一項に記載の方法。 - 部分画像の前記第1のセットは、第1の分解能を有し、
部分画像の前記第2のセットが前記第1の分解能よりも低い第2の分解能を有するように、前記第2の画像データをダウンサンプルすることによって、部分画像の前記第2のセットを生成することを更に備えた、
請求項7、8、9、10、11、または12のいずれか一項に記載の方法。 - 部分画像の前記第1のセットの前記部分画像は、前記カメラの視角内の第1の領域を表し、
部分画像の前記第2のセットの前記部分画像は、前記カメラの前記視角内の第2の領域を表し、更に、
前記視角内の前記第2の領域は、前記視角内の前記第1の領域よりも大きい、請求項7、8、9、10、11、12、または13のいずれか一項に記載の方法。 - 部分画像の前記第1のセットを前記判定することは更に、
部分画像の前記第1のセット内の前記部分画像のうちの1つ以上に画像変換を適用することを含み、
部分画像の前記第2のセットを前記判定することは更に、
部分画像の前記第2のセットの前記部分画像のうちの1つ以上に画像変換を適用することを含む、
請求項7、8、9、10、11、12、13、または14のいずれか一項に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/014,843 US10872221B2 (en) | 2018-06-21 | 2018-06-21 | Non-contact biometric identification system |
US16/014,843 | 2018-06-21 | ||
PCT/US2019/038225 WO2020040858A2 (en) | 2018-06-21 | 2019-06-20 | Non-contact biometric identification system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021527872A true JP2021527872A (ja) | 2021-10-14 |
JP7351861B2 JP7351861B2 (ja) | 2023-09-27 |
Family
ID=68981931
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020568705A Active JP7351861B2 (ja) | 2018-06-21 | 2019-06-20 | ユーザ識別子を指定するシステム及びその方法 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10872221B2 (ja) |
EP (1) | EP3811289B1 (ja) |
JP (1) | JP7351861B2 (ja) |
KR (1) | KR102581711B1 (ja) |
CN (1) | CN112400174A (ja) |
WO (1) | WO2020040858A2 (ja) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10872221B2 (en) * | 2018-06-21 | 2020-12-22 | Amazon Technologies, Inc | Non-contact biometric identification system |
US11080542B2 (en) * | 2018-07-27 | 2021-08-03 | International Business Machines Corporation | Sparse region-of-interest pooling for object detection |
US11922391B2 (en) * | 2019-03-01 | 2024-03-05 | Nec Corporation | Article deduction apparatus, article deduction method, and program |
US20200302147A1 (en) * | 2019-03-20 | 2020-09-24 | Amazon Technologies, Inc. | Biometric input device |
CN110516087B (zh) * | 2019-04-23 | 2021-12-07 | 广州麦仑信息科技有限公司 | 一种大规模分布式全掌脉络数据的闪速搜索比对方法 |
KR102558903B1 (ko) * | 2019-11-30 | 2023-07-24 | 보스턴 폴라리메트릭스, 인크. | 편광 신호를 이용한 투명 물체 분할을 위한 시스템 및 방법 |
US11232284B2 (en) * | 2019-12-27 | 2022-01-25 | Omnivision Technologies, Inc. | Techniques for robust anti-spoofing in biometrics using polarization cues for NIR and visible wavelength band |
US11625947B1 (en) * | 2020-03-03 | 2023-04-11 | Amazon Technologies, Inc. | System for detecting and mitigating fraudulent biometric input |
CN111753804A (zh) * | 2020-07-07 | 2020-10-09 | 深兰盛视科技(苏州)有限公司 | 一种识别装置、采集装置、扣费装置及用于公共交通的非接触式生物识别系统 |
EP3958166A1 (en) | 2020-08-19 | 2022-02-23 | Qamcom Innovation Labs AB | Method and system for enabling an electronic payment |
US11670104B1 (en) * | 2020-11-13 | 2023-06-06 | Amazon Technologies, Inc. | System for determining embedding from multiple inputs |
US11527092B1 (en) * | 2020-11-16 | 2022-12-13 | Amazon Technologies, Inc. | System for determining embedding using spatial data |
US11657589B2 (en) * | 2021-01-13 | 2023-05-23 | Ford Global Technologies, Llc | Material spectroscopy |
US11741747B2 (en) | 2021-01-13 | 2023-08-29 | Ford Global Technologies, Llc | Material spectroscopy |
US11823488B1 (en) * | 2021-03-29 | 2023-11-21 | Amazon Technologies, Inc. | System for training embedding network |
US11900350B2 (en) * | 2021-05-21 | 2024-02-13 | Block, Inc. | Automatic inventory tracking in brick and mortar store based on sensor data |
US12051277B1 (en) * | 2021-06-03 | 2024-07-30 | Amazon Technologies, Inc. | Multi-sensor input device |
KR102714901B1 (ko) * | 2021-10-26 | 2024-10-08 | 주식회사 카카오브이엑스 | 딥러닝 기반 비접촉식 장문 인식 시스템 및 방법 |
TWI805134B (zh) * | 2021-12-17 | 2023-06-11 | 長庚大學 | 感光觸覺系統及其感光方法 |
FR3132153B1 (fr) | 2022-01-21 | 2024-08-16 | Idemia Identity Security France | Procédé de mise en correspondance d’une image d’une paume d’un individu avec au moins une image d’une pluralité d’images de paumes de référence |
US20230419740A1 (en) * | 2022-06-28 | 2023-12-28 | Shanghai United Imaging Intelligence Co., Ltd. | Non-invasive biometric system and method for encoding anatomical features as biometric data |
US20240233444A1 (en) * | 2023-01-10 | 2024-07-11 | Amazon Technologies, Inc. | System for biometric identification enrollment |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150356339A1 (en) * | 2014-06-09 | 2015-12-10 | Lawrence Livermore National Security, Llc | Multimodal Imaging System And Method For Non-Contact Identification of Multiple Biometric Traits |
JP2017068597A (ja) * | 2015-09-30 | 2017-04-06 | 富士通株式会社 | 生体撮影装置および生体撮影方法 |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0887588A (ja) | 1994-09-19 | 1996-04-02 | Seiko Epson Corp | 電子指紋照合器及びその指紋撮像部 |
US7481360B1 (en) | 1998-04-17 | 2009-01-27 | Diebold Self-Service Systems Division Of Diebold, Incorporated | Cash dispensing automated banking machine with instructional electronic ink displays |
JP3941863B2 (ja) | 2002-03-27 | 2007-07-04 | 株式会社トプコン | 表面検査方法及び表面検査装置 |
US7627151B2 (en) * | 2003-04-04 | 2009-12-01 | Lumidigm, Inc. | Systems and methods for improved biometric feature definition |
US8229185B2 (en) | 2004-06-01 | 2012-07-24 | Lumidigm, Inc. | Hygienic biometric sensors |
JP4546169B2 (ja) | 2004-06-28 | 2010-09-15 | 富士通株式会社 | 手のひら認証用撮像装置 |
US7602942B2 (en) * | 2004-11-12 | 2009-10-13 | Honeywell International Inc. | Infrared and visible fusion face recognition system |
JP4566930B2 (ja) | 2006-03-03 | 2010-10-20 | 富士通株式会社 | 撮像装置 |
KR20140124868A (ko) * | 2006-07-19 | 2014-10-27 | 루미다임 인크. | 스펙트럼 생체인식 센서 |
US7995808B2 (en) | 2006-07-19 | 2011-08-09 | Lumidigm, Inc. | Contactless multispectral biometric capture |
US20080107309A1 (en) | 2006-11-03 | 2008-05-08 | Cerni Consulting, Llc | Method and apparatus for biometric identification |
EP2120713A2 (en) | 2007-03-21 | 2009-11-25 | Lumidigm, Inc. | Biometrics based on locally consistent features |
FR2915301A1 (fr) * | 2007-04-20 | 2008-10-24 | Groupe Ecoles Telecomm | Procede de comparaison d'images d'une biometrie entre au moi ns une image de reference et au moins une image de test dont on cherche a evaluer un degre de correlation avec l'image d e reference |
JP5024153B2 (ja) | 2008-03-27 | 2012-09-12 | ソニー株式会社 | 生体撮像装置 |
US8229178B2 (en) * | 2008-08-19 | 2012-07-24 | The Hong Kong Polytechnic University | Method and apparatus for personal identification using palmprint and palm vein |
US8461961B2 (en) | 2009-11-04 | 2013-06-11 | Ming-Yuan Wu | Tamper-proof secure card with stored biometric data and method for using the secure card |
CN102542281B (zh) * | 2010-12-27 | 2017-02-22 | 北京北科慧识科技股份有限公司 | 非接触式生物特征识别方法和系统 |
SG194673A1 (en) | 2011-01-31 | 2013-12-30 | Mustech Computing Services Ltd | Optical polarimetric imaging |
CN104487803A (zh) | 2012-07-23 | 2015-04-01 | 株式会社理光 | 立体相机 |
JP2014035257A (ja) | 2012-08-08 | 2014-02-24 | National Institute Of Advanced Industrial & Technology | ミューラー行列顕微エリプソメータ |
US8369595B1 (en) * | 2012-08-10 | 2013-02-05 | EyeVerify LLC | Texture features for biometric authentication |
JP2015529365A (ja) * | 2012-09-05 | 2015-10-05 | エレメント,インク. | カメラ付きデバイスに関連する生体認証のためのシステム及び方法 |
JP6132659B2 (ja) | 2013-02-27 | 2017-05-24 | シャープ株式会社 | 周囲環境認識装置、それを用いた自律移動システムおよび周囲環境認識方法 |
JP6323227B2 (ja) | 2013-12-16 | 2018-05-16 | ソニー株式会社 | 画像解析装置、画像解析方法、およびプログラム、並びに照明装置 |
US10599932B2 (en) * | 2014-06-09 | 2020-03-24 | Lawrence Livermore National Security, Llc | Personal electronic device for performing multimodal imaging for non-contact identification of multiple biometric traits |
JP6482196B2 (ja) | 2014-07-09 | 2019-03-13 | キヤノン株式会社 | 画像処理装置、その制御方法、プログラム、及び記憶媒体 |
US20180357520A1 (en) | 2015-06-05 | 2018-12-13 | Seeing Machines Limited | Protective system for infrared light source |
US10049272B2 (en) * | 2015-09-24 | 2018-08-14 | Microsoft Technology Licensing, Llc | User authentication using multiple capture techniques |
US10210631B1 (en) * | 2017-08-18 | 2019-02-19 | Synapse Technology Corporation | Generating synthetic image data |
US10872221B2 (en) * | 2018-06-21 | 2020-12-22 | Amazon Technologies, Inc | Non-contact biometric identification system |
US11625725B1 (en) * | 2018-08-09 | 2023-04-11 | Amazon Technologies, Inc. | Stateless secure payment system |
US20200302147A1 (en) * | 2019-03-20 | 2020-09-24 | Amazon Technologies, Inc. | Biometric input device |
US11256956B2 (en) * | 2019-12-02 | 2022-02-22 | Qualcomm Incorporated | Multi-stage neural network process for keypoint detection in an image |
US20210365940A1 (en) * | 2020-05-25 | 2021-11-25 | Edatanetworks, Inc. | Transaction For Tamper and Quality Evidenced Delivery of Purchase Incented By Donation |
US11527092B1 (en) * | 2020-11-16 | 2022-12-13 | Amazon Technologies, Inc. | System for determining embedding using spatial data |
-
2018
- 2018-06-21 US US16/014,843 patent/US10872221B2/en active Active
-
2019
- 2019-06-20 WO PCT/US2019/038225 patent/WO2020040858A2/en active Application Filing
- 2019-06-20 CN CN201980046968.9A patent/CN112400174A/zh active Pending
- 2019-06-20 KR KR1020217000715A patent/KR102581711B1/ko active IP Right Grant
- 2019-06-20 EP EP19851091.9A patent/EP3811289B1/en active Active
- 2019-06-20 JP JP2020568705A patent/JP7351861B2/ja active Active
-
2020
- 2020-10-21 US US17/075,926 patent/US11900711B1/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150356339A1 (en) * | 2014-06-09 | 2015-12-10 | Lawrence Livermore National Security, Llc | Multimodal Imaging System And Method For Non-Contact Identification of Multiple Biometric Traits |
JP2017068597A (ja) * | 2015-09-30 | 2017-04-06 | 富士通株式会社 | 生体撮影装置および生体撮影方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2020040858A3 (en) | 2020-07-02 |
CN112400174A (zh) | 2021-02-23 |
KR102581711B1 (ko) | 2023-09-22 |
US10872221B2 (en) | 2020-12-22 |
EP3811289A2 (en) | 2021-04-28 |
EP3811289B1 (en) | 2024-04-17 |
US11900711B1 (en) | 2024-02-13 |
WO2020040858A2 (en) | 2020-02-27 |
JP7351861B2 (ja) | 2023-09-27 |
US20190392189A1 (en) | 2019-12-26 |
KR20210019515A (ko) | 2021-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11900711B1 (en) | User identification system using infrared images of palm characteristics | |
US11340373B1 (en) | System to determine portable device presence at a portal | |
US10380814B1 (en) | System for determining entry of user to an automated facility | |
US11657617B1 (en) | Presentation of a user interface for confirming unreliable group data | |
US11568361B1 (en) | Merging events in interactive data processing systems | |
US11263795B1 (en) | Visualization system for sensor data and facility data | |
JP7130069B2 (ja) | ユーザの間のグループ関連付けを判定するシステム | |
US10332066B1 (en) | Item management system using weight | |
US11853961B1 (en) | Customized neural network for item recognition | |
US10346659B1 (en) | System for reading tags | |
US10853469B1 (en) | User interface locking system | |
US11436557B1 (en) | Interaction determination using data from weight sensors | |
US20210097547A1 (en) | Electronic device for automated user identification | |
US11887332B2 (en) | Item identification using digital image processing | |
JP2022526228A (ja) | 生体認証入力デバイス | |
US11625725B1 (en) | Stateless secure payment system | |
US11117744B1 (en) | Determination of untidy item return to an inventory location | |
US11488231B1 (en) | Systems and method for an application for updating virtual carts | |
US11599737B1 (en) | System for generating tags | |
US10932103B1 (en) | Determining position of a user relative to a tote | |
US11069381B1 (en) | Automated sensor data retention | |
US12131575B1 (en) | System for single image multimodal biometric recognition | |
US11756036B1 (en) | Utilizing sensor data for automated user identification | |
US11823488B1 (en) | System for training embedding network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220719 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220719 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20221206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230228 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230501 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230501 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230615 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230907 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7351861 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |