JP7270304B2 - ユーザのバイオメトリック特性を有する画像中の物体を識別することにより当該ユーザのidを検証するための方法、及び当該方法を実施するためのモバイル装置 - Google Patents
ユーザのバイオメトリック特性を有する画像中の物体を識別することにより当該ユーザのidを検証するための方法、及び当該方法を実施するためのモバイル装置 Download PDFInfo
- Publication number
- JP7270304B2 JP7270304B2 JP2021542315A JP2021542315A JP7270304B2 JP 7270304 B2 JP7270304 B2 JP 7270304B2 JP 2021542315 A JP2021542315 A JP 2021542315A JP 2021542315 A JP2021542315 A JP 2021542315A JP 7270304 B2 JP7270304 B2 JP 7270304B2
- Authority
- JP
- Japan
- Prior art keywords
- user
- biometric
- image
- matrix
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 96
- 239000011159 matrix material Substances 0.000 claims description 116
- 238000013528 artificial neural network Methods 0.000 claims description 93
- 238000012545 processing Methods 0.000 claims description 66
- 230000037303 wrinkles Effects 0.000 claims description 39
- 230000003287 optical effect Effects 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 18
- 230000009467 reduction Effects 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 5
- 230000001537 neural effect Effects 0.000 claims description 2
- 239000000049 pigment Substances 0.000 claims description 2
- 210000000554 iris Anatomy 0.000 description 19
- 230000008569 process Effects 0.000 description 19
- 239000013598 vector Substances 0.000 description 19
- 241000233788 Arecaceae Species 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 5
- 210000000887 face Anatomy 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 208000016339 iris pattern Diseases 0.000 description 2
- 240000001889 Brahea edulis Species 0.000 description 1
- 244000050403 Iris x germanica Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
- G06V40/1353—Extracting features related to minutiae or pores
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/255—Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Description
モバイル装置の光学センサによって物体の画像を取得するステップと、
画像をニューラルネットワークへ供給するステップと、
画像をニューラルネットワークによって処理することにより、画像中の物体の位置及び物体の両方を識別するステップと、
識別された物体からバイオメトリック特性を抽出するステップと、
バイオメトリック特性を記憶装置に記憶し、及び/又は、少なくともバイオメトリック特性を入力として識別手段へ供給するステップと、
を有し、
識別手段は、バイオメトリック特性がユーザを識別するか否かを判定するために入力を処理することを含む。
物体はユーザの顔であり、バイオメトリック特性はユーザの顔の中の眼、口、鼻のうち少なくとも1つであり、識別手段によって入力を処理するステップは、バイオメトリック特性から例えば顔の中での口の位置等のバイオメトリック特徴を抽出するステップと、抽出されたバイオメトリック特徴と記憶装置に記憶されたバイオメトリック特徴とを比較するステップと、を含み、抽出されたバイオメトリック特徴と記憶されたバイオメトリック特徴との差が閾値を下回る場合、識別手段は当該バイオメトリック特性によってユーザが識別されると判定し、バイオメトリック特徴と記憶されたバイオメトリック特徴との差が閾値を上回る場合、識別手段は当該バイオメトリック特性によってユーザが識別されないと判定し、又は、
物体はユーザの眼であり、バイオメトリック特性はユーザの眼の虹彩であり、識別手段によって入力を処理するステップは、虹彩から例えば当該虹彩の色素パターン等のバイオメトリック特徴を抽出するステップと、抽出されたバイオメトリック特徴と記憶装置に記憶されたバイオメトリック特徴とを比較するステップと、を含み、抽出されたバイオメトリック特徴と記憶されたバイオメトリック特徴との差が閾値を下回る場合、識別手段は当該虹彩によってユーザが識別されると判定し、バイオメトリック特徴と記憶されたバイオメトリック特徴との差が閾値を上回る場合、識別手段は当該虹彩によってユーザが識別されないと判定し、又は、
物体はユーザの足の裏であり、バイオメトリック特性は当該足の裏の少なくとも1つの足形であり、識別手段によって入力を処理するステップは、足形から例えば当該足形の線の長さや方向等のバイオメトリック特徴を抽出するステップと、抽出されたバイオメトリック特徴と記憶装置に記憶されたバイオメトリック特徴とを比較するステップと、を含み、抽出されたバイオメトリック特徴と記憶されたバイオメトリック特徴との差が閾値を下回る場合、識別手段は当該足形によってユーザが識別されると判定し、バイオメトリック特徴と記憶されたバイオメトリック特徴との差が閾値を上回る場合、識別手段は当該足形によってユーザが識別されないと判定する。
であるマトリクスZcdの成分は、
によって与えられ、出力として、
のサイズを有するマトリクスPを提供し、 ここで、Ww及びWhはストライド幅を定義し、 マトリクスPの各成分Pijはij番目の削減マトリクスRとカーネルKとの内積の値であり、マトリクスPは深度畳み込み層から出力として第1のバッチ正規化部へ供給される。
を有する
を計算する整流関数(正規化線形関数、rectification function)を適用する。この
は、整流線形ユニットが第1の整流線形ユニットである場合には点畳み込み層へ出力として供給され、又は、整流線形ユニットが第2の整流線形ユニットである場合にはニューラルネットワークの次の層へ供給される。
この深度分離可能畳み込み(すなわちニューラルネットワークの層)は、当該深度分離可能畳み込みによる入力の処理順に、深度畳み込み層、第1のバッチ正規化部、及び第1の整流線形ユニットを備えている。
第1の整流線形ユニットの後の処理順に、点畳み込み層、第2のバッチ正規化部、及び第2の整流線形ユニットが設けられており、整流線形ユニットからの出力を受け取った第2の整流線形ユニット又は処理モジュールは、ニューラルネットワークにおける次の層へ中間出力を転送する。
のサイズとなる。ここで、Wwは行方向のストライド幅であり、Whは列方向のストライド幅である。サイズS×Tの所与のカーネルKを得るためには、新たなマトリクスのサイズが整数となるパディング及びストライド幅のみが許容されることが明らかである。さらに、ストライド幅WwはSより小さく、かつストライド幅WhはTより小さいことが好適である。その理由は、そうしないとマトリクスIにおけるカーネルの動きが、元のマトリクスのうち新たなマトリクスの算出で除外されてしまう行又は列が出てきてしまうものになってしまうからである。
ここでn及びmは、N×Mマトリクスの行数及びカラム/列数、又はマトリクスPの行数及び列数を表す。要素PijはマトリクスPの成分であり、所与の要素Pijは、当該マトリクスの第i番目の行かつ第j番目の列の要素である。
を得るために整流関数が適用され、この結果/マトリクスはニューラルネットワークにおける次の層へ転送され、又は、ニューラルネットワークにおいて次の層がもはや無い場合には、結果236は出力として供給される。
ここで、cはいわゆるクラスである。第1のクラスは肯定的な識別結果(少なくとも1つのしわを保持する手のひらを識別できる)とすることができ、第2のクラスは否定的な識別結果(手が裏側/甲を見せている)とすることができる。このクラスは、例えば肯定的な識別結果の場合には値1、否定的な識別結果の場合には値0によって表すことができる。ベクトルbに含まれる他の値とは異なり、クラスは離散値であり、クラスの数に相当する限られた数の異なる値しかとれないことが明らかである。
Claims (13)
- ユーザのバイオメトリック特性を有する当該ユーザの物体の画像を用いて当該ユーザを識別するための方法であって、
前記物体は、前記ユーザの手のひら、前記ユーザの顔、前記ユーザの眼、前記ユーザの足の裏のうちいずれか1つであり、
前記方法は、
モバイル装置の光学センサによって前記物体の前記画像を取得するステップと、
前記画像をニューラルネットワークへ供給するステップと、
前記画像を前記ニューラルネットワークによって処理することにより、前記画像中の前記物体の位置及び前記物体の両方を識別するステップと、
を有し、
前記ニューラルネットワークは複数の層を有し、
前記画像を入力として前記ニューラルネットワークによって処理することは、当該ニューラルネットワークの第1層によって前記入力を処理することにより第1の中間出力を生成するステップと、各先行層の出力を各後続層によって処理するステップと、を有し、
前記複数の各層は、各層における前記入力の処理順に、深度畳み込み層と、第1のバッチ正規化部と、第1の整流線形ユニットと、点畳み込み層と、第2のバッチ正規化部と、第2の整流線形ユニットとをそれぞれ有する、深度で分離可能な畳み込みであり、
前記複数の層を用いて前記入力を処理することにより、前記ニューラルネットワークは出力として、前記物体の識別結果と前記画像中における前記物体の位置とを得、
前記方法はさらに、
識別された前記物体から前記バイオメトリック特性を抽出するステップと、
前記バイオメトリック特性を記憶装置に記憶し、及び/又は、少なくとも前記バイオメトリック特性を入力として識別手段へ供給するステップであって、前記識別手段は、当該バイオメトリック特性が前記ユーザを識別するか否かを判定するために前記入力を処理することを含むステップと、
を有し、
前記方法の各ステップを前記モバイル装置上で実施し、
前記モバイル装置はスマートフォンであり、
前記ニューラルネットワークは訓練されたニューラルネットワークであり、前記ニューラルネットワークの訓練は、前記方法を実施できるアプリケーション又は他のプログラムが前記モバイル装置に装備される前に行われる
ことを特徴とする方法。 - 前記物体は前記ユーザの手のひらであり、前記バイオメトリック特性は前記手のひらの少なくとも1つのしわであり、前記識別手段によって前記入力を処理するステップは、前記しわから例えば当該しわの長さや方向等のバイオメトリック特徴を抽出するステップと、抽出された前記バイオメトリック特徴と前記記憶装置に記憶された前記バイオメトリック特徴とを比較するステップと、を含み、抽出された前記バイオメトリック特徴と記憶された前記バイオメトリック特徴との差が閾値を下回る場合、前記識別手段は当該しわによって前記ユーザが識別されると判定し、前記バイオメトリック特徴と記憶された前記バイオメトリック特徴との差が閾値を上回る場合、前記識別手段は当該しわによって前記ユーザが識別されないと判定し、又は、
前記物体は前記ユーザの顔であり、前記バイオメトリック特性は前記ユーザの顔の中の眼、口、鼻のうち少なくとも1つであり、前記識別手段によって前記入力を処理するステップは、前記バイオメトリック特性から例えば顔の中での口の位置等のバイオメトリック特徴を抽出するステップと、抽出された前記バイオメトリック特徴と前記記憶装置に記憶されたバイオメトリック特徴とを比較するステップと、を含み、抽出された前記バイオメトリック特徴と記憶された前記バイオメトリック特徴との差が閾値を下回る場合、前記識別手段は当該前記バイオメトリック特性によって前記ユーザが識別されると判定し、前記バイオメトリック特徴と記憶された前記バイオメトリック特徴との差が閾値を上回る場合、前記識別手段は当該前記バイオメトリック特性によって前記ユーザが識別されないと判定し、又は、
前記物体は前記ユーザの眼であり、前記バイオメトリック特性は前記ユーザの前記眼の虹彩であり、前記識別手段によって前記入力を処理するステップは、前記虹彩から例えば当該虹彩の色素パターン等のバイオメトリック特徴を抽出するステップと、抽出された前記バイオメトリック特徴と前記記憶装置に記憶されたバイオメトリック特徴とを比較するステップと、を含み、抽出された前記バイオメトリック特徴と記憶された前記バイオメトリック特徴との差が閾値を下回る場合、前記識別手段は当該虹彩によって前記ユーザが識別されると判定し、前記バイオメトリック特徴と記憶された前記バイオメトリック特徴との差が閾値を上回る場合、前記識別手段は当該虹彩によって前記ユーザが識別されないと判定し、又は、
前記物体は前記ユーザの足の裏であり、前記バイオメトリック特性は当該足の足形であり、前記識別手段によって前記入力を処理するステップは、前記足形から例えば当該足形の線の長さや方向等のバイオメトリック特徴を抽出するステップと、抽出された前記バイオメトリック特徴と前記記憶装置に記憶されたバイオメトリック特徴とを比較するステップと、を含み、抽出された前記バイオメトリック特徴と記憶された前記バイオメトリック特徴との差が閾値を下回る場合、前記識別手段は当該足形によって前記ユーザが識別されると判定し、前記バイオメトリック特徴と記憶された前記バイオメトリック特徴との差が閾値を上回る場合、前記識別手段は当該足形によって前記ユーザが識別されないと判定する、
請求項1記載の方法。 - 前記画像は複数の物体を有し、
前記方法はさらに、前記画像中における各バイオメトリック特性の位置を識別し、前記識別手段による前記ユーザの識別のために各バイオメトリック特性の前記バイオメトリック特徴を使用することを含む、
請求項2記載の第1及び/又は第3及び/又は第4の選択的実施形態の方法。 - 前記識別手段は、前記画像中の全ての物体の前記バイオメトリック特徴の組み合わされた識別精度が特定の閾値を上回ると判定することによって、前記物体の前記バイオメトリック特徴によりユーザが識別されると判定し、又は、
前記識別手段は、前記物体ごとに当該物体の前記バイオメトリック特性のバイオメトリック特徴と当該物体の前記バイオメトリック特性の記憶されたバイオメトリック特徴との差が閾値を下回るか否かを判定し、判定された全ての差が対応する前記閾値を下回る場合にのみ前記物体の前記バイオメトリック特性によってユーザが識別されると判定することにより、前記物体の前記前記バイオメトリック特徴によりユーザが識別されると判定する、
請求項3記載の方法。 - 前記画像は、前記モバイル装置の光学センサとしてのカメラによって取得される、
請求項1から4までのいずれか1項記載の方法。 - 前記物体の位置を識別することは、Q×R個のグリッドセルを有するグリッドに前記画像を分離し、各グリッドセル内に、当該グリッドセルにおける予め定められた位置と予め定められた幾何学的特性とを有する少なくとも1つの境界ボックスを作成することを含み、
前記出力を生成することはさらに、前記境界ボックスの位置及び幾何学的特性を修正することにより、前記物体の位置に最も一致する修正後位置と修正後幾何学的特性とを有する修正後境界ボックスを得ることを含む、
請求項1から5までのいずれか1項記載の方法。 - 前記境界ボックスの位置は、前記グリッドセルの中心を基準として二次元で算出され、
前記境界ボックスの幾何学的特性は、当該境界ボックスの高さ及び幅を含み、さらに、前記物体が前記境界ボックス内にある確率が各境界ボックスに関連付けられる、
請求項6記載の方法。 - 前記方法はさらに、前記画像と、前記物体の位置を識別する前記境界ボックスとを表示するステップを含む、
請求項7記載の方法。 - 前記画像を前記ニューラルネットワークにより処理することは、前記画像から、前記画像中の各画素の色値を表す少なくとも1つのマトリクスIを生成するステップと、前記マトリクスを前記ニューラルネットワークへ入力として供給するステップと、を含み、
前記画像はN×M個の画素を有し、
前記マトリクスIはN×M個の値を有するマトリクスであり、
前記マトリクスIの成分はIijによって与えられ、ここでi及びjは整数であり、i=1・・・Nかつj=1・・・Mである、
請求項1から8までのいずれか1項記載の方法。 - 各深度畳み込み層は、サイズS×Tのマトリクスである予め定められたカーネルKであって成分Sabを有するカーネルKを、前記マトリクスIに適用し、ここでS,T<N、S;T<Mであり、
前記カーネルを前記マトリクスに適用することは、サイズ(N+2Pw)×(M+2Ph)を有するマトリクスZのサイズ(N×M)S,Tの各削減マトリクスRと前記マトリクスKとの内積を算出することを含み、
前記マトリクスRは前記カーネルKと同一サイズであり、
前記マトリクスZの成分Zcdは、
ここでWw及びWhはストライド幅を定義し、前記マトリクスPの各成分Pijは、ij番目の前記削減マトリクスRと前記カーネルKとの内積の値であり、
前記マトリクスPは前記深度畳み込み層から出力として前記第1のバッチ正規化部へ供給される、
請求項9記載の方法。 - 前記カーネルのサイズS及びTは全ての深度畳み込み層において等しく、又は、少なくとも1つの深度畳み込み層及び/若しくは前記カーネルKの少なくとも1つの成分について異なっており、Sa’b’≠Sa≠a’,b≠b’である、
請求項10記載の方法。 - 光学センサと、プロセッサと、実行可能な指令を記憶する記憶ユニットと、を備えたモバイル装置であって、
前記指令は、前記モバイル装置の前記プロセッサによって実行されたときに前記プロセッサに請求項1から12までのいずれか1項記載の方法を実行させる
ことを特徴とするモバイル装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP19153461.9 | 2019-01-24 | ||
EP19153461.9A EP3686771A1 (en) | 2019-01-24 | 2019-01-24 | Method for verifying the identify of a user by identifying an object within an image that has a biometric characteristic of the user and mobile device for executing the method |
PCT/IB2020/050494 WO2020152599A1 (en) | 2019-01-24 | 2020-01-22 | Method for verifying the identity of a user by identifying an object within an image that has a biometric characteristic of the user and mobile device for executing the method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022518036A JP2022518036A (ja) | 2022-03-11 |
JP7270304B2 true JP7270304B2 (ja) | 2023-05-10 |
Family
ID=65228433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021542315A Active JP7270304B2 (ja) | 2019-01-24 | 2020-01-22 | ユーザのバイオメトリック特性を有する画像中の物体を識別することにより当該ユーザのidを検証するための方法、及び当該方法を実施するためのモバイル装置 |
Country Status (8)
Country | Link |
---|---|
US (2) | US11875597B2 (ja) |
EP (1) | EP3686771A1 (ja) |
JP (1) | JP7270304B2 (ja) |
KR (1) | KR20210119487A (ja) |
BR (1) | BR112021014579A2 (ja) |
MX (1) | MX2021008676A (ja) |
WO (1) | WO2020152599A1 (ja) |
ZA (1) | ZA202104984B (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183408B (zh) * | 2020-09-30 | 2023-09-29 | 重庆天智慧启科技有限公司 | 基于案场图像的客户画像系统及方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10339362B2 (en) * | 2016-12-08 | 2019-07-02 | Veridium Ip Limited | Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices |
US11341222B1 (en) * | 2018-08-21 | 2022-05-24 | Smart Eye Technology, Inc. | System and method for securely viewing, editing and sharing documents and other information |
US10726302B2 (en) * | 2018-11-29 | 2020-07-28 | Qualcomm Incorporated | Edge computing |
JP7360217B2 (ja) * | 2019-09-12 | 2023-10-12 | アイデンティー インコーポレイテッド | ユーザのバイオメトリック特性を有する当該ユーザの物体の画像からデータを取得するための方法 |
-
2019
- 2019-01-24 EP EP19153461.9A patent/EP3686771A1/en active Pending
-
2020
- 2020-01-22 KR KR1020217026927A patent/KR20210119487A/ko not_active Application Discontinuation
- 2020-01-22 JP JP2021542315A patent/JP7270304B2/ja active Active
- 2020-01-22 US US17/425,128 patent/US11875597B2/en active Active
- 2020-01-22 WO PCT/IB2020/050494 patent/WO2020152599A1/en active Application Filing
- 2020-01-22 MX MX2021008676A patent/MX2021008676A/es unknown
- 2020-01-22 BR BR112021014579-6A patent/BR112021014579A2/pt unknown
-
2021
- 2021-07-15 ZA ZA2021/04984A patent/ZA202104984B/en unknown
-
2023
- 2023-08-21 US US18/453,213 patent/US20230394870A1/en active Pending
Non-Patent Citations (4)
Title |
---|
Evair Severo, et al.,A Benchmark for Iris Location and a Deep Learning Detector Evaluation,2018 International Joint Conference on Neural Networks(IJCNN),2018年 |
Joseph Redmon, et al.,YOLO9000: Better, Faster, Stronger,CVPR 2017 open access,2017年 |
Joseph Redmon, et al.,You Only Look Once: Unified, Real-Time Object Detection,CVPR 2016 open access,2016年 |
Ranjeet Ranjan Jha, et al.,UBSegNet: Unified Biometric Region of Interest Segmentation Network,arXiv,2017年,aiXiv:1709.08924v1 |
Also Published As
Publication number | Publication date |
---|---|
KR20210119487A (ko) | 2021-10-05 |
BR112021014579A2 (pt) | 2021-10-05 |
US20230394870A1 (en) | 2023-12-07 |
EP3686771A1 (en) | 2020-07-29 |
US20220114808A1 (en) | 2022-04-14 |
US11875597B2 (en) | 2024-01-16 |
JP2022518036A (ja) | 2022-03-11 |
MX2021008676A (es) | 2021-10-13 |
ZA202104984B (en) | 2022-09-28 |
WO2020152599A1 (en) | 2020-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11657525B2 (en) | Extracting information from images | |
JP7386545B2 (ja) | 画像中の物体を識別するための方法、及び当該方法を実施するためのモバイル装置 | |
US11941918B2 (en) | Extracting information from images | |
JP5629803B2 (ja) | 画像処理装置、撮像装置、画像処理方法 | |
JP4743823B2 (ja) | 画像処理装置、撮像装置、画像処理方法 | |
JP2018508888A (ja) | モバイル・デバイスを用いてキャプチャしたイメージを使用する指紋ベースのユーザ認証を実行するためのシステムおよび方法 | |
US20230394871A1 (en) | Method for verifying the identity of a user by identifying an object within an image that has a biometric characteristic of the user and separating a portion of the image comprising the biometric characteristic from other portions of the image | |
US20230394870A1 (en) | Method for verifying the identity of a user by identifying an object within an image that has a biometric characteristic of the user and mobile device for executing the method | |
CN109409322B (zh) | 活体检测方法、装置及人脸识别方法和人脸检测系统 | |
JP7360217B2 (ja) | ユーザのバイオメトリック特性を有する当該ユーザの物体の画像からデータを取得するための方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210915 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221018 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230418 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7270304 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |