JP7130905B2 - フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出 - Google Patents

フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出 Download PDF

Info

Publication number
JP7130905B2
JP7130905B2 JP2021500518A JP2021500518A JP7130905B2 JP 7130905 B2 JP7130905 B2 JP 7130905B2 JP 2021500518 A JP2021500518 A JP 2021500518A JP 2021500518 A JP2021500518 A JP 2021500518A JP 7130905 B2 JP7130905 B2 JP 7130905B2
Authority
JP
Japan
Prior art keywords
neural network
minutiae
feature map
convolution
fingerprint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021500518A
Other languages
English (en)
Other versions
JP2021532453A (ja
Inventor
ナクヴォサス、アルトゥラス
Original Assignee
ユーエービー “ニューロテクノロジー”
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユーエービー “ニューロテクノロジー” filed Critical ユーエービー “ニューロテクノロジー”
Publication of JP2021532453A publication Critical patent/JP2021532453A/ja
Application granted granted Critical
Publication of JP7130905B2 publication Critical patent/JP7130905B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1353Extracting features related to minutiae or pores

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Description

本発明は、完全畳み込みフィードフォワードニューラルネットワークを使用してデジタル信号からノイズロバストな皮膚紋理の印のマニューシャの抽出のためのシステムおよび方法に関する。
指紋は、個人の識別または確認のための最も信頼性の高い、一般的に使用されているバイオメトリックモダリティであるとみなされる。指紋(203)自体は、指の肌の摩擦により残された印である。各個人は、その各々が隆線および谷のパターンである固有の指紋203を有する。これらの隆線および谷は、図2で見られるように、隆線終端(201)および隆線分岐(202)の2つの最も顕著な局所的隆線特性を形成する。指紋マニューシャの抽出は、指紋画像を使用した個人の識別または確認における2つの主なステップのうちの1つであり、もう一つは指紋マニューシャ照合である。指紋と同様に、手のひら、足の裏、および足指も、肌の皮膚紋理を有しており、したがって、本明細書に開示された技術および方法は、より多い皮膚紋理の印の種類に適用され得る。
指紋マニューシャの抽出は画像処理タスクであり、ここで、指紋画像はプロセスの入力で、このプロセスの出力は、それらの具体的な特性を有する一連の指紋マニューシャである。これらの特性は、マニューシャのクラス、すなわち、隆線終端、隆線分岐、または上記のいずれでもないものを含み、マニューシャの方向を表し、元の画像内のマニューシャの位置を表す座標でもある方位である。
実際の指紋のスキャンを処理することは、指紋マニューシャの抽出を複雑にする多くの障害物をもたらす。同じスキャナを使用して生成された指紋画像は、以下の様々な要因により大幅に異なり得る:被験者がスキャナに自分の指を置く方法、指の水分レベルが一定でないこと、また、スキャニング中の指の向き、または複数の指紋スキャン間の領域交差点の変動など。異なる指紋スキャナを使用してスキャンされた指紋は、異なる画像解像度、コントラストレベル、画像品質などのような追加の課題をもたらす。
従来の指紋マニューシャの抽出プロセスは、複数の段階の画像処理、手で加工された特徴を取得するための変換からなり得る。その一方で、ディープニューラルネットワークは、能率化された、効率的且つ柔軟な解決手段を保証する。ディープニューラルネットワークを使用した指紋特徴抽出装置の構築における多くのアプローチは、有望な結果をもたらすが、それらのすべては、より一般的な画像処理タスクに対するディープニューラルネットワークの応用と比較した場合、依然として複雑すぎて、堅牢性に欠ける。
特定のタスクを実行するのに非常に効率的且つ効果的なコンパクトディープニューラルネットワークを構築することは、困難な課題である。それは、1つのタスクに対してうまく機能するニューラルネットワークを使用して異なるタスクにそれを適用する単純な解決手段のように思われ得る。しかしながら、多くの場合はそうではない。複数の要因が、他の解決手段より優れていると証明されたニューラルネットワークの調整の複雑性を構成する。そのような困難のうちの1つは、ニューラルネットワークの解析が難しいということである。従来の形態のニューラルネットワークは、重み、バイアス、畳み込みなどのレイヤーから構築される。ニューラルネットワークベースのシステムを構築する場合に起こる課題の数例を挙げると、以下の通りである。テストフェーズ中またはネットワークのキャパシティの評価中に取得された重みニューラルネットワークを解釈して、提供されたデータセットに基づいて所与のタスクを安定した方法で処理することに適合するのは、多くの場合、非常に難しい。一般的に、困難さのほとんどは、データの数学的解析、ニューラルネットワークトレーニング方法、およびネットワーク自体のアーキテクチャに関連するものと要約され得る。
本発明は、フィードフォワード畳み込みネットワーク構造を使用して指紋画像から指紋マニューシャを迅速かつ歪みに対して堅牢な抽出する方法を説明する。本発明の不可欠な部分は、ニューラルネットワークの構造および特性を識別することを備える。
指紋画像から指紋マニューシャを抽出する既存の方法が多く存在する。それらのほとんどは、適切に高品質な指紋画像に依存しており、これは実生活のシナリオにおいて、多くの場合、特に、潜在指紋を処理する場合に、そうではない。ぼやけたまたは低コントラストの指紋画像により起こるいくつかの困難を解決すべく、いくつかの抽出アルゴリズムは、Gaborまたは同様のフィルタを利用して指紋特徴を抽出するが、これらのアルゴリズムでも、ノイズのある画像における真の指紋特徴を確実に抽出することはできない。ディープニューラルネットワークの出現は、信号処理産業において、手作り特徴を抽出するアルゴリズムから、このタスクを実行するための人工ニューラルネットワークをトレーニングすることへ多大な変化をもたらした。指紋画像の処理はこの変化の一部分である。
指紋マニューシャの抽出のためのニューラルネットワークの使用の1つの例は、(Sankaran,2014)に示される。積層ノイズ除去スパースオートエンコーダが、マニューシャの特徴記述子および非マニューシャの特徴記述子の両方を学習するのに利用される。これらの記述子は後ほど、対応するマニューシャおよび非マニューシャのバイナリ分類器を構築して、画像パッチがマニューシャの特徴を含むかまたはマニューシャの特徴を含まないかを分類するのに使用される。マニューシャの特徴マップを抽出するために、全体の指紋画像は指定サイズの重複パッチに分割し、全てのパッチはマニューシャの記述子と非マニューシャの記述子との両方をベースとするバイナリ分類器により分類される。最終スコアは、両方のバイナリ分類器の出力の重み付けされた合計の結合により取得される。このアプローチは全ての画像パッチに対して推定ステップを実行し、分類された画像パッチの中央としてマニューシャの概略位置のみを戻す。ここで、マニューシャの向きは考慮されていない。最後に、トレーニングは以下の2つのステップのプロセスである。積層ノイズ除去スパースオートエンコーダが特徴記述子を学習するためにトレーニングされ、オートエンコーダからデコーダレイヤーを除去して分類器レイヤーを追加することによりニューラルネットワークモデルが生成される。これは分類タスクに従って微調整される。
指紋画像からのマニューシャの抽出におけるニューラルネットワークの使用の別の例は、(Yao Tang,2017)に与えられる。提案されたアルゴリズムは、完全畳み込みニューラルネットワークを用いた提案生成であって、ここで、対応するスコアを有するマニューシャマップが未加工の指紋画像から生成される、提案生成と、畳み込みニューラルネットワークを用いた提案マニューシャの分類であって、ここで、対応するマニューシャの位置および向きも抽出される、分類との2つのステップを備える。これらの2つのニューラルネットワークは、マニューシャ抽出速度を加速させるために畳み込みレイヤーの重みを共有し、全体のプロセスは、特徴マップ抽出、提案生成、および地域ベースの分類といった段階に分割され得、ここでマニューシャ特性が抽出される。我々のアプローチは、少なくとも、指紋画像が単一の段階において処理され、中間提案生成および地域ベースの分類を必要とすることなくマニューシャ特徴マップ抽出をもたらすという点で異なる。
指紋画像からのマニューシャ抽出のためのニューラルネットワークの使用のさらに別の例が(Yao Tang,2017)に与えられる。ディープニューラルネットワークは、多層ニューラルネットワークブロックを有する従来の指紋マニューシャの抽出パイプラインで使用された方位推定、セグメンテーション、拡大および抽出の従来の演算を置換することにより構築される。結果として、セグメント方位フィールドおよび拡大された指紋画像は、未加工の指紋画像から再構成され、マニューシャマップとともに抽出され得、ここで、正確な位置、方位および信頼性を含むローカル特徴が与えられる。このアプローチは、少なくとも、我々のアプローチにおいて、簡略化されたニューラルネットワークアーキテクチャをもたらす中間表示を使用することなくマニューシャの特徴に指紋画像がマッピングされるという点で、我々の実装と異なる。
指紋マニューシャの抽出のためにニューラルネットワークを使用するさらに別のアプローチ(Darlow,2017)において、ピクセルは、指紋画像において、マニューシャのクラスに属するまたは属しないものに分類される。アルゴリズムは、畳み込みニューラルネットワークを使用して、中央に配置された関心ピクセルで指定サイズの画像パッチを分類することにより実装される。マニューシャの特徴マップは、指紋画像全体にわたってウィンドウアプローチをスライドさせ、その結果を後処理することによって取得される。最後に、マニューシャの方位は、ローカル方位推定の従来の方法を使用することにより計算される。このアプローチは、少なくとも、前者がより複雑な画像処理パイプラインを有するという点で我々の実装と異なる。ニューラルネットワークからの出力に対して後処理が実行され、追加の従来のアルゴリズムがマニューシャ方位推定に使用される。
指紋画像からのマニューシャの特徴抽出は、(Thomas Pinetz,2017)でバイナリセマンティックセグメンテーション問題に変換される。U字型ニューラルネットワークモデルは、未加工の指紋画像に対してセマンティックセグメンテーションを実行するために使用され、結果的に、入力画像の各ピクセルは、マニューシャタイプまたは非マニューシャタイプに分類される。方位フィールドは、その後、マニューシャポイントの方位を計算するために使用される。
マニューシャ特徴は、(Dinh-Luan Nguyen,2018)における2つの別個の畳み込みニューラルネットワークを使用することにより指紋画像から抽出される。CoarseNetという名前の第1畳み込みニューラルネットワークは、方位とともにマニューシャスコアマップを生成する。その後、FineNetという名前の第2畳み込みネットワークが、CoarseNetにより生成された各候補パッチを分類するために使用される。第2ステップの実行中に、両方のマニューシャ位置と方位とが補正される。
別の例では、畳み込みニューラルネットワークは、(Kai Cao,2018)における潜在指紋認識パイプラインで使用される。畳み込みニューラルネットワークは、隆線の流れの推定に使用される。また、畳み込みニューラルネットワークは、指紋認識パイプラインにおける各マニューシャの記述子を抽出するために使用される。当該アプローチは、指紋マニューシャがニューラルネットワークを使用することなく抽出されるので、我々のアプローチと大幅に異なる。
US5572597において、ニューラルネットワークは、元の指紋画像から抽出された特徴のローカルパターンを分類するのに適用される。これらの分類されたローカルパターンは後ほど使用されて指紋画像のクラスを決定し、指紋識別のプロセスにも使用され得る。
その一方で、US5825907において、ニューラルネットワークは、指紋の粗い方向のマップを複数の指紋クラスのうちの1つに分類するのに利用される。
US5892838に示されるものはバイオメトリック認識のためのシステムであり、ここでニューラルネットワークは対比ベクターを分類するのに使用される。これらの対比ベクターは、認証されたユーザのバイオメトリック指標のマスタパターンセットと、認証される予定のユーザのサンプルパターンセットとの間の類似性を表す。
US7082394において、歪み判別解析ベースの畳み込みニューラルネットワークは、例えば、オーディオ、画像またはビデオデータのような1または複数の次元を有するテスト信号の特徴を抽出するのに使用される。これらの抽出された特徴は後ほど、分類、回収または識別タスクに使用される。最後に、ニューラルネットワークはバイオ信号とともに、US20060215883A1のバイオメトリック識別方法において使用される。
CN107480649は、指紋画像から汗孔を抽出する方法を開示する。当該方法は、完全畳み込みニューラルネットワークを使用して予備的な汗孔の位置を予測し、次に、予測された偽りの汗孔の特性に従って、それらは予備セットから除去され、カスタマイズされたアルゴリズムを使用して実際の汗孔の位置を取得する。本明細書に開示された方法は、少なくとも、皮膚紋理の印のマニューシャを使用し、追加の候補特徴クリーンアップを必要としないという点で異なる。
提案されたアプローチは、皮膚紋理の印のマニューシャの抽出のための、画像の前処理または複雑な多段階ニューラルネットワークアーキテクチャの必要をなくす。我々は、画像入力レイヤーおよび出力レイヤーを有するフィードフォワード畳み込みニューラルネットワークを構築し、その結果、皮膚紋理の印のマニューシャの位置を特定することと、それらの特性を推定することとのために追加の処理を必要とすることがないようにする。
本開示は、皮膚紋理の印のマニューシャの抽出のシステムおよび方法を説明する。指紋は、最も広く使用されている皮膚紋理の印のモダリティである。それぞれの画像から抽出された指紋マニューシャは、少なくとも指紋法による分析および個人の識別または確認に後ほど使用され得る。
本発明は、従来技術の指紋マニューシャの抽出方法の不備を克服し、ここで、抽出プロセスは、ニューラルネットワーク、または複数の処理段階を組み込む複雑なニューラルネットワーク構造にそれを供給する前に、複数の信号前処理段階で構成され、これらは、マニューシャ抽出プロセスの効果および効率に多大な悪影響を及ぼす。本発明は、完全畳み込みニューラルネットワークを使用した、皮膚紋理の印のデジタル画像からのマニューシャ抽出を効果的且つ効率的に行うためのシステムおよび方法を提供する。当該方法は、皮膚紋理の印のスキャナを使用して画像を取得する段階または事前にスキャンされた画像からロードする段階と、意図的に構築されトレーニングされたニューラルネットワークに画像を供給し、エンコードされた特徴を取得する段階と、取得された特徴をデコードして皮膚紋理の印のマニューシャを取得する段階と、指紋マニューシャをバイオメトリックテンプレートに保存する段階と、といった段階を含む。当該トレーニングは本質的にエンド・ツー・エンドプロセスである。これは、入力デバイスにより生成されたバイオメトリック画像がニューラルネットワークに供給され、結果として得られるネットワークの出力が一連の指紋マニューシャであるからである。
提案された完全畳み込みニューラルネットワークは、従来のアプローチおよび他のニューラルネットワークベースのシステムより優れている。また、従来技術に示されているニューラルネットワークベースのシステムは、より複雑で、中間的な特徴提案を必要とする。その一方で、本明細書で提案されたシステムは、提案生成と、それに続くピクセルまたは特徴の再サンプリング段階をなくし、すべての計算を単一のネットワークにカプセル化する。これは、提案されたニューラルネットワークをトレーニングしやすくして、指紋マニューシャ検出を必要とするシステムに一体化されるように単純にする。アーキテクチャの簡略化は、提案されたニューラルネットワークベースのシステムの特性を定義するものうちの1つである。
なお、実施形態は単一のバイオメトリック信号処理方法を説明する。しかしながら、代替的な実施形態において、全体的なシステムまたはニューラルネットワークは、複数の信号または異なるバイオメトリック信号の組み合わせを同時に処理するように構築され得る。さらに別の実施形態において、バイオメトリック信号のシークエンスは、一時的な情報を組み込むために処理され得る。
本発明を利用し得る他の応用は、バイオメトリックタイムアテンダンス、国家のID、選挙人登録、国境管理、フォレンジック/犯罪、銀行システム、ヘルスケア、バイオメトリックデータの処理を含み得る。
好ましい実施形態の新規の特徴、態様および利点は、添付の図面および添付の特許請求の範囲と併せて読まれた場合に、以下の詳細な説明を参照することにより最もよく理解される。
入力画像、フィードフォワード完全畳み込みニューラルネットワーク、エンコード/デコードステップ、およびデコードされた出力特徴マップを示す、開示されたシステムの簡略図である。
分岐端および線端タイプのマニューシャが指紋の領域内にマーキングされる指紋の例示である。
ニューラルネットワークトレーニングプロセスを示すフロー図である。
ニューラルネットワークの微調整プロセスを示すフロー図である。
トレーニングデータ準備プロセスを示すフロー図である。
データ拡張プロセスを示すフロー図である。
トレーニングデータ収集プロセスを示すフロー図である。
ニューラルネットワークの利用を示すフロー図である。
指紋マニューシャの抽出のための開示されたシステム(100)は、図1に大まかに示されており、ニューラルネットワークに基づく。提案されたニューラルネットワークは、基本構成ブロック(102)の組み合わせ:非線形活性化関数を有する畳み込みレイヤーから構築される完全畳み込みニューラルネットワークである。好ましい実施形態において、このネットワークへの入力は、バイオメトリックデジタル画像(101)の形のバイオメトリック信号であり、ニューラルネットワークの出力は、バイオメトリックマニューシャマップ(105)にデコード(104)され得る特徴マップ(103)である。ニューラルネットワークの入力は通常、技術分野における多くの基準に共通であるグレースケールの皮膚紋理の印の画像(101)である。入力値は次に、出力チャネルの数を反復的に増加させるかまたは空間分解能を減少させるかまたはその両方を行う一連の畳み込みレイヤーブロック(102)を通過する。当該ブロック(102)の最後からの畳み込みレイヤーの出力は、異なる畳み込み分岐(103)に伝搬される。好ましい実施形態において、最後の活性化マップ(103)における各特徴は、入力解像度の1/8にほぼ等しい空間分解能を有する。分岐階層の複数のバージョンを構築することまたは最後のレイヤーを別個の分岐に分割しないことが可能であるが、好ましい実施形態において、当該分岐の各々は特定の指紋特徴の推定を担当する。分岐は、以下に説明されるように、多損失関数の別個成分を有することによりサポートされ得る。これらの特徴は、少なくとも、指紋マニューシャの方位、位置およびクラスにデコードされ得、ここで位置は、出力特徴の特殊解像度の低下から生じる精度の損失を相殺する。デコードされた特徴マップは、複数のマニューシャ候補を有し得る。また、エンコードおよびデコードを、提案されたニューラルネットワークの不可欠な部分であるとみなしてよい。
以下に示されるように、畳み込みニューラルネットワークと非線形活性化関数とのいくつかの特性は、指紋マニューシャの抽出プロセスに非常に重要である。畳み込みレイヤーは、それらの局所性により非常に重要であり、これは、画像が畳み込みレイヤーを用いて処理される場合、ピクセル空間の近くに配置されたローカルパターンが関連されていることを意味する。変換不変性は、畳み込みレイヤーの別の重要な特性であり、これは、特定のパターンが画像のどこに現れるかにかかわらず、特定の視覚パターンの存在を登録する能力をニューラルネットワークに提供する。換言すると、畳み込みネットワークは、空間表示を学習することと、ローカル空間入力に基づいて決定することとができる。当該畳み込みネットワークにおけるデータは、3次元アレイのサイズn×h×wで表され得、ここでhおよびwは空間次元であり、nは特徴またはカラーチャネル次元である。入力画像は、次元h×w、すなわち、高さおよび幅を有し、n個のカラーチャネルを有する。RGB色画像において、nは3に等しい。ここで、各チャネルは、多くの場合、赤色、緑色および青色の値で表され、白黒の場合、nは、1つの単一グレースケール強度チャネル値に等しい。未加工の指紋画像が畳み込みニューラルネットワークに供給されると、データは複数の畳み込みレイヤーを通過し、ここで各レイヤーはデータ変換を実行する。この変換を見る複数の方法のうちの1つは、入力画像の特定の位置における値がピクセル色値を表すが、それに続くレイヤーデータはより高い抽象レベル特徴に変換されるということである。より高いレイヤーにおける各特徴は、入力画像の元の位置(その特徴の受容フィールドとも呼ばれる)へのそれらのパス接続を維持する。
活性化関数fを有する形式的畳み込みレイヤーは、テンソル
Figure 0007130905000001
により特徴付けられ得る。ここで、nおよびnはそれぞれ、出力チャネルの数および入力チャネルの数であり、kおよびkはそれぞれ、カーネルの空間的な高さおよび幅である。フィルタが、n×k×kのサイズを有する入力パッチxに適用された場合、y=f(W*x)として応答ベクトル
Figure 0007130905000002
を取得する。ここで、
Figure 0007130905000003
であり、*は、畳み込み演算を意味し、fは、elementwiseの非線形活性化関数である。Wo,i=W[o,i,:,:]は、i番目の入力チャネルとo番目の出力チャネルとに沿ったテンソルスライスであり、x=x[i,:,:]は、3Dテンソルxのi番目のチャネルに沿ったテンソルスライスである。パッチxに対する計算の複雑性は、O(n×n×k×k)である。複雑性をパッチレベルから特徴マップレベルに延長することは容易である。特徴マップサイズH×Wを考慮すると、複雑性は、O(H×W×n×n×k×k)である。
さらに、ニューラルネットワークトレーニングと推定との計算性能を向上させるための好ましい実施形態において、depthwiseの分離可能な畳み込み演算が使用され得る。通常の畳み込みを使用することで、同等なまたはより一層良い品質を実現することが可能であり、1×1畳み込みと組み合わせてグループ畳み込みを使用することで、同等な速度の性能を実現することが可能である。同様またはより良好な結果を実現するために、さらに多くの代替的な畳み込み演算子が使用され得ることに留意されたいが、我々の実験は、一連のハードウェアおよびソフトウェア環境における最適な性能は、depthwiseの分離可能な畳み込みを使用して達成されるということを示す。実際に、depthwiseの分離可能な畳み込みは、GPUまたは任意の他の特殊なハードウェアがないハードウェア上で実行されるアプリケーションをターゲットとすることを可能にする、少なくとも通常の畳み込みを超える速度の向上を提供する。
先に示されているように、通常の畳み込みにおいては、単一の畳み込みカーネルがn個の入力チャネルを処理する。その一方で、depthwiseの分離可能な畳み込みは、畳み込みを、depthwise(DW)畳み込みおよびpointwise(PW)畳み込みの2つの部分に分割する。depthwise畳み込みは、n個の入力チャネルの各々に2D畳み込みカーネルを個別に適用することにより局所性に焦点を合わせる。したがって、n個の入力チャネルを畳み込むことは、まとめて積層されたn個のチャネルテンソルを生成する。その一方で、pointwise(1×1)畳み込みは、チャネル間の関係に焦点を合わせる。通常の畳み込みWと同じ形状の出力を確実にするために、DWは、畳み込みカーネルテンソル
Figure 0007130905000004
と、PW畳み込みテンソル
Figure 0007130905000005
とで定義される。depthwise畳み込みを入力パッチxに、pointwise畳み込みをdepthwise畳み込みの出力に適用することは、
Figure 0007130905000006
である対応する応答ベクトル
Figure 0007130905000007
をもたらし、ここでPo,i=P[o,i,:,:]、D=D[o,:,:,:]、fおよびfは、elementwiseの非線形活性化関数である。全体の特徴マップの計算の複雑性は、O(H×W×(n×k×k+n×n))である。代替的に、畳み込み順序を切り替えてDWの前にPW畳み込みを適用し、別の因数分解形式PW+DWを取得することが可能である。
多くのオプションが非線形活性化関数に対して利用可能であるが、数例を挙げると、SigmoidまたはHyperbolic tangent、Concatenated ReLU、Leaky ReLU、MAXout、ReLU-6、Parametric ReLUのなどである。非線形活性化関数に望ましい特性は、その勾配の非飽和であり、これは、sigmoidまたはhyperbolic tangent関数、勾配の消失の可能性を減少、およびスパース性を誘発する正則化のようなものと比較して、確率的勾配降下の収束が大きく加速する。いくつかの他の言及された活性化関数のうち、ReLUは、上記の特性を有し、また、好ましい実施形態においてelementwiseの非線形活性化関数として使用される。fおよびfは、異なってもよく、またはそのうちの1つがf(x)=xと等しくてもよいが、好ましい実施形態においては、f、fおよびfは、ReLU pointwise活性化関数を表し、これは、以下のように定義される。
Figure 0007130905000008
また、指数演算および算術演算などの計算上高コストがかかる計算を伴うsigmoidまたはhyperbolic tangentのような活性化関数に対するReLU計算の優位性を理解することも重要である。その一方で、ReLUは、単に活性化マトリクスを0に閾値化することにより実装され得る。
また、各レイヤーの入力の分布は、少なくともトレーニング中の以前のレイヤーパラメータの変化によって多大なばらつきを有するという留意することが重要である。分布のばらつきは、より低い学習速度と慎重なパラメータの初期化を必要とすることにより、トレーニングプロセスの速度が低下する傾向がある。この問題を克服すべく、好ましい実施形態では、バッチ正規化が使用される。それは、より高い学習速度を使用し、初期化パラメータに対するニューラルネットワークトレランスを増加させることが可能である。さらに、バッチ正規化は、モデルの過学習のリスクを減らす正則化技術としても機能する。実際に、好ましい実施形態において、バッチ正規化は、第1畳み込みレイヤーの後、およびdepthwise畳み込み(DW)の後、pointwise畳み込み(PW)の後、すべてのdepthwiseの分離可能な畳み込みにおいて使用される。バッチ正規化または代替的な正則化の使用は、ニューラルネットワークアーキテクチャ内のドロップアウトレイヤーがフレキシブルであり、同様またはより良好な結果が異なる方法でレイヤーを並べ替えることで達成できるということを意味することを理解されたい。
ニューラルネットワークをトレーニングする場合、トレーニングのターゲットを定義することも重要である。トレーニングの問題は、解決が予想される問題クラスのニューラルネットワークに対して定義される。トレーニング方法は、さまざまな結果を有する多数の異なる方法から選択され得るが、好ましい実施形態においては、方位および所在のトレーニングが回帰問題として定義され、指紋マニューシャのクラスを決定する場合は、分類問題として定義される。提供された入力データおよび予想される出力結果を用いて所与のトレーニングステップにおいてニューラルネットワークがどのように実行されるかを評価すべく、損失または誤差関数を定義する。
損失関数は、予測される値yと、所与の入力サンプルに対してネットワークにより生成された実際の値
Figure 0007130905000009
との間の不一致を測定するのに必要である。誤った推定からの評価された誤差は次に、ニューラルネットワークの重みまたは畳み込みフィルタ値を反復的に調整するために使用される。好ましい実施形態における多損失関数は、以下のように、分類、ネガティブな分類、所在回帰および方位回帰の4つの部分からなる。
Figure 0007130905000010
ここで、
Figure 0007130905000011

Figure 0007130905000012
とは、アーストルースマニューシャポイント信頼値から計算されたマスキング係数である。それらは、関連するマニューシャポイントのみが損失に寄与するように、すべての部分的損失に適用される。多損失関数における
Figure 0007130905000013
は、指紋マニューシャのクラス候補の存在、不在、所在および方位の予測確率をそれぞれ表す。多損失関数は、指紋特徴パラメータまたはメタパラメータに対する損失を計算する部分的損失成分がより少なく有することまたはより多く有することができることを留意されたい。
ポジティブおよびネガティブな分類の好ましい実施形態において、ソフトマックスクロスエントロピーの合計が部分的損失関数として使用される。所在および方位の場合は、部分的損失回帰関数としての実際の値と予測される値との間の違いの合計が使用される。当該部分的損失関数は、先に定義されたように多損失関数に組み合わされ、これは結果として全体的なニューラルネットワークの損失推定を行い、反復的な重み調整を行うために使用される。重み調整は、特定のオプティマイザ機能により実行される。他のニューラルネットワークパラメータと同様に、数例を挙げるとAdagrad、Adadelta、RMSpropから選択される多数のオプティマイザが存在するが、好ましい実施形態にでは、Adamオプティマイザが使用される。
多くの場合にトレーニングの収束に多大な影響を与えるニューラルネットワークトレーニングプロセスの別の態様は、ニューラルネットワーク接続の重みと畳み込みフィルタを開始する方法である。ニューラルネットワークは、複数の方法で初期化され得る。好ましい実施形態において、ニューラルネットワークの重みおよび畳み込みフィルタ値は、ランダムに初期化される。代替的な実施形態においては、初期値が0に設定されてもよく、または、いくつかの特定のヒューリスティックに従う値に設定されてもよい。さらに別の実施形態において、ニューラルネットワークの初期の重みまたは畳み込みフィルタ値または両方は、異なるバイオメトリックモダリティのためにトレーニングされた予めトレーニングされたニューラルネットワーク、または、移動学習とも呼ばれる他の視覚信号セットから初期化される。
ニューラルネットワークトレーニングプロセスを説明する別の方法は、それをいくつかのステップに分割することである。一般的且つ例示的なニューラルネットワークトレーニングプロセス(300)は図3に示される。ここで、まず、トレーニングデータが収集(301)される。次の段階は、必要であればトレーニングの前に、収集されたデータを修正(302)する段階であり、次に、準備されたトレーニングデータ(303)に対するニューラルネットワークトレーニングステップが続く。プロセスは、トレーニングされたニューラルネットワークモデルを保存(304)することにより完了する。トレーニングデータを収集する(301)プロセスはさらに細分化され得、図7のフロー図において示される。バイオメトリック信号が指紋の印の画像である一実施形態において、収集プロセスは、バイオメトリックスキャナ(702)または任意の他の入力デバイス(703)を用いて指紋画像を記録することにより、予めスキャンされたバイオメトリックデータ(701)をロードすることにより行われ得る、指紋画像の取得から開始される。また、合成データ生成(704)が使用され得る。ステップ(705)において、対応する特徴を有するマニューシャは、収集された指紋画像から抽出される。マニューシャは、手動で、自動化された方法を使用して、または両方の組み合わせを用いて抽出され得る。ステップ(706)において、抽出された特徴はエンコードされ、これは入力信号の皮膚紋理マニューシャからニューラルネットワークの出力特徴マップへのマッピング演算に対応する。ニューラルネットワークの出力特徴マップの構造は、ニューラルネットワークの出力レイヤーの特性により決定される。上記の好ましい実施形態において述べられたように、出力特徴マップは入力信号の約1/8の空間分解能を有し、したがって、512×512解像度の2D入力信号の場合、出力特徴マップにおける各特徴は、8×8入力信号パッチに大まかに対応する。好ましい実施形態において、特徴マップは、少なくともクラス、位置および向きチャネルグループを有する。これらのグループは、好ましいニューラルネットワークアーキテクチャに応じて、まとめて積層され得るまたは別個であり得る。グループ毎のチャネル数は、少なくとも、マニューシャクラスの数、方位および位置の精度、および追加の候補細分化に依存し得る。各マッピングされた特徴値は、マニューシャを含む可能性を表し、特定のクラス、入力信号の対応するパッチ内の方位または位置の特性を有する。示されたトレーニングデータ収集プロセス(301)は、指紋画像とエンコードされた特徴とを保存すること(707)で完了される。
図5は、収集されたトレーニングデータ(501)をロードすることにより開始される、トレーニングデータ準備(302)のフロー図を示す。指紋画像とエンコードされた特徴データとを拡張すること(502)は、次の段階におけるトレーニングデータ不一致の問題を克服するために使用される。当該不一致は、ニューラルネットワークのトレーニングに使用されるデータセットに存在する可能性がある様々な画像によりもたらされる。画像は、さまざまなサイズ、割合およびフォーマットの画像、変換された、不明瞭またはクロップされたオブジェクトを含む画像、ノイズを含みコントラストに欠ける画像がある。これに加えて、データ拡張(502)は、データ変動の誤った表示によりもたらされるデータのサブセットに対するニューラルネットワークの過学習を克服するために使用される。ステップ(503)では、拡張されたデータが保存される。好ましい実施形態において、ニューラルネットワークをトレーニングするためのデータセットは、ステップ(504)において、トレーニング、検証およびテストのサブセットに分割される。トレーニングサブセットは、データとニューラルネットワークで推定したマニューシャとの間の予測関係を構築するために使用される。検証サブセットは、ネットワークをテストして、ネットワークのハイパーパラメータを調整するために使用される。最後に、テストサブセットは、ニューラルネットワークがトレーニングまたは検証サブセットのいずれかを過学習することを防止するために使用される。
データセットが、様々なデータ変換技術(607)を使用して既存のデータ(606)から新しいデータ(608)を生成することにより延長されるトレーニングデータ拡張プロセス(502)が、図6に示される。例えば、ニューラルネットワークがノイズ変動を処理することを学習するために、データ拡張(607)は、データセットから既存の画像を取得してノイズを追加すること(602)またはランダムクロップ(601)を適用して画像内の部分的なオブジェクトの閉塞をシミュレートすることにより新しい画像を生成することなどを含む。データ拡張は、回転(603)、変換(604)、または、パッディング、反転および他を含む他の変換(605)のステップを備え得る。様々な組み合わせの拡張が、データセット(606)を拡張するために使用され得る。ここで、適切な拡張(601、602、603、604、605)が、拡張された入力信号と抽出された特徴とが対応するように、入力信号と抽出された特徴データとの両方に適用される(607)。抽出され拡張されたバイオメトリックデータは次に、構築されたニューラルネットワークの出力レイヤーに対応する形にエンコードされる必要がある。
トレーニング自体は、Caffe、PyTorch、TensorFlowのような広く利用可能なニューラルネットワークソフトウェアフレームワークを使用して、または他の適切な手段を使用して実行され得る。トレーニングプロセス中には、ネットワークの全体的な品質測定が最適な値に収束することが予想される。トレーニングを中止するタイミングを選択する戦略と、中間のトレーニングされたモデルのうちから最も良くトレーニングされたモデルをどのように選択するかの戦略が多数存在するが、一般的に、最適な値は通常、トレーニングデータ自体に依存するので、テストまたは検証データに、トレーニングされたニューラルネットワークモデルが過学習していることが指示され次第、トレーニングプロセスは通常、停止される。
トレーニングが完了し、所望の精度レベルが達成された後、図8に示されるように、トレーニングされたニューラルネットワークを利用することができる(800)。一実施形態において、トレーニングされたニューラルネットワークモデルがロード(801)された後、ステップ(802)において、パーソナルコンピュータ、マイクロコンピュータ、組み込みシステムまたは任意の他のコンピューティング装置に接続されたバイオメトリックスキャナから取得された入力信号を用いて、ニューラルネットワーク推定が実行される。当該コンピューティング装置は、デジタルバイオメトリック入力信号を受信することと、入力信号を与えられてニューラルネットワーク特徴(803)を推定することと、推定された特徴をバイオメトリックマニューシャ(804)にデコードすることとが可能であるべきである。ニューラルネットワークトレーニングは、同じまたは別個のコンピューティング装置上で実行され得る。一実施形態において、指紋画像は、スキャンされた画像、データベースからロードされた画像、入力信号としてトレーニングされたニューラルネットワークに処理されて供給されることまたは処理されることなく供給されることができる他のデータインスタンスを含むソースから、ステップ(802)において取得され得る。さらに別の実施形態において、入力信号は、少なくとも性能の最適化、推定誤差の低減のために、またはデータフォーマット制限によって、推定の前に前処理され得る。
別の実施形態において、トレーニングされたニューラルネットワークは、動的設定(400)に使用され得、ここで、ニューラルネットワークの微調整または再トレーニングは、初期データセットからの信号がアップデートされると、除去されると、または新しい信号が追加されると実行される。まず、必要に応じて、取得された入力データ(401)は、トレーニングデータの場合と同様の手段(502)を使用して拡張される(402)。その後、ニューラルネットワークは、ステップ(403)において、拡張されたデータに対して微調整される。最後に、微調整されたニューラルネットワークのモデルが保存される(404)。
さらに別の実施形態において、信号特徴抽出のためのシステムおよび方法は、本発明に開示されたニューラルネットワークを使用したデータ信号の要素またはセグメントの、分類、取得、人物の確認または識別のために使用され得る。
ニューラルネットワークの研究の性質、現在および予測可能な状態により、指紋とは別に本明細書に開示されたアーキテクチャは、掌紋、フットプリントまたは静脈、虹彩および顔のような他のバイオメトリックモダリティに適用され得ることが当業者には明らかである。掌紋およびフットプリントの場合において、皮膚紋理パターンの構造は、指紋と同様であるので、開示されている方法は、大きな修正なく、静脈、虹彩およびさらに多くに適用され得る。その結果、顔は大幅に異なる視覚的構造を有するが、それにかかわらず、静脈パターンの局所的特徴ポイントおよび顔のランドマークは、開示されている方法の極めて重大な特性である少なくとも共通の局所性を有する。
理解できるように、本発明は、限定的ではなく例示的であることをあらゆる点で意図されている具体的な実施形態に関して説明されている。本発明がその範囲から逸脱することなく関連する代替的な実施形態が、当業者には明らかになる。また、特定の特徴およびサブコンビネーションは有用であり、他の特徴およびサブコンビネーションを参照することなく利用され得ることが理解されよう。
[引用文献]
US5,572,597-Fingerprint classification system
US5,825,907-Neural network system for classifying fingerprints
US5,892,838-Biometric recognition using a classification neural network
US7,082,394-Noise-robust feature extraction using multi-layer principal component analysis
US2006/0215883 A1-Biometric identification apparatus and method using bio signals and artificial neural network
CN107480649 A-Full convolutional neural network-based fingerprint sweat pore extraction method
Bhavesh Pandya,G.C.A.A.A.A.T.V.A.B.T.M.M.,2018.Fingerprint classification using a deep convolutional neural network.2018 4th International Conference on Information Management(ICIM),pp.86-91.
Branka Stojanovic,A.N.O.M.,2015.Fingerprint ROI segmentation using fourier coefficients and neural networks.2015 23rd Telecommunications Forum Telfor(TELFOR).,pp.484-487.
Darlow,L.N.R.B.,2017.Fingerprint minutiae extraction using deep learning..2017 IEEE International Joint Conference on Biometrics(IJCB),pp.22-30.
Dinh-Luan Nguyen,K.C.A.K.J.,2018.Robust Minutiae Extractor:Integrating Deep Networks and Fingerprint Domain Knowledge.2018 International Conference on Biometrics(ICB).
Hilbert,C.-F.C.E.,1994.Fingerprint classification system.United States of America,Patento Nr.5,572,597.
Kai Cao,D.-L.N.C.T.A.K.J.,2018.End-to-End Latent Fingerprint Search.
Sankaran,A.a.P.P.a.V.M.a.S.R.,2014.On latent fingerprint minutiae extraction using stacked denoising sparse AutoEncoders.IJCB 2014-2014 IEEE/IAPR International Joint Conference on Biometrics,pp.1-7.
Shrein,J.M.,2017.Fingerprint classification using convolutional neural networks and ridge orientation images.2017 IEEE Symposium Series on Computational Intelligence(SSCI),pp.1-8.
Thomas Pinetz,D.S.R.H.-M.R.S.,2017.Using a U-Shaped Neural Network for minutiae extraction trained from refined, synthetic fingerprints.Proceedings of the OAGM&ARW Joint Workshop 2017,pp.146-151.
Yao Tang,F.G.J.F.,2017.Latent fingerprint minutia extraction using fully convolutional network.2017 IEEE International Joint Conference on Biometrics(IJCB),pp.117-123.
Yao Tang,F.G.J.F.Y.L.,2017.FingerNet:An unified deep network for fingerprint minutiae extraction.2017 IEEE International Joint Conference on Biometrics(IJCB),pp.108-116.
[項目1]
1または複数のコンピュータにより実装されるニューラルネットワークシステムであって、前記ニューラルネットワークシステムは、
畳み込みニューラルネットワークと、
サブシステムと
を備え、
前記畳み込みニューラルネットワークは、
前記ニューラルネットワークにより、それぞれの入力信号が処理され、
前記ニューラルネットワークの第1レイヤーにおいてバイオメトリック入力信号を受信することと、
前記バイオメトリック入力信号を処理することと、
前記ニューラルネットワークの最後のレイヤーにおいて出力特徴マップを生成することと、
を行うように構成されており、前記出力特徴マップのチャネルの数が増加し、前記入力信号に対する空間分解能が減少し、
前記サブシステムは、
前記ニューラルネットワークから前記出力特徴マップを受信することと、
前記出力特徴マップをデコードすることと、
デコードされた特徴マップを出力することと
を行うように構成されており、
バイオメトリック入力信号は皮膚紋理の印を表し、デコードされた特徴マップは皮膚紋理の印のマニューシャを表す、
システム。
[項目2]
出力特徴マップをデコードすることは、前記ニューラルネットワークの出力レイヤーの特徴マップを皮膚紋理の印のマニューシャの数字表示に変換することを備え、マニューシャの数字表示は、少なくとも、クラス、回転、および位置を含む、項目1に記載のシステム。
[項目3]
マニューシャのクラスは、線端、分岐、上記のいずれでもないもののうちの1つである、項目2に記載のシステム。
[項目4]
前記ニューラルネットワークは完全畳み込みニューラルネットワークである、項目1から3のいずれか一項に記載のシステム。
[項目5]
入力された前記皮膚紋理の印の信号はデジタル画像である、項目1から4のいずれか一項に記載のシステム。
[項目6]
出力特徴マップは、一連の別個の出力畳み込みレイヤー分岐の活性化マップを備える、項目1から5のいずれか一項に記載のシステム。
[項目7]
非線形のpointwise活性化関数は、Sigmoid、Hyperbolic Tangent、Concatenated ReLU、Leaky ReLU、MAXout、ReLU、ReLU-6、Parametric ReLUのうちの1つである、項目1から6のいずれか一項に記載のシステム。
[項目8]
畳み込みは、通常の畳み込み、depthwiseの分離可能な畳み込みまたは1×1畳み込みと組み合わせたグループ化畳み込みまたは他の種類の畳み込みのうちの1つである、項目1から7のいずれか一項に記載のシステム。
[項目9]
前記ニューラルネットワークの損失関数は、複数の損失成分を備える多損失関数である、項目1から8のいずれか一項に記載のシステム。
[項目10]
多損失関数の成分は、ポジティブクラス損失、ネガティブクラス損失、所在損失、方位損失を少なくとも備える、項目9に記載のシステム。
[項目11]
マニューシャのポジティブクラス推定は分類問題である、項目10に記載のシステム。
[項目12]
マニューシャのネガティブクラス推定は分類問題である、項目10または11に記載のシステム。
[項目13]
マニューシャの方位推定は回帰問題である、項目10から12のいずれか一項に記載のシステム。
[項目14]
マニューシャの所在推定は回帰問題である、項目10から13のいずれか一項に記載のシステム。
[項目15]
各バイオメトリック入力信号のソースは、バイオメトリックリーダ、メモリからロードされたものまたは生成されたもののうちの1つである、項目1から14のいずれか一項に記載のシステム。
[項目16]
前記ニューラルネットワークのプロセスをトレーニングすることは、皮膚紋理の印のマニューシャをエンコードすることを備える、項目1から15のいずれか一項に記載のシステム。
[項目17]
前記ニューラルネットワークのプロセスをトレーニングすることは、データ拡張を備える、項目1から16のいずれか一項に記載のシステム。

Claims (13)

  1. 1または複数のコンピュータにより実装されるニューラルネットワークシステムであって、前記ニューラルネットワークシステムは、
    ニューラルネットワークであって、前記ニューラルネットワークは、畳み込みニューラルネットワークであり、前記ニューラルネットワークは、
    記ニューラルネットワークにより、それぞれの入力信号が処理され、
    前記ニューラルネットワークの第1レイヤーにおいてバイオメトリック入力信号を受信することであって、前記バイオメトリック入力信号は皮膚紋理の印を表す、受信することと
    前記バイオメトリック入力信号を処理することと、
    前記ニューラルネットワークの最後のレイヤーにおいて出力特徴マップを生成することと、
    を行うように構成されており、前記バイオメトリック入力信号は、前記出力特徴マップのチャネルの数を増加させ、前記入力信号に対する空間分解能を減少させる一連の畳み込みレイヤブロックを通過し、
    前記出力特徴マップは、前記畳み込みレイヤブロックの最後のブロックから異なる畳み込み分岐へと伝搬され、前記ニューラルネットワークは、ポジティブクラス損失、ネガティブクラス損失、所在損失、方位損失の4つの部分で構成される多損失関数を用いることによりトレーニングされる、ニューラルネットワークと、
    サブシステムであって、前記サブシステムは、
    前記ニューラルネットワークから前記出力特徴マップを受信することであって、前記出力特徴マップは、クラス、向きおよび位置を含み、前記出力特徴マップは、入力解像度の1/8に等しい空間分解能を有する、受信することと
    前記出力特徴マップをデコードすることと
    前記皮膚紋理の印のマニューシャを表す前記デコードされた出力特徴マップを出力することと
    を行うように構成されている、サブシステムと、
    を備える、システム。
  2. 前記出力特徴マップをデコードすることは、前記出力特徴マップを皮膚紋理の印のマニューシャの数値表現に変換することを備え、前記マニューシャの数値表現は、少なくとも、前記クラス、前記向き、および前記位置を含む、請求項1に記載のシステム。
  3. 前記マニューシャのクラスは、線端、分岐、上記のいずれでもないもののうちの1つである、請求項2に記載のシステム。
  4. 前記ニューラルネットワークは完全畳み込みニューラルネットワークである、請求項1から3のいずれか一項に記載のシステム。
  5. 入力された前記皮膚紋理の印の信号はデジタル画像である、請求項1から4のいずれか一項に記載のシステム。
  6. 前記出力特徴マップは、一連の別個の出力畳み込みレイヤー分岐の活性化マップを備える、請求項1から5のいずれか一項に記載のシステム。
  7. 非線形のpointwise活性化関数は、Sigmoid、Hyperbolic Tangent、Concatenated ReLU、Leaky ReLU、MAXout、ReLU、ReLU-6、Parametric ReLUのうちの1つである、請求項1から6のいずれか一項に記載のシステム。
  8. 畳み込みは、通常の畳み込み、depthwiseの分離可能な畳み込みまたは1×1畳み込みと組み合わせたグループ化畳み込みまたは他の種類の畳み込みのうちの1つである、請求項1から7のいずれか一項に記載のシステム。
  9. 前記マニューシャのポジティブクラス推定は分類問題である、請求項1から8のいずれか一項に記載のシステム。
  10. 前記マニューシャのネガティブクラス推定は分類問題である、請求項1から9のいずれか一項に記載のシステム。
  11. 前記マニューシャの方位推定は回帰問題である、請求項1から10のいずれか一項に記載のシステム。
  12. 前記マニューシャの所在推定は回帰問題である、請求項1から11のいずれか一項に記載のシステム。
  13. 各バイオメトリック入力信号のソースは、バイオメトリックリーダ、メモリからロードされたものまたは生成されたもののうちの1つである、請求項1から12のいずれか一項に記載のシステム。
JP2021500518A 2019-06-18 2019-06-18 フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出 Active JP7130905B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/IB2019/055084 WO2020254857A1 (en) 2019-06-18 2019-06-18 Fast and robust friction ridge impression minutiae extraction using feed-forward convolutional neural network

Publications (2)

Publication Number Publication Date
JP2021532453A JP2021532453A (ja) 2021-11-25
JP7130905B2 true JP7130905B2 (ja) 2022-09-06

Family

ID=67841104

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021500518A Active JP7130905B2 (ja) 2019-06-18 2019-06-18 フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出

Country Status (5)

Country Link
US (1) US11430255B2 (ja)
EP (1) EP3799647A1 (ja)
JP (1) JP7130905B2 (ja)
CN (1) CN112437926B (ja)
WO (1) WO2020254857A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3540635B1 (en) * 2018-03-16 2020-08-26 Identy Inc. Method for identifying an object within an image and mobile device for executing the method
KR20210082970A (ko) * 2019-12-26 2021-07-06 삼성전자주식회사 컨볼루션 연산을 수행하는 방법 및 장치
US12014529B2 (en) * 2020-01-21 2024-06-18 Samsung Electronics Co., Ltd. Image processing method and apparatus using neural network
KR102350685B1 (ko) * 2020-01-31 2022-01-13 주식회사 알체라 생체 정보 등록 방법 및 이를 수행하기 위한 생체 정보 등록 장치
US20210383200A1 (en) * 2020-06-05 2021-12-09 PassiveLogic, Inc. Neural Network Methods for Defining System Topology
CN112884824B (zh) * 2021-03-12 2024-07-12 辽宁师范大学 一种基于卷积网络多尺度特征融合的鞋印身高估计方法
CN113808753B (zh) * 2021-09-11 2023-09-26 中南大学 基于多损失的分解表达学习预测辅助放化疗疗效的方法
CN114550224A (zh) * 2022-01-17 2022-05-27 北京海鑫科金高科技股份有限公司 基于深度学习的指纹图像识别比对方法、装置和电子设备
CN114997299B (zh) * 2022-05-27 2024-04-16 电子科技大学 一种资源受限环境下的射频指纹识别方法
CN116819482B (zh) * 2023-08-28 2023-11-10 四川省石棉县恒达粉体材料有限责任公司 一种基于雷达数据的方解石探测方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5572597A (en) 1994-03-29 1996-11-05 Loral Corporation Fingerprint classification system
US5825907A (en) * 1994-12-28 1998-10-20 Lucent Technologies Inc. Neural network system for classifying fingerprints
US5892838A (en) 1996-06-11 1999-04-06 Minnesota Mining And Manufacturing Company Biometric recognition using a classification neural network
US7082394B2 (en) 2002-06-25 2006-07-25 Microsoft Corporation Noise-robust feature extraction using multi-layer principal component analysis
KR100718125B1 (ko) 2005-03-25 2007-05-15 삼성전자주식회사 생체신호와 인공신경회로망을 이용한 생체인식 장치 및방법
US8015128B2 (en) * 2006-10-01 2011-09-06 International Business Machines Corporation Biometric security using neuroplastic fidelity
US20140019390A1 (en) * 2012-07-13 2014-01-16 Umami, Co. Apparatus and method for audio fingerprinting
US10339362B2 (en) * 2016-12-08 2019-07-02 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
CN105303179A (zh) * 2015-10-28 2016-02-03 小米科技有限责任公司 指纹识别方法、装置
CN105868785A (zh) * 2016-03-30 2016-08-17 乐视控股(北京)有限公司 基于卷积神经网络的图片鉴别方法及系统
KR101797953B1 (ko) * 2016-03-31 2017-11-15 주식회사 유니온커뮤니티 신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법
KR102631381B1 (ko) * 2016-11-07 2024-01-31 삼성전자주식회사 컨볼루션 신경망 처리 방법 및 장치
CN106971174B (zh) * 2017-04-24 2020-05-22 华南理工大学 一种cnn模型、cnn训练方法以及基于cnn的静脉识别方法
CN107480649B (zh) 2017-08-24 2020-08-18 浙江工业大学 一种基于全卷积神经网络的指纹汗孔提取方法
CN109493347B (zh) * 2017-09-12 2021-03-23 深圳科亚医疗科技有限公司 在图像中对稀疏分布的对象进行分割的方法和系统
CN107958217A (zh) * 2017-11-28 2018-04-24 广州麦仑信息科技有限公司 一种基于深度学习的指纹分类识别系统及方法
CN108520225B (zh) * 2018-03-30 2021-07-27 南京信息工程大学 一种基于空间变换卷积神经网络的指纹检测分类方法
CN108564040B (zh) * 2018-04-17 2021-06-25 杭州景联文科技有限公司 一种基于深度卷积特征的指纹活性检测方法
US10304193B1 (en) * 2018-08-17 2019-05-28 12 Sigma Technologies Image segmentation and object detection using fully convolutional neural network
CN109145834A (zh) * 2018-08-27 2019-01-04 河南丰泰光电科技有限公司 一种基于神经网络的指纹识别及验证方法
CN109376699A (zh) * 2018-11-30 2019-02-22 昆明理工大学 一种基于卷积神经网络的指纹识别方法
CN109886986B (zh) * 2019-01-23 2020-09-08 北京航空航天大学 一种基于多分支卷积神经网络的皮肤镜图像分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Thomas Pinetz et al.,Using a U-Shaped Neural Network for minutiae extraction trained from refined, synthetic fingerprints,Proceedings of the OAGM&ARW Joint Workshop 2017,2017年,pp.146-151

Also Published As

Publication number Publication date
CN112437926A (zh) 2021-03-02
US11430255B2 (en) 2022-08-30
JP2021532453A (ja) 2021-11-25
WO2020254857A1 (en) 2020-12-24
US20210326571A1 (en) 2021-10-21
EP3799647A1 (en) 2021-04-07
CN112437926B (zh) 2024-05-31

Similar Documents

Publication Publication Date Title
JP7130905B2 (ja) フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出
Baltzakis et al. A new signature verification technique based on a two-stage neural network classifier
Pandya et al. Fingerprint classification using a deep convolutional neural network
Prabhakar et al. Learning fingerprint minutiae location and type
US20210166092A1 (en) Method of Detecting at Least One Element of Interest Visible in an Input Image by Means of a Convolutional Neural Network
CN113076927B (zh) 基于多源域迁移的指静脉识别方法及系统
CN110674824A (zh) 基于R2U-Net的手指静脉分割方法、装置和存储介质
CN105095880A (zh) 一种基于lgbp编码的手指多模态特征融合方法
Jalilian et al. Enhanced segmentation-CNN based finger-vein recognition by joint training with automatically generated and manual labels
CN114821682B (zh) 一种基于深度学习算法的多样本混合掌静脉识别方法
Khodadoust et al. Partial fingerprint identification for large databases
Wang et al. Deep point cloud normal estimation via triplet learning
CN109359607A (zh) 一种基于纹理的掌纹掌脉融合识别方法
Fang et al. Deep belief network based finger vein recognition using histograms of uniform local binary patterns of curvature gray images
Patel et al. Performance improvement in preprocessing phase of fingerprint recognition
Deepika et al. Invariant feature extraction from fingerprint biometric using pseudo Zernike moments
Kumar et al. An empirical evaluation of rotation invariance of LDP feature for fingerprint matching using neural networks
Kaur et al. Finger print recognition using genetic algorithm and neural network
CN108154107A (zh) 一种确定遥感图像归属的场景类别的方法
AlShemmary et al. Siamese Network-Based Palm Print Recognition
Mansour Iris recognition using gauss laplace filter
Hariprasath et al. Bimodal biometric pattern recognition system based on fusion of iris and palmprint using multi-resolution approach
CN114677714B (zh) 接触式指纹与非接触式指纹的匹配方法及相关装置
Al-Nima et al. Utilizing Fingerphotos with Deep Learning Techniques to Recognize Individuals
Dommeti et al. Revolutionizing Fingerprint Forensics: Regeneration and Gender Prediction with Gabor Filters, Otsu's Technique, and Deep Learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220802

R150 Certificate of patent or registration of utility model

Ref document number: 7130905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150