JP2022098475A - 指紋のシグネチャを抽出するための方法及び同方法を実施するためのデバイス - Google Patents

指紋のシグネチャを抽出するための方法及び同方法を実施するためのデバイス Download PDF

Info

Publication number
JP2022098475A
JP2022098475A JP2021205583A JP2021205583A JP2022098475A JP 2022098475 A JP2022098475 A JP 2022098475A JP 2021205583 A JP2021205583 A JP 2021205583A JP 2021205583 A JP2021205583 A JP 2021205583A JP 2022098475 A JP2022098475 A JP 2022098475A
Authority
JP
Japan
Prior art keywords
fingerprint
ridge
source image
neural network
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021205583A
Other languages
English (en)
Inventor
ニアフ,エミリー
Niaf Emilie
カズダグリー,ローラン
Kazdaghli Laurent
カザスノーブス,アンソニー
Cazasnoves Anthony
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idemia Identity and Security France SAS
Original Assignee
Idemia Identity and Security France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Idemia Identity and Security France SAS filed Critical Idemia Identity and Security France SAS
Publication of JP2022098475A publication Critical patent/JP2022098475A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1359Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • G06V40/1353Extracting features related to minutiae or pores
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • G06V40/1371Matching features related to minutiae or pores

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

Figure 2022098475000001
【課題】 指紋のシグネチャを抽出するための方法及び同方法を実施するためのデバイスを提供する。
【解決手段】 ソース画像に示される指紋のシグネチャを抽出するための方法が説明される。この目的のため、ソース画像は、周波数領域に変換される(S100)。次に、1つ又は複数の隆線周波数は、畳み込みニューラルネットワークを上記変換済みの画像に適用することによって決定され(S102)、nは、1以上の整数である。ソース画像は、上記n個の隆線周波数の決定に応答して正規化される(S104)。最後に、上記指紋の1つ又は複数のシグネチャは、上記n個の正規化済みの画像から抽出される(S106)。
【選択図】 図2

Description

技術分野
少なくとも1つの実施形態は、ソース画像によって表される指紋のシグネチャを抽出するための方法に関する。
先行技術
指紋は、人物を識別するために何世紀にもわたって使用されてきた。具体的には、指紋は、通常、事件現場で人物を識別するために使用される。これらの潜在指紋(「latent fingerprints」又は「latents」)は、無意識に残された指紋を指す。一般に、潜在指紋は、事件現場で見つかった人の指が触れるか又はつかんだ物体の表面から回収された部分的な指紋である。指紋の認証により、以前に指紋が指紋データベースに入力されている容疑者と潜在指紋とを結び付けること又は様々な事件現場から得られた潜在指紋とのつながりを確立することが可能になる。
一定の画質を保証する接触センサなどの専用電子装置によって捕捉される指紋とは異なり、潜在指紋は、一般に、それらの可視性を改善するために様々な化学及び物理開発技法を使用して得られる。これらの開発技法により、指紋の特性は改善されるが、潜在指紋は、一般に、この専用電子装置によって得られるものと比べて、非常に質が悪い。具体的には、得られる情報は部分的であり得る。その上、潜在指紋の背景において、色やテクスチャが組み合わさることで、潜在指紋が隠れる場合がある。
しかし、指紋認証システムの性能は、収集された指紋画像の質に大きく依存する。このため、その画質が一般的に低い潜在指紋において問題が生じる。この理由は、自動整合システムのアルゴリズムによるそのような潜在指紋の構造(特徴点や隆線など)の検出が難しいためである。
先行技術のこれらの様々な欠点を克服することが望ましい。具体的には、これらの指紋画像が潜在指紋である場合に、効率的な指紋のシグネチャを抽出するための方法を提案することが望ましい。
発明の開示
一実施形態によれば、ソース画像に示される指紋のシグネチャを抽出するための方法が説明される。シグネチャを抽出するための方法は、
- 上記ソース画像を周波数領域に変換することと、
- 畳み込みニューラルネットワークを上記変換済みの画像に適用することによって、上記ソース画像のn個の隆線周波数を決定することであって、nが、1以上の整数である、決定することと、
- 上記n個の隆線周波数の各々の決定に応答して、上記ソース画像を正規化することと、
- 上記n個の正規化済みの画像から上記指紋のn個のシグネチャを抽出することと
を含む。
説明される方法は、有利には、ソース画像が劣質のものである場合でさえ、指紋のシグネチャを抽出できるようにする。この理由は、適用可能な場合は、畳み込みニューラルネットワークの使用により、多数の隆線周波数の決定が可能になり、それにより、正しい隆線周波数を決定する確率が高まるためである。ニューラルネットワークを変換済みの画像に適用することにより、方法の性能が向上する。
特定の実施形態では、上記ソース画像を周波数領域に変換することは、フーリエ変換を適用することを含む。
特定の実施形態では、畳み込みニューラルネットワークを上記変換済みの画像に適用することによって、上記ソース画像のn個の隆線周波数を決定することは、
- N個の隆線周波数のセットの各隆線周波数に対して、上記ソース画像がその隆線周波数として上記隆線周波数を有する確率を決定することであって、Nが、n以上の整数である、決定することと、
- n個の最高確率と関連付けられたn個の隆線周波数を選択することと
を含む。
特定の実施形態では、畳み込みニューラルネットワークは、U-Netタイプのものである。
特定の実施形態では、上記n個の正規化済みの画像から上記指紋のn個のシグネチャを抽出することは、上記指紋に属する特徴点の特性を抽出することを含む。
特定の実施形態では、上記特徴点の特性は、上記特徴点の位置及び/又は向きを含む。
特定の実施形態では、方法は、上記n個の抽出シグネチャを個人と関連付けられた参照指紋の少なくとも1つの抽出シグネチャと比較することと、上記n個の抽出シグネチャの少なくとも1つが上記参照指紋の上記少なくとも1つの抽出シグネチャと同様である場合は、ソース画像に示される上記指紋が上記個人に属するという事実を識別することとをさらに含む。
特定の実施形態では、上記畳み込みニューラルネットワークのパラメータは、隆線周波数が既知である参照指紋のデータベースから学習されたものである。
ソース画像に示される指紋のシグネチャを抽出するためのデバイスが説明される。デバイスは、
- 上記ソース画像を周波数領域に変換するための手段と、
- 畳み込みニューラルネットワークを上記変換済みの画像に適用することによって、上記ソース画像のn個の隆線周波数を決定するための手段であって、nが、1以上の整数である、手段と、
- 上記n個の隆線周波数の各々の決定に応答して、上記ソース画像を正規化するための手段と、
- 上記n個の正規化済みの画像から上記指紋のn個のシグネチャを抽出するための手段と
を含む。
コンピュータプログラム製品が説明される。コンピュータプログラム製品は、上記プログラムがプロセッサによって実行されると、先行する実施形態のうちの1つに従ってシグネチャを抽出するための方法を上記プロセッサによって実施するための命令を含む。
記憶媒体が説明される。記憶媒体は、命令がプロセッサによって実行されると、先行する実施形態のうちの1つに従ってシグネチャを抽出するための方法を上記プロセッサによって実施するための上記命令を格納する。
図面の簡単な説明
上記で言及される本発明の特徴及び他の特徴は、例示的な実施形態の以下の説明を読み進めることによって、より明確に明らかになるであろう。同説明は、添付の図面に関連して行われる。
特定の実施形態による、指紋のシグネチャを抽出するための方法を実施することができるシステムのアーキテクチャを示す。 特定の実施形態による、指紋(例えば、潜在指紋)のシグネチャを抽出するための方法を概略的に示す。 特定の実施形態による、畳み込みニューラルネットワークアーキテクチャを示す。 指紋の特徴点の様々なタイプを示す。 特定の実施形態による、シグネチャ抽出デバイス100のハードウェアアーキテクチャの例を概略的に示す。
実施形態の詳細な開示
事件現場で人物を識別するため、潜在指紋の画像とデータベースに格納された参照指紋の画像とを比較することが必要であり得る。この目的のため、各指紋画像から特性が抽出され、上記指紋のシグネチャが生成される。シグネチャは、文献では、「テンプレート」とも呼ばれる。次に、識別予定の潜在指紋と関連付けられたシグネチャと参照指紋のすべてのシグネチャとの比較が2つ一組で行われる。各参照指紋に対して、スコアが得られ、スコアは、閾値と比較される。スコアが事前に定義された閾値を上回る場合は、潜在指紋は、データベースにおいて参照指紋と関連付けられた個人に属するものとして識別される。そうでなければ、潜在指紋と参照指紋は一致せず、従って、潜在指紋は認証されない。すなわち、それは、例えば、問題の場所の普段の居住者のうちの1人によって残されたトレースであるということである。
潜在指紋の画像は並質のものであるため、その質を高めるためにシグネチャが抽出される前にこれらの画像を前処理することが知られている。使用される通常の変換のいくつかは、色の管理、コントラストの調整、縁の改善、背景の削除及びノイズのフィルタリング、並びに、画像の標準化を含む。潜在指紋画像の標準化は、上記潜在指紋とデータベースに格納された他の任意の参照指紋とを比較できるようにするための、上記潜在指紋のスケーリングからなる。標準化は、隆線周波数を使用して実施される。この隆線周波数の推定は、専用電子装置によって捕捉された良質の指紋においては容易であるが、潜在指紋の画像においてはそれほど容易ではない。この目的のため、図2を参照して、隆線周波数の特定の推定を使用したシグネチャ抽出方法が説明される。以下で説明される実施形態は、潜在指紋の画像と専用電子装置によって捕捉された指紋の画像の両方に当てはまる。
図1は、図2を参照して以下で説明される、指紋のシグネチャを抽出するための方法を実施することができるシステムのアーキテクチャを示す。システム1は、インターネットを通じてサーバ12に接続されたクライアント10を含む。サーバ12は、例えば、参照指紋のシグネチャを格納するデータベースを含む。変形形態では、データベースは、サーバ12の外部のものである。例えば、データベースは、正しい指紋の少なくとも1つの画像及びその指紋が属する個人の識別を参照指紋の各シグネチャと関連付ける。各シグネチャは、1つ又は複数の指紋を指し、それら自体は、個人を指す。サーバ12は、図3を参照して説明されるように訓練済みのニューラルネットワークをメモリに格納する。ニューラルネットワークの訓練は、例えば、サーバ12によって実行される。変形実施形態では、訓練済みのニューラルネットワークは、クライアントデバイス10に送信され、クライアントデバイス10のメモリに格納される。クライアントデバイス10は、図2を参照して説明されるように、指紋のシグネチャを抽出するための方法を実施する。
変形実施形態では、デバイス10及び12は、機器の単一のアイテム内に統合される。
図2は、特定の実施形態による、指紋(例えば、潜在指紋)のシグネチャを抽出するための方法を概略的に示す。指紋のシグネチャを抽出することは、「コード化」という用語によっても知られている。
ステップS100では、例えば、フーリエ変換によって、指紋のソース画像が周波数領域に変換される。フーリエ変換は、例えば、高速フーリエ変換FFTである。他の変換は、それらが空間領域から周波数領域に画像を変換することを条件に、使用することができる。従って、変形実施形態では、ウェーブレット変換が使用される。
ステップS102では、図3を参照して説明されるニューラルネットワークなど、訓練済みの(すなわち、その重みが既知である)CNNタイプ(「畳み込みニューラルネットワーク(Convolutional Neural Network)」の頭字語)のニューラルネットワークに変換済みの画像が導入される。ニューラルネットワークのパラメータは、例えば、ニューラルネットワークの出力データ(この事例では、隆線周波数)が既知である指紋データベースにおいて学習されているものである。ニューラルネットワークは、ステップS100で使用されたものと同じ変換を使用して変換された指紋の画像を使用して訓練されていることになる。
訓練済みのCNNニューラルネットワークを変換済みの画像に適用することにより、N個の隆線周波数fiのセットに対して(Nは、真に正の整数であり、iは、上記隆線周波数を識別するインデックスである)、指紋画像が周波数fiと等しい隆線周波数を有する確率pi(例えば、周波数が5ピクセル、6ピクセル、…、21ピクセル、…、40ピクセルの周期に対応する確率)が得られるようになる。例えば、N=36である。
特定の実施形態では、「完全畳み込みネットワーク」と呼ばれるU-Netタイプのネットワークが適用される。U-Netネットワークは、収縮部分と膨張経路とで構成され、U字形のアーキテクチャを与える。収縮部分は、畳み込みの適用の繰り返しからなる典型的な畳み込みネットワークであり、各畳み込みの後に、正規化線形ユニット(ReLU)及び最大プーリング演算が続く。収縮の間、空間情報は低減し、特性についての情報は増加する。膨張経路は、収縮経路から得られる高分解能機能性を用いて、昇順での一連の畳み込み及び連結を通じて、地理特性情報と空間特性情報を組み合わせる。
ステップS104では、n個の最高確率と関連付けられたn個の隆線周波数の各々を使用して(nは、N以下の真に正の整数である)、指紋画像が正規化される。従って、n個の正規化済みの画像Ii(i∈[1;n])が得られる(すなわち、1つの隆線周波数あたり1つの正規化済みの画像)。
上記隆線周波数の逆数に等しい周期Piは、n個の最高確率と関連付けられたn個の隆線周波数の各々に対応する。従って、このステップS104は、隆線間の周期が同じであるように、すべての画像を標準化できるようにし、それは、参照周期Prefと呼ばれる。例えば、Pref=10ピクセルである。
従って、ソース画像は、修正後のその隆線周期が参照周期Prefと等しくなるように正規化される。W及びHがそれぞれ、ピクセル数を単位とするソース画像の幅及び高さである場合は、n個の周期Piの各々に対して、正規化済みの画像Iiの寸法がW*Pref/Pi及びH*Pref/Piと等しくなるようにリサンプリングすることによって、ソース画像が正規化される。例えば、P1=5、P2=10、P3=15ピクセルと等しいニューラルネットワークによって3つの隆線周波数延いては3つの異なる周期が得られる場合は、ソース画像から3つの正規化済みの画像が得られる。第1の正規化済みの画像I1は、正規化済みの画像の寸法が2*W及び2*Hと等しくなるようにソース画像をリサンプリングすることによって、周期P1を考慮することによって得られる。第2の正規化済みの画像I2は、周期P2がPrefと等しいため、ソース画像自体として得られる。第3の正規化済みの画像I3は、正規化済みの画像の寸法が10/15*W及び10/15*Hと等しくなるようにソース画像をリサンプリングすることによって、周期P3を考慮することによって得られる。画像のリサンプリングは、画像処理の分野では周知の方法である。画像のリサンプリングは、一般に、補間フィルタを使用するピクセルの補間(例えば、三次補間、二次補間、最近隣補間、双線形補間など)を含む。説明される実施形態は、これらのリサンプリング方法のみに限定されない。画像の寸法の増大又は縮小を可能にするいかなるリサンプリング方法も使用することができる。
特定の実施形態では、n=1(すなわち、最高確率と関連付けられた1つの周波数のみ)が考慮される。この事例では、単一の正規化済みの画像I1が得られる。しかし、ニューラルネットワークによる隆線周波数の予測は不完全であるため、ネットワークから出現した確率ベクトルが高くマーク付けされたピークを呈さない場合は、正しい周波数が実際に抽出されることを保証するために、n個の最高確率と関連付けられたn個の周波数に対応するn個の主要なピーク(n≧2)(例えば、最高確率と関連付けられた3つの周波数(すなわち、n=3))が考慮される。
ステップS106では、n個の正規化済みの画像の各々から、指紋からのシグネチャの抽出が行われる。より正確には、シグネチャを生成するために、上記指紋から特性が抽出される。このシグネチャは、後続の識別のために指紋の有用な情報をコード化したものである。従って、n個のシグネチャSi(i∈[1;n])が得られる(この事例では、1つの標準画像Iiあたり1つ)。特定の実施形態では、抽出される特性は、図4に示される特定のポイントの場所(特徴点と呼ばれる)であり、分岐点(a)、線の終端点(b)、島状(c)又は湖状(d)に相当する。より一般的には、特徴点は、隆起線の連続性が変化する所に位置するポイントである。図4に示されない他のタイプの特徴点が存在する。従って、指紋のシグネチャは、一定数の特徴点で構成され、各特徴点は、パラメータ(例えば、座標、向きなど)のセットを表す。例えば、15~20個の特徴点が正しく位置することで、数百万の例の中で指紋を識別することが可能である。変形実施形態では、指紋のシグネチャを得るために、特徴点に加えて、他の情報(例えば、指紋の一般的なパターンなど)又はより複雑な情報(隆線の形など)が使用される。
シグネチャの抽出は、一般に、有用な情報の大部分を引き出すための画像のフィルタリング(例えば、コントラストの増加、ノイズの低減)や、特徴点が抽出される白黒画像を得るためのフィルタリング済みの画像のスケルトン化を含む。抽出された特徴点の中で、最も信頼できるもの(例えば、約15個)のみが保持される。
これらのn個のシグネチャは、有利には、問題の指紋が、データベースに指紋が格納されている人物に属するかどうかを判断するために使用することができる。この目的のため、問題の指紋と関連付けられたn個のシグネチャSiとデータベースの指紋のM個の抽出シグネチャ(Mは、正の整数である)との比較が2つ一組で行われる。抽出された上記n個のシグネチャSiの少なくとも1つが、データベースに格納された参照指紋の抽出シグネチャと同様である場合は、問題の指紋は、データベースにおいてこの参照指紋と関連付けられた個人に属するものとして識別される。
指紋のシグネチャは従来方式では特徴点を定義する点群であるため、2つのシグネチャ間の比較は、本質的には、2つの点群間の比較である。比較スコアは、これらの2つの点群がどのポイントで重なり合うかを推定するマークである。2つの点群が重なり合う場合は、スコアは高くなり、そうでなければ、スコアは低くなる。スコアが高い場合は、シグネチャは同様であり、そこから、指紋が同じ個人に属すると結論付けることができる。この目的のため、指紋シグネチャを比較するためのいかなる方法も使用することができる。
従って、特定の実施形態では、2つ一組でのn×M比較が実行される。各比較に対して、スコアが計算される。得られた最大スコアは保持される。この最大スコアが事前に定義された閾値より高い場合は、その計算のために使用されたシグネチャは同様である。従って、問題の指紋は、データベースにおいて参照指紋と関連付けられた個人に属するものとして識別され、そのシグネチャは、この最大スコアを計算するために使用されたものである。そうでなければ、問題の指紋は、データベースのどの参照指紋とも一致せず、従って、認証されない。
図3は、特定の実施形態による、畳み込みニューラルネットワークアーキテクチャを示す。畳み込みニューラルネットワークアーキテクチャは、処理層のスタックによって形成され、
- 少なくとも1つの畳み込み層CONV1及びCONV2
- 少なくとも1つの補正層ReLU
- 中間画像のサイズを低減することによって(サブサンプリングによる場合が多い)情報を圧縮できるようにする少なくとも1つのプーリング層POOL
- 少なくとも1つのいわゆる「完全に接続された」線形結合層FC
を含む。
畳み込み層は、畳み込みカーネルによる1つの畳み込み又は相次ぐ多数の畳み込みを含む。畳み込みカーネルによる入力データの各畳み込みの出力側では、上記入力データを表す特性セットが得られる。得られる特性は、事前に定義されたものではなく、訓練段階の間にニューラルネットワークによって学習されたものである。訓練段階の間、畳み込みカーネルは、所定の問題に対する関連特性を抽出するために「学習する」ように発展する。
補正層は、各畳み込みの出力側で得られたデータに対していわゆる活性化数学関数を実行する。例えば、f(x)=max(0,x)によって定義されるReLU(「正規化線形ユニット(Rectified Linear Unit)」の頭字語)補正が使用される。この関数は、「非飽和活性化関数」とも呼ばれ、畳み込み層の受信フィールドに影響を及ぼすことなく、決定関数及びネットワーク全体の非線形プロパティを増加する。他の関数(例えば、双曲線正接関数)も適用することができる。
プーリング層は、2つの畳み込みの間の中間層である。各プーリング段階の目的は、入力として受信するデータの重要な特性を維持しながら、これらの入力データのサイズを低減することである。プーリング段階は、畳み込みニューラルネットワークにおける計算の数を低減できるようにする。具体的には、最もよく使用されるプーリングタイプは、最大及び平均であり、表面の最大値及び平均値がそれぞれ考慮される。
線形結合層は、畳み込みであるか否かにかかわらず、常に、ニューラルネットワークの最終段階を構成する。この段階は、入力としてベクトルを受信し(入力ベクトルと呼ばれる)、出力として新しいベクトルを生成する(出力ベクトルと呼ばれる)。この目的のため、線形結合層は、線形結合を入力ベクトルの成分に適用する。線形結合段階は、事前に定義されたクラスの数Nに従ってニューラルネットワークの入力データを分類できるようにする。本事例では、各クラスは、隆線周波数値に対応する。従って、サイズNの出力ベクトルが返される。出力ベクトルの各成分は、隆線周波数と関連付けられ、ニューラルネットワークの入力側の指紋画像が上記隆線周波数を有する確率を表す。
畳み込みニューラルネットワークアーキテクチャの最も一般的な形態は、少数のConv-ReLU層に続いてプール層を積層し、十分に小さなサイズの空間に入力が低減されるまでこのスキームを繰り返したものである。
入力ベクトルの各成分は、異なる方法で出力ベクトルに寄与し得る。これを行うため、線形結合が適用される際には、この成分が表す特性に与えることが望まれる重要性に従って、異なる重みが各成分に適用される。線形結合段階の線形結合の後には、一般に、出力ベクトルを確率分布に変換する層が続く。畳み込みニューラルネットワークは、畳み込みカーネルを変更するために学習するのと同じ方法で、線形結合段階の重みの値を学習する。線形結合段階の重み及び畳み込みカーネルの特性は、畳み込みニューラルネットワークのパラメータを構成すると言われている。
ステップS102で使用されるニューラルネットワークのパラメータは、ステップS100で使用されたものと同一の変換によって周波数領域に変換された指紋の画像及び既知の隆線周波数から学習によって得られたものである。従って、ニューラルネットワークの入力画像及び期待出力が分かっていることで、ニューラルネットワークのパラメータを決定すること(すなわち、学習すること)が可能である。この学習は、費用関数を使用することによって従来方式で行われる。すなわち、費用関数を最小化しながら、必要な出力(すなわち、既知の隆線周波数)を得られるようにするニューラルネットワークのパラメータを決定するということである。従って、学習の間、ニューラルネットワークは、周波数領域に変換された指紋の画像を入力として受信し、隆線周波数確率ベクトルを出力として得る。指紋の隆線周波数に対応するその成分は1であり、その他の成分はすべて0である。従って、学習は、ネットワークができる限りロバストであるように、考えられるすべての隆線周波数のできる限り多くの指紋画像を与えることからなる。
ニューラルネットワークが正しく訓練されていることをチェックするのが普通である。これを行うため、ニューラルネットワークの訓練に対する目的は果たさなかったが、その隆線周波数が既知である指紋画像(検証画像と呼ばれる)が使用される。従って、ニューラルネットワークがこれらの検証画像に対する正しい隆線周波数を供給しているかがチェックされる。一般に、誤り率が高過ぎる場合は、ニューラルネットワークはもう一度訓練される。
図5は、特定の実施形態による、シグネチャ抽出デバイス100のハードウェアアーキテクチャの例を概略的に示す。一実施形態では、シグネチャ抽出デバイスは、クライアントデバイス10に含まれる。
図5に示されるハードウェアアーキテクチャの例によれば、シグネチャ抽出デバイス100は、通信バス1000によって接続された、プロセッサ又はCPU(中央処理装置)1001と、ランダムアクセスメモリRAM 1002と、読み取り専用メモリROM 1003と、ハードディスクなど又は記憶媒体リーダ(例えば、SD(セキュアデジタル)カードリーダ)などのストレージユニット1004と、シグネチャ抽出デバイス100が情報の送信又は受信を行えるようにするための少なくとも1つの通信インタフェース1005とを含む。
プロセッサ1001は、ROM 1003から、外部のメモリ(図示せず)から、記憶媒体(SDカードなど)から又は通信ネットワークから、RAM 1002にロードされた命令を実行することができる。シグネチャ抽出デバイス100が始動すると、プロセッサ1001は、RAM 1002から命令を読み取り、それらの命令を実行することができる。これらの命令は、プロセッサ1001によって図2に関連して説明される方法のすべて又は一部を実施するコンピュータプログラムを形成する。一般に、シグネチャ抽出デバイス100は、図2に関連して説明される方法のすべて又は一部を実施するように構成された電子回路を含む。
図2及び3に関連して説明される方法は、例えば、DSP(デジタル信号プロセッサ)又はマイクロコントローラなどのプログラマブルマシンによって命令セットを実行することによってソフトウェア形態で実施することも、例えば、FPGA(フィールドプログラマブルゲートアレイ)又はASIC(特定用途向け集積回路)などのマシン又は専用コンポーネントによってハードウェア形態で実施することもできる。
1 システム
10 クライアントデバイス
12 サーバ
100 シグネチャ抽出デバイス
1000 通信バス
1001 プロセッサ
1002 ランダムアクセスメモリ
1003 読み取り専用メモリ
1004 ストレージユニット
1005 通信インタフェース

Claims (10)

  1. ソース画像に示される指紋のシグネチャを抽出するための方法であって、
    - 前記ソース画像を周波数領域に変換すること(S100)と、
    - 訓練済みの畳み込みニューラルネットワークを前記変換済みの画像に適用することであって、前記ニューラルネットワークが、N個の隆線周波数のセットの各隆線周波数に対して、前記ソース画像がその隆線周波数として前記隆線周波数を有する確率を出力として決定し、Nが、正の整数である、適用することと、
    - n個の最高確率と関連付けられたn個の隆線周波数を選択することであって、n≧2及びN以下である、選択することと、
    - 前記n個の隆線周波数の各々の決定に応答して、前記ソース画像を正規化すること(S104)と、
    - 前記n個の正規化済みの画像から前記指紋のn個のシグネチャを抽出すること(S106)と
    を含む、方法。
  2. 前記ソース画像を前記周波数領域に変換すること(S100)が、フーリエ変換を適用することを含む、請求項1に記載の方法。
  3. 前記畳み込みニューラルネットワークが、U-Netタイプのものである、請求項1又は2に記載の方法。
  4. 前記n個の正規化済みの画像から前記指紋のn個のシグネチャを抽出すること(S106)が、前記指紋に属する特徴点の特性を抽出することを含む、請求項1~3のいずれか一項に記載の方法。
  5. 前記特徴点の特性が、前記特徴点の位置及び/又は向きを含む、請求項4に記載の方法。
  6. 前記n個の抽出シグネチャを個人と関連付けられた参照指紋の少なくとも1つの抽出シグネチャと比較することと、前記n個の抽出シグネチャの少なくとも1つが前記参照指紋の前記少なくとも1つの抽出シグネチャと同様である場合は、前記ソース画像に示される前記指紋が前記個人に属するという事実を識別することとをさらに含む、請求項1~5のいずれか一項に記載の方法。
  7. 前記畳み込みニューラルネットワークのパラメータが、前記隆線周波数が既知である参照指紋のデータベースから学習されたものである、請求項1~6のいずれか一項に記載の方法。
  8. ソース画像に示される指紋のシグネチャを抽出するためのデバイスであって、
    - 前記ソース画像を周波数領域に変換するための手段と、
    - 訓練済みの畳み込みニューラルネットワークを前記変換済みの画像に適用するための手段であって、前記ニューラルネットワークが、N個の隆線周波数のセットの各隆線周波数に対して、前記ソース画像がその隆線周波数として前記隆線周波数を有する確率を出力として決定し、Nが、正の整数である、手段と、
    - n個の最高確率と関連付けられたn個の隆線周波数を選択するための手段であって、n≧2及びN以下である、手段と、
    - 前記n個の隆線周波数の各々の決定に応答して、前記ソース画像を正規化するための手段と、
    - 前記n個の正規化済みの画像から前記指紋のn個のシグネチャを抽出するための手段と
    を含む、デバイス。
  9. プログラムがプロセッサによって実行されると、請求項1~7のいずれか一項に記載の方法を前記プロセッサによって実施するための命令を含むことを特徴とするコンピュータプログラム製品。
  10. 命令がプロセッサによって実行されると、請求項1~7のいずれか一項に記載の方法を前記プロセッサによって実施するための前記命令を格納することを特徴とする記憶媒体。
JP2021205583A 2020-12-21 2021-12-17 指紋のシグネチャを抽出するための方法及び同方法を実施するためのデバイス Pending JP2022098475A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2013844 2020-12-21
FR2013844A FR3118243B1 (fr) 2020-12-21 2020-12-21 Procede d’extraction d’une signature d’une empreinte digitale et dispositif mettant en oeuvre ledit procede

Publications (1)

Publication Number Publication Date
JP2022098475A true JP2022098475A (ja) 2022-07-01

Family

ID=75539440

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021205583A Pending JP2022098475A (ja) 2020-12-21 2021-12-17 指紋のシグネチャを抽出するための方法及び同方法を実施するためのデバイス

Country Status (4)

Country Link
US (1) US11715324B2 (ja)
EP (1) EP4016381A1 (ja)
JP (1) JP2022098475A (ja)
FR (1) FR3118243B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11804068B2 (en) * 2022-04-04 2023-10-31 Rovi Guides, Inc. Systems and methods for image feature recognition using a lensless camera

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6466686B2 (en) * 1998-01-07 2002-10-15 International Business Machines Corporation System and method for transforming fingerprints to improve recognition
US7489807B2 (en) * 2003-08-07 2009-02-10 Kyungtae Hwang Statistical quality assessment of fingerprints
JP5563231B2 (ja) * 2009-03-25 2014-07-30 日本電気株式会社 縞模様画像鑑定装置、縞模様画像鑑定方法及びプログラム
US10339362B2 (en) * 2016-12-08 2019-07-02 Veridium Ip Limited Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10198612B1 (en) * 2015-07-29 2019-02-05 Morphotrust Usa, Llc System and method for scaling biometric images
FR3102600B1 (fr) * 2019-10-24 2021-10-08 Idemia Identity & Security France Procédé de segmentation d’une image d’entrée représentant au moins une empreinte biométrique au moyen d’un réseau de neurones à convolution

Also Published As

Publication number Publication date
US20220198824A1 (en) 2022-06-23
FR3118243B1 (fr) 2023-06-30
EP4016381A1 (fr) 2022-06-22
FR3118243A1 (fr) 2022-06-24
US11715324B2 (en) 2023-08-01

Similar Documents

Publication Publication Date Title
US10789465B2 (en) Feature extraction and matching for biometric authentication
US7072523B2 (en) System and method for fingerprint image enhancement using partitioned least-squared filters
JP7130905B2 (ja) フィードフォワード畳み込みニューラルネットワークを使用した高速且つ堅牢な皮膚紋理の印のマニューシャの抽出
Zhang et al. Blind image quality assessment with improved natural scene statistics model
US11263437B2 (en) Method for extracting a feature vector from an input image representative of an iris by means of an end-to-end trainable neural network
CN106981077A (zh) 基于dce和lss的红外图像和可见光图像配准方法
CN111191568A (zh) 翻拍图像识别方法、装置、设备及介质
CN113723309A (zh) 身份识别方法、身份识别装置、设备及存储介质
JP2008102611A (ja) 画像処理装置
US11315358B1 (en) Method and system for detection of altered fingerprints
US20040218790A1 (en) Print segmentation system and method
JP2022098475A (ja) 指紋のシグネチャを抽出するための方法及び同方法を実施するためのデバイス
JP2014056442A (ja) 画質推定装置、画質推定方法および画質推定プログラム
Patel et al. Performance improvement in preprocessing phase of fingerprint recognition
CN114399495A (zh) 图像清晰度的计算方法、装置、设备及存储介质
Ghafoor et al. Robust palmprint identification using efficient enhancement and two‐stage matching technique
CN114926348A (zh) 一种去除低照度视频噪声的装置和方法
Zhao et al. Image Denoising Algorithm Combined with SGK Dictionary Learning and Principal Component Analysis Noise Estimation
Motwakel et al. Fingerprint Image Enhancement and Quality Analysis–A Survey
KR20230065125A (ko) 기계 학습 모델의 트레이닝 방법 및 전자 장치
JP2006318309A (ja) 情報処理方法、情報処理装置、コンピュータプログラム、記憶媒体
FR3122275A1 (fr) Procede de reconstruction d’une image d’une empreinte digitale a partir d’une image deformee
CN117557889A (zh) 一种图像伪造检测方法和系统
Zheng et al. Weighted MLS-SVM for approximation of directional derivatives
Kocevar et al. Analysis of the influence of non-directional algorithms on fingerprint image enhancement