JPWO2011114520A1 - 識別装置、識別方法、及びプログラム - Google Patents

識別装置、識別方法、及びプログラム Download PDF

Info

Publication number
JPWO2011114520A1
JPWO2011114520A1 JP2012505417A JP2012505417A JPWO2011114520A1 JP WO2011114520 A1 JPWO2011114520 A1 JP WO2011114520A1 JP 2012505417 A JP2012505417 A JP 2012505417A JP 2012505417 A JP2012505417 A JP 2012505417A JP WO2011114520 A1 JPWO2011114520 A1 JP WO2011114520A1
Authority
JP
Japan
Prior art keywords
biometric data
input
data
registered
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012505417A
Other languages
English (en)
Other versions
JP5660126B2 (ja
Inventor
幸弘 安孫子
幸弘 安孫子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2011114520A1 publication Critical patent/JPWO2011114520A1/ja
Application granted granted Critical
Publication of JP5660126B2 publication Critical patent/JP5660126B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

入力生体データの特徴に基づいて、複数の登録生体データがいずれか少なくとも1つのクラスに分類されて登録されている複数のクラスから、入力生体データを分類する2つ以上のクラスを決定する分類決定部と、入力生体データと、入力生体データが分類された2つ以上の各クラスに登録されている各登録生体データとの類似度を算出する算出部と、入力生体データとの類似度に基づいて、入力生体データが分類された2つ以上の各クラスに登録されている登録生体データの中から入力生体データのユーザと同じユーザのデータを識別する識別部とを備える識別装置。

Description

本発明は、登録された生体データの中から入力された生体データと同じユーザの生体データを識別する識別装置に関する。
パーソナルコンピュータ(以降、PC)などの情報処理機器におけるセキュリティの一例として、生体情報(バイオメトリクス)による個人認証がある。生体情報による個人認証に指紋が用いられる場合、静電容量式指紋センサや光学式指紋センサにより、ユーザの指から指紋が画像情報として採取される。ユーザの指紋は、例えば、指紋センサの採取面に接触しうる隆線と、同採取面に接触しない谷線とからなる紋様の画像情報として採取される。採取された指紋画像である生体データから特徴情報が抽出され、抽出された特徴情報と予め登録されている特徴情報とが照合されることにより、ユーザが本人であるか否かの判定、すなわち、個人認証が行われる。生体データとしての指紋画像の特徴情報には、例えば、隆線の分岐点や端点の位置情報などがある。なお、生体データは、ユーザの生体から採取されるデータであり、例えば、指紋画像である。特徴情報は、生体データから抽出された、ユーザの生体の特徴に関する情報である。
また、入力された生体データ又は特徴情報と登録された生体データ又は特徴情報とを照合する方法として、1対N認証と呼ばれる方法がある。1対N認証は、識別子を入力するなどのユーザを特定するための処理を実施せずに、予め登録されている複数の生体データ又は特徴情報から、入力された生体データのユーザと一致するユーザの生体データ又は特徴情報を識別する方法である。1対N認証では、入力された生体データ又は特徴情報が登録された全ての生体データ又は特徴情報に対して照合される場合、処理が煩雑になるため、照合対象となる生体データ又は特徴情報を絞り込んでから照合が行われることがある。例えば、クラス分類を用いて、入力された生体データ又は特徴情報が生体データの類似性に基づいて分類されたクラスに登録される生体データ又は特徴情報に照合対象が絞り込まれる技術がある。
特開2006−39777号公報 特開2006−72429号公報
しかしながら、クラス分類を用いて1対N認証が行われる場合には、生体データの登録時又は識別時にクラス分類が失敗すると、登録されている本人であっても拒否されたり、登録されていない人が受け入れられたりする可能性がある。すなわち、クラス分類を用いて1対N認証が行われる場合には、認証精度が低下するおそれがある。
例えば、生体情報を入力するためのセンサデバイスが指などの生体よりも小さい場合には、分類に必要なだけの生体情報が得られないことにより、クラス分類が失敗する可能性がある。
図24は、接触型センサデバイスによって取得された指紋の画像の例である。外側の破線で示される枠は、精度よく照合するために必要とされる範囲を示す。内側の直線で示される枠は、接触型センサデバイスによって読み取られる指紋画像の範囲を示す。
図24に示されるように、照合に必要とされる範囲に対して、センサデバイスの読み取り範囲が小さい場合には、クラス分類を行うための情報の不足によって、登録時および識別時の生体データのクラス分類が失敗する可能性が高くなる。
生体データのクラス分類が失敗すると、登録された本人であるにもかかわらず認証が失敗する確率(本人拒否率)が低下したり、登録された本人以外の他人が認証される確率(他人受入率)が向上したりする。クラス分類の失敗の結果として、認証精度が低下してしまうことがある。
本発明の一態様は、認証精度を向上する照合装置を提供することを目的とする。
本発明の態様の一つは、識別装置である。識別装置は、入力生体データの特徴に基づいて、複数の登録生体データがいずれか少なくとも1つのクラスに分類されて登録されている複数のクラスから、前記入力生体データを分類する2つ以上のクラスを決定する分類決定部と、
前記入力生体データと、前記入力生体データが分類された前記2つ以上の各クラスに登録されている各登録生体データとの類似度を算出する算出部と、
前記入力生体データとの類似度に基づいて、前記2つ以上の各クラスに登録されている登録生体データの中から前記入力生体データのユーザと同じユーザのデータを識別する識別部と
を備える。
本発明の他の態様の一つは、上述した識別方法である。また、本発明の他の態様は、情報処理装置に識別方法を実行させるプログラム、及び当該プログラムを記録したコンピュータ読み取り可能な記録媒体を含むことができる。
開示の識別装置によれば、認証精度を向上することができる。
識別装置の構成例を示す図である。 識別装置の外観の一例を示す図である。 入力された指紋画像の一例を示す図である。 信頼度の算出に用いられるニューラルネットワークの例を示す図である。 格納部に保持されるデータのデータ構造の一例を示す図である。 ユーザ情報のデータ構造の一例を示す図である。 照合対象抽出用情報のデータ構造の一例を示す図である。 類似度と他人受入率の関係の例を示す図である。 識別装置の生体データの登録処理のフローの例を示す図である。 識別装置の生体データの識別処理のフローの例を示す図である。 識別装置の生体データの識別処理のフローの例を示す図である。 指紋の特異点の例を示す図である。 Whorl型の指紋の紋様の特徴の例を示す図である。 右Loop型の指紋の紋様の特徴の例を示す図である。 左Loop型の指紋の紋様の特徴の例を示す図である。 Arch型の指紋の紋様の特徴の例を示す図である。 Tented Arch型の指紋の紋様の特徴の例を示す図である。 Whorl型,右Loop型,左Loop型,Arch型,及びTented Arch型それぞれの特徴を表形式にまとめたものである。 識別装置の構成例を示す図である。 特異点と中心軸とに基づくクラス分類と信頼度とが定められた表の例を示す。 入力データの例を示す図である。 入力データの例を示す図である。 登録時と識別時とで、生体データの入力範囲が異なる場合の生体データの例を示す図である。 識別装置の構成例を示す図である。 入力された生体データ(指紋画像)の入力範囲と部分領域抽出部によって抽出された部分領域との関係の例を示す図である。 入力された生体データ(指紋画像)の入力範囲と部分領域抽出部によって抽出された部分領域との関係の例を示す図である。 入力された生体データ(指紋画像)の入力範囲と部分領域抽出部によって抽出された部分領域との関係の例を示す図である。 特異点を含まない生体データ(指紋画像)の例を示す。 特徴情報の生成処理フローの例を示す図である。 識別装置の構成例を示す図である。 接触型センサデバイスによって取得された指紋の画像の例である。
以下、図面を参照して、本発明の実施をするための形態(以下、実施形態という)について説明する。以下の実施形態の構成は例示であり、本発明は実施形態の構成に限定されない。
<第1実施形態>
第1実施形態において、識別装置は、登録時に生体情報の特徴情報を1つ又はそれ以上のクラスに分類して登録する。識別装置は、照合時にも、入力された生体情報を1つ又はそれ以上のクラスに分類する。識別装置は、入力された生体情報と同じ1つ以上のクラスに登録される特徴情報のそれぞれと入力された生体情報とを照合して、入力された生体情報の識別を行う。第1実施形態では、生体情報として指紋を用いる個人認証の処理について説明される。
<<識別装置の構成>>
図1は、識別装置の構成例を示す図である。また、図2は、識別装置の外観の一例を示す図である。
識別装置1は、例えば、図2に示されるように、指紋センサおよびディスプレイを備えるコンピュータである。識別装置1は、例えば、識別装置1としてのコンピュータにログインするユーザの認証を行う。図2に示されるコンピュータは、プロセッサ,主記憶装置,補助記憶装置,入力装置,出力装置,及びネットワークインターフェース等を備える。
コンピュータは、プロセッサが記録媒体に記録されたプログラムを主記憶装置の作業領域にロードして実行し、プログラムの実行を通じて、所定の目的に合致した機能を実現することができる。
プロセッサは、例えば、CPU(Central Processing Unit)やDSP(Data Signal Processor)である。主記憶装置は、例えば、RAM(Randam Access Memory)やROM(Read Only Memory)を含む。主記憶装置は、CPUに作業領域を提供する。補助記憶装置は、例えば、EPROM(Erasable Programmable ROM),又は,HDD(Hard Disk Drive)などの不揮発性の記録媒体である。また、補助記憶装置は、DVD(Digital Versatile Disc)やCD(Compact Disc)などのディスク記録媒体、又は、フラッシュメモリ等の可搬記録媒体を含む。
入力装置は、指紋センサに加え,キーボード,ポインティングデバイス,マウス,カメラのような映像や画像の入力装置,およびマイクロフォンなどの音声の入力装置を含む。出力装置は、ディスプレイに加え,プリンタ,及びスピーカなどの音声の出力装置を含む。
ネットワークインターフェースは、例えば、LAN(Local Area Network)インターフェースボートや、無線通信のための無線通信回路である。
指紋センサは、例えば、静電容量式指紋センサや光学式指紋センサである。また、指紋センサは、PCに内蔵されていてもよいし、外付けの別装置であってもよい。第1実施形態では、静電容量式指紋センサを指紋センサとして用いる場合について説明される。
識別装置1として使用されるコンピュータは、プロセッサによる記録媒体上のプログラムを実行することによって、特徴抽出部12,登録部13,照合対象抽出部14,照合部15,閾値設定部16,判定部17として動作する。入力部11は、識別装置1として使用されるコンピュータに備えられた静電容量式指紋センサである。また、格納部18は、静的に、又は、プログラムの実行を通じて補助記憶装置の記憶領域に作成される。
入力部11は、静電容量式指紋センサであり、ユーザの指の長さよりも十分に短く、また、指の幅よりも狭い小面積の矩形状の指紋画像の採取面を有している。入力部11は、採取面に接して相対的に移動するユーザの指の指紋を映像化し、ユーザの指の指紋について複数の部分画像を連続的に採取する。入力部11は、採取されたユーザの指紋の複数の部分画像を特徴抽出部12に出力する。
特徴抽出部12は、入力部11から、ユーザの指紋の部分画像を入力として得る。特徴抽出部12は、入力された複数の部分画像から、ユーザの指の指紋の画像を生体データとして再構成し、再構成された生体データから特徴情報を抽出する。
図3は、入力された指紋画像の一例を示す図である。静電容量式指紋センサによって採取される指紋画像は、採取面に接触しうる隆線と採取面に接触しない谷線とからなる紋様である。マニューシャ(特徴点)には、例えば、指紋の隆線が途切れた端である端点、及び、指紋の隆線が2つ以上に分岐した分岐点がある。
特徴抽出部12は、再構成された生体データ(指紋画像)から、端点及び分岐点を抽出し、抽出された端点及び分岐点の位置及び方向を検出する。生体データ(指紋画像)から抽出された端点や分岐点の情報は、当該生体データの特徴情報と呼ばれる。
特徴抽出部12は、分類部121を含む。識別装置1には、指紋の紋様の特徴に基づいた複数のクラスが予め設定されている。分類部121は、生体データを識別装置1に予め設定された複数のクラスのうちの1つ以上のクラスに分類する。
分類部121は、信頼度算出部121aを含む。信頼度算出部121aは、入力された生体データの、それぞれのクラスに対する信頼度を算出する。信頼度は、生体データの、それぞれのクラスらしさ、すなわち、それぞれのクラスに分類されるための条件を満たす度合いを示す数値である。
信頼度算出部121aは、例えば、予め設定された複数の指紋パターンを教師データとする学習器によって実現される。例えば、信頼度算出部121aは、ニューラルネットワーク又は遺伝的アルゴリズムなどの非線形的なクラス分類を実現する学習器を利用することができる。
図4は、信頼度の算出に用いられるニューラルネットワークの例を示す図である。信頼度算出部121aは、例えば、図4に示されるニューラルネットワークを用いて信頼度を算出する。
ニューラルネットワークは、図4に示されるように、入力層、中間層、出力層の3層からなる誤差逆伝播法によって実現される。ニューラルネットワークが信頼度算出部121aの信頼度の算出に用いられる場合には、出力層にはクラスの数だけニューロンが準備される。ニューラルネットワークに含まれる各ニューロンは、予め教師データとしての生体データの各クラスに対する信頼度を学習済みである。
信頼度算出部121aは、ニューラルネットワークに、例えば、特徴情報に含まれる端点の数及び分岐点の数などの生体データの特徴情報を入力し、出力層の各ニューロンから出力を得る。信頼度算出部121aは、出力層の各ニューロンの出力結果を、入力された生体データの各クラスに対する信頼度とする。
分類部121は、信頼度算出部121aによって算出された生体データの特徴情報の各クラスに対する信頼度が分類閾値を超えるクラスに生体データの特徴情報を分類する。このとき、信頼度が分類閾値を超えるクラスが複数ある場合には、分類部121は、生体データの特徴情報を該当する複数のクラスに分類する。
特徴抽出部12は、登録処理時には、ユーザ識別子,生体データの特徴情報,信頼度算出部121aによって算出された各クラスに対する信頼度,及び分類部121によって分類されたクラスを登録部13に出力する。特徴抽出部12は、識別処理時には、分類部121によって生体データの特徴情報が分類されたクラスを照合対象抽出部14に出力し、ユーザの生体データの特徴情報と、特徴情報の各クラスに対する信頼度とを照合部15に出力する。
登録部13は、格納部18に情報を格納するとともに、格納部18に保持される情報の更新を行う。登録部13は、特徴抽出部12から、ユーザ識別子と、該ユーザの生体データの特徴情報と、各クラスに対する信頼度と、分類されたクラスとを入力として得る。登録部13は、情報の更新日時などの必要な情報と共に、特徴抽出部12から入力された生体データに関する情報を格納部18に格納する。
格納部18には、ユーザ情報181と照合対象抽出用情報182とが保持されている。ユーザ情報181は、識別装置1に登録されているユーザの生体データに関する情報であって、ユーザごとにデータが保持される。照合対象抽出用情報182は、入力された生体データの識別処理時に、入力された生体データの照合対象を効率よく抽出するために用いられる、各クラスに登録される生体データに関する情報を含むクラスに関する情報である。
図5は、格納部18に保持されるデータのデータ構造の一例を示す図である。格納部18には、ユーザ情報総数と、ユーザ情報181と、特徴情報総数と、照合対象抽出用情報182とが格納されている。ユーザ情報総数は、格納部18に保持されるユーザ情報の数を示す数値である。特徴情報総数は、格納部18に保持される特徴情報の数を示す数値である。一人のユーザにつき複数の生体データを登録する場合があるので、ユーザ情報総数と特徴情報総数は異なる数値を示すことがある。また、ユーザ情報総数と特徴情報総数とは、新たにユーザ情報及び特徴情報が格納部18に格納される際に、登録部13によって更新される。
図6は、ユーザ情報181のデータ構造の一例を示す図である。ユーザ情報181は、識別装置1に登録されるユーザに関する情報であって、ユーザ識別子,ユーザ名,グループ名,生成時刻,更新時刻,生体データ情報数,及び生体データごとの生体データ情報1811を含む。
ユーザ識別子は、ユーザを識別するための識別子であり、各ユーザ間で重複しない英数字の文字列である。ユーザ名は、ユーザの本名であってもニックネームであってもよく、生体データの登録時にユーザによって指定される。例えば、ユーザ名は、識別装置1としてのコンピュータにログインする際のユーザ名である。グループ名は、当該ユーザが属するグループの名前であって、例えば、部署ごとのグループである。生成時刻は、当該ユーザ情報が格納部18に格納された時刻である。更新時刻は、当該ユーザ情報が更新された時刻である。生成時刻及び更新時刻は、当該ユーザ情報が登録及び更新される際に、登録部13によって格納される。生体データ情報数は、識別装置1に登録されている当該ユーザの生体データの生体データ情報1811の数を示す数値である。生体データ情報数は、当該ユーザの生体データの生体データ情報1811が新たに登録される際に、登録部13によって更新される。生体データ情報1811は、生体データ情報数が示す数値の分だけ当該ユーザ情報181に含まれる。
生体データ情報1811は、当該ユーザの識別装置1に登録される生体データの特徴情報に関する情報である。生体データ情報1811は、特徴情報識別子,生体データ種別,更新時刻,特徴情報,クラス数,クラスごとのクラス情報1811−1を含む。
特徴情報識別子は、識別装置1に登録される生体データの特徴情報を識別するための識別子であって、特徴情報間で重複のない英数字の文字列である。生体データ種別は、生体データの種類を示す。生体データ種別には、例えば、指紋,掌紋,鼻紋,掌形,掌静脈,指静脈,声紋,顔貌,耳介等がある。第1実施形態において、識別装置1の入力部11によって、ユーザの指紋画像が生体データとして入力されるので、生体データ情報1811の生体データ種別には、“指紋”が格納される。更新時刻は、当該生体データ情報1811が更新された時刻であって、更新される際に登録部13によって格納される。特徴情報は、特徴抽出部12から登録部13に入力され、登録部13によって登録された生体データの特徴情報である。クラス数は、識別装置1に設定されたクラスの数を示す数値である。
クラス情報1811−1は、識別装置1に設定された各クラスに関する情報であって、クラス識別子と信頼度とを含む。クラス識別子は、クラスを識別するための識別子であって、クラス間で重複のない英数字の文字列である。信頼度は、信頼度算出部121aによって算出された特徴情報の当該クラスに対する信頼度である。
図7は、照合対象抽出用情報182のデータ構造の一例を示す図である。照合対象抽出用情報182は、予め設定されるクラスごとに登録される生体データのリストを有する。
照合対象抽出用情報182は、登録クラスリスト数と、登録クラスごとの登録クラスリスト1821とを含む。登録クラスリスト数は、登録クラスリストの数であって、識別装置1に登録されているクラスの数と同じ数値である。
登録クラスリスト1821は、クラスに登録されている生体データの特徴情報のリストである。登録クラスリスト1821は、クラス識別子,クラス構成要素数,及びクラス構成要素数が示す数値分のクラス構成要素情報1821−1を含む。
クラス構成要素数は、当該クラスに分類される生体データの特徴情報の数を示す数値である。クラス構成要素数は、当該クラスに新たに生体データの特徴情報が登録される際に、登録部13によって更新される。
クラス構成要素情報1821−1は、当該クラスに分類されている生体データの特徴情報に関する情報である。クラス構成要素情報1821−1は、信頼度,ユーザ識別子,生体情報種別,特徴情報識別子,及び特徴情報格納位置情報を含む。信頼度は、信頼度算出部121aによって算出された当該生体データの特徴情報の当該クラスに対する信頼度である。特徴情報格納位置情報は、当該特徴情報が保持される位置、すなわち、当該特徴情報が格納されるユーザ情報181の生体データ情報1811を示す。
登録部13は、特徴抽出部12から、ユーザ識別子と、該ユーザの生体データの特徴情報と、各クラスに対する信頼度と、分類されたクラスとを入力として得ると、例えば、図6及び図7に示されるようなデータ構造のユーザ情報181と照合対象抽出用情報182とに登録する。
照合対象抽出部14は、生体データの識別処理時に、入力された生体データの特徴情報が分類部121によって分類されたクラスを、特徴抽出部12から入力として得る。
以降、生体データの識別処理時に識別装置1に入力される生体データの特徴情報は入力データと称される。識別装置1に登録されている生体データの特徴情報、すなわち、格納部18に保持される生体データの特徴情報は登録データと称される。
照合対象抽出部14は、登録データの中から、入力データが分類された1つ以上のクラスに含まれる登録データのうち、抽出用閾値以上の信頼度を有する登録データを、入力データの照合対象として抽出する。抽出用閾値は、入力データが分類された1つ以上のクラスに含まれる登録データが多い場合に、さらに、照合対象を絞り込むために用いられ、分類閾値と同じかそれより大きい値である。
照合対象抽出部14は、格納部18の照合対象抽出用情報182から、該当する登録データのリストを照合対象抽出結果情報として生成する。照合対象抽出結果情報は、入力データが分類されたクラスごとに生成される。照合対象抽出結果情報のデータ構造は、登録クラスリストと同一のデータ構造を利用できる。
なお、抽出用閾値と入力データ及び登録データをクラスに分類する際に用いられる分類閾値とが一致する場合には、登録クラスリストをそのまま照合対象抽出結果情報として用いることができる。
照合対象抽出部14は、照合対象抽出結果情報を照合部15と閾値設定部16とに出力する。
照合部15は、生体データの識別処理時に、特徴抽出部12からユーザの生体データの特徴情報(入力データ)と特徴情報の各クラスに対する信頼度を入力として得る。照合部15は、照合対象抽出部14から入力データが分類されたクラスごとの照合対象抽出結果情報を入力として得る。
照合部15は、入力データと、入力データが分類されたクラスごとの照合対象抽出結果情報に含まれる登録データとを照合し、入力データの各登録データに対する類似度を求める。マニューシャ法の場合は、入力データと登録データとの特徴情報間で対応づけられるマニューシャ(特徴点)同士のユークリッド距離の差や角度の差を用いて類似度を算出する。又は、マニューシャを利用する場合には、さらに特徴情報間で対応づけられる1組のマニューシャ間の隆線本数,1組のマニューシャ間の隆線及び谷線に沿った距離に基づいて類似度を算出してもよい。
照合部15は、入力データが分類されたクラスごとの照合対象抽出結果情報に含まれる各登録データに対する入力データの類似度を算出すると、照合対象抽出結果情報と、算出された類似度と、入力データの各クラスに対する信頼度とを判定部17に出力する。
閾値設定部16は、照合対象抽出部14から入力データが分類されたクラスごとの照合抽出結果情報を入力として得る。閾値設定部16は、入力データが分類された各クラスに対して、識別判定閾値を設定する。識別判定閾値は、入力データのユーザと同じユーザの登録データであることを判定するための、入力データと登録データとの類似度の閾値である。
例えば、閾値設定部16は、識別装置1の他人受入率(FAR:False Accept Rate)から、各クラスの他人受入率を求め、各クラスの他人受入率に応じて各クラスの識別判定閾値を決定する。クラスiに設定される識別判定閾値はTiと表記される。識別装置1全体に期待される他人受入率はFARと表記される。クラスiの他人受入率はFAR(Ti)と表記される。クラスiにおいて照合対象抽出部14によって照合対象として抽出された登録データの数、すなわち、クラスiにおいて抽出用閾値より大きい信頼度の登録データが識別装置1に登録される特徴情報の総数に占める割合はRiと表記される。
識別装置1の他人受入率FARとクラスiの他人受入率FAR(Ti)の関係は以下の式1で示される。
Figure 2011114520
特徴情報数Nに対して、1対1認証の他人受入率FAR11である認証手段を用いて1対N認証を行うとき、1対N認証の他人受入率FAR1Nは式2のように推測される。
Figure 2011114520
式2より、特徴情報が絞り込まれることによって、1対N認証のFAR1Nが低減される。反対に、他人受入率FAR1Nが一定である場合には、特徴情報数Nが絞り込まれた分だけ他人受入率FAR11が大きな値となる。すなわち、他人受入率FAR11を大きな値に緩和するには、特徴情報数Nを絞り込めばよい。
例えば、クラス1の登録データが占める割合R1が0.1、識別装置1に期待される他人受入率FARが0.0001である場合には、式1よりクラス1に期待される他人受入率FAR(T1)は0.001である。すなわち、照合対象の特徴情報を0.1に絞り込まれることによって、クラス1に期待される他人受入率FAR(T1)は識別装置1に期待される他人受入率FARの10倍に緩和される。閾値設定部16は、クラス1に期待される他人受入率FAR(T1)が0.001となるように、クラス1の識別判定閾値T1を決定する。
図8は、類似度と他人受入率の関係の例を示す図である。類似度と他人受入率の関係は離散的なデータとなるため、図8は、テーブルで定められた類似度と他人受入率の関係に、線形補完等で内挿されたものである。
図8に示されるように、類似度と他人受入率との間には、他人受入率が小さくなるほど類似度は大きくなり、他人受入率が大きくなるほど類似度は小さくなる関係がある。したがって、クラスiに期待される他人受入率FAR(Ti)を、特徴情報数Nを絞り込むことによって、識別装置1に期待される他人受入率FARよりも緩和することができ、クラスiの識別判定閾値を小さい値に設定することができる。
閾値設定部16は、クラスiに期待される他人受入率FAR(Ti)が求められると、例えば、格納部18に保持される図8に示されるような類似度と他人受入率との関係の表に基づいて、クラスiの識別判定閾値を決定する。
閾値設定部16は、入力データが分類された各クラスについて識別判定閾値を求める。閾値設定部16は、各クラスの識別判定閾値を求める際に、各クラスで共通した類似度と他人受入率との関係の表(図8)を用いてもよいし、クラスごとに異なる類似度と他人受入率との関係の表を用いてもよい。
閾値設定部16は、入力データが分類された各クラスの識別判定閾値を判定部17に出力する。
判定部17は、入力データが分類されたクラスごとの照合対象抽出結果情報,各照合対象抽出結果情報に含まれる各登録データに対する入力データの類似度,入力データの各クラスに対する信頼度,及び入力データが分類された各クラスの識別判定閾値を入力として得る。判定部17は、入力データが分類されたクラスのうち、入力データの信頼度が高いクラスから順に、入力データに対する登録データの類似度と、当該クラスの識別判定閾値とを比較する。まず、判定部17は、最も入力データの信頼度が高いクラスについて、各登録データの類似度と識別判定閾値との比較を行う。
判定部17は、当該クラスの識別判定閾値を超える類似度の登録データがある場合には、当該登録データは入力データと同一のユーザの生体データであることを判定する。判定部17は、当該登録データに対応付けられているユーザ識別子(照合対象抽出結果情報に含まれる)を識別結果として出力する。
また、当該クラスの識別判定閾値を超える類似度の登録データが複数ある場合には、判定部17は、最も類似度が大きい登録データを、入力データと同一のユーザの生体データであることを判定する。判定部17は、当該登録データに対応付けられたユーザ識別子を識別結果として出力する。
一方、登録データのうち、当該クラスの識別判定閾値を超える登録データがない場合には、判定部17は、次に信頼度の高いクラスについて、各登録データの類似度と識別判定閾値との比較を行う。
判定部17は、入力データと同一のユーザの生体データである登録データが識別されるまで、上記の処理を繰り返す。
入力データが分類された全てのクラスについて、各登録データの類似度と識別判定閾値との比較が行われた結果、入力データと同一のユーザの生体データであると識別される登録データがない場合には、判定部17は識別失敗を出力する。
また、判定部17は、入力データが分類された各クラスで最大の類似度を有し、且つ、類似度が識別判定閾値を超える登録データを抽出し、抽出された登録データの中で最大の類似度を有する登録データを識別結果としてもよい。入力データが分類された各クラスで最大の類似度を有し、且つ、類似度が識別判定閾値を超える登録データがない場合には、判定部17は、識別失敗を判定する。
分類部121は、態様における分類決定部に相当する。照合部15は、態様における算出部に相当する。判定部17は、態様における識別部に相当する。閾値設定部16は、設定部に相当する。
<<生体データの登録処理のフロー>>
図9は、識別装置1の生体データの登録処理のフローの例を示す図である。識別装置1は、ユーザの操作によって生体データの登録が指示されると、生体データの登録処理を開始する。
ユーザが入力部11を通じて生体データを入力する(OP1)。特徴抽出部12は入力部11に入力された生体データから特徴を抽出し、特徴情報を生成する(OP2)。
信頼度算出部121aが、特徴抽出部12によって生成された特徴情報を用いて、入力された生体データの特徴情報の各クラスに対する信頼度を算出する(OP3)。分類部121は、算出された信頼度が分類閾値を超えるクラスに入力された生体データの特徴情報を分類する(OP4)。分類部121によって、入力された生体データの特徴情報は、1つ以上のクラスに分類される。
登録部13は、分類部121によって分類されたクラスの登録クラスリストに入力された生体データの登録情報を登録する(OP5)。
以上のように、識別装置1は、生体データの特徴情報の各クラスに対する信頼度を算出し、信頼度に基づいて生体データの特徴情報をクラス分類し、1つ以上のクラスに生体データの特徴情報を登録する。
<<生体データの識別処理のフロー>>
図10A及び図10Bは、識別装置1の生体データの識別処理のフローの例を示す図である。識別装置1は、例えば、識別装置1としてのコンピュータにユーザがログインすると、ユーザの当該コンピュータの使用を認証するための生体データの識別処理を開始する。
ユーザによって入力部11を通じて生体データが入力される(OP11)。特徴抽出部12は入力部11に入力された生体データから特徴を抽出し、特徴情報を生成する(OP12)。
信頼度算出部121aが、特徴抽出部12によって生成された特徴情報を用いて、入力された生体データの特徴情報(以降、入力データ)の各クラスに対する信頼度を算出する(OP13)。分類部121は、算出された信頼度が分類閾値を超えるクラスに入力データを分類する(OP14)。分類部121によって、入力データは、1つ以上のクラスに分類される。
照合対象抽出部14は、格納部18に保持される照合対象抽出用情報182の中から、入力データが分類されたクラスに登録され、抽出用閾値よりも大きい信頼度を有する特徴情報(以降、登録データ)を抽出する(OP15)。照合対象抽出部14は、入力データが分類されたクラスごとに、照合対象抽出結果情報(図7参照)を生成する。
照合部15は、特徴抽出部12から入力される入力データと、照合対象抽出部14から入力される入力データが分類されたクラスごとの照合対象抽出結果情報に含まれる各特徴情報とを照合し、類似度を算出する(OP16)。閾値設定部16は、入力データが分類されたクラスそれぞれに識別判定閾値を設定する(OP17)。
判定部17は、照合部15によって算出された各登録データの類似度と、閾値設定部16によって設定された各クラスの識別判定閾値とを比較し、登録データの中から入力データのユーザの生体データを判定する(OP18)。具体的な処理は、以下の通りである(図10B)。
判定部17は、入力データが分類されたクラスの中から、入力データの信頼度が最も高いクラスを選択する(OP21)。判定部17は、選択されたクラスの識別判定閾値と、選択されたクラスの抽出用閾値より大きい信頼度の登録データの類似度とを比較する(OP22)。判定部17は、識別判定閾値を超える登録データがあるか否かを判定する(OP23)。
識別判定閾値を超える登録データがある場合には(OP23:Yes)、判定部17は、識別判定閾値を超える登録データのうち最も類似度が高い登録データを、入力データと同じユーザの生体データであると識別し、識別結果を成功とする(OP24)。その後処理が、OP19(図10A)に進む。
識別判定閾値を超える登録データがない場合には(OP23:No)、判定部17は、入力データが分類された全てのクラスについてチェックしたか否かを判定する(OP25)。
チェックしていないクラスが残っている場合には(OP25:No)、処理がOP21に戻り、判定部17は、入力データが分類されたクラスの中から次に入力データの信頼度が高いクラスを選択し、OP22、OP23の処理を繰り返す。
入力データが分類された全てのクラスについてチェックが完了した場合には(OP25:Yes)、入力データが分類された全てのクラスにおいて入力データと同じユーザの生体データが識別されないことが示される。したがって、判定部17は、識別結果を失敗とする(OP26)。その後処理がOP19に進む。
判定部17は、識別結果を出力する(OP19)。識別結果が成功の場合には、判定部17は、入力データと同一のユーザの生体データであると識別された登録データのユーザ識別子を出力する。識別結果が失敗の場合には、判定部17は、識別失敗を出力する。
<<第1実施形態の作用効果>>
第1実施形態の識別装置1は、登録時に生体データを1つ以上のクラスに分類して登録し、識別時にも入力された生体データを1つ以上のクラスに分類する。識別装置1は、入力された生体データが分類されたクラスに登録されている生体データと入力された生体データとを照合し、入力された生体データと同一のユーザの生体データを識別する。登録時及び識別時に、分類閾値よりも信頼度が大きいクラスが複数ある場合には生体データを複数のクラスに分類することで、1つのクラスのみに分類する場合に比べてクラス分類の失敗を低減することができ、認証性能を向上させることができる。
<第2実施形態>
第2実施形態において、識別装置は、特徴情報として指紋の特異点を用いる。また、第2実施形態において、識別装置は、特異点に基づいた指紋の紋様に着目してクラス分類を行う。なお、第2実施形態では、第1実施形態と共通する部分の説明は省略される。
図11は、指紋の特異点の例を示す図である。特異点は、例えば、指紋の紋様中の隆線が急激に変化する部分である。
特異点には、例えば、隆線のなす局率が高い指紋中心と、隆線又は谷線が3方向に広がっている三角州とがある。指紋中心はコア、三角州はデルタとも呼ばれる。
指紋中心には、指先を上方向と定めた場合に、上側に凸形状となっている指紋中心と下側に凸形状となっているものとがある。第2実施形態では、上側に凸形状の指紋中心は上凸コアと呼ばれる。下側に凸形状の指紋中心は下凸コアと呼ばれる。
指紋中心は、局率が高い部分から次第に局率が緩くなって隆線が伸びていく形状である。このとき、指紋中心から隆線が伸びていく方向を平均した方向は中心軸と呼ばれる。
第2実施形態では、特徴情報として、図11に示されるような、指紋中心や三角州などの特異点と中心軸とが用いられる。また、第2実施形態では、特異点と中心軸の位置関係によって分類される指紋の紋様の分類がクラスとして用いられる。
特徴点と中心軸とに基づいた指紋の紋様の分類には、例えば、Whorl型,右Loop型,左Loop型,Arch型,及びTented Arch型がある。
図12A,図12B,図12C,図12D,及び図12Eは、特徴点と中心軸とに基づいた指紋の紋様の分類の例を示す。図13は、Whorl型,右Loop型,左Loop型,Arch型,及びTented Arch型それぞれの特徴を表にまとめたものである。図12A,図12B,図12C,図12D,及び図12Eにおいて、指紋中心,三角州,及び中心軸は記号化されて表示されている。
図12Aは、Whorl型の指紋の紋様の特徴の例を示す図である。Whorl型に分類される指紋の紋様の特徴は、1つの上凸コアと1つの下凸コアと2つのデルタとが存在すること、及び2つのデルタは中心軸を挟んで位置することである(図13参照)。
図12Bは、右Loop型の指紋の紋様の特徴の例を示す図である。右Loop型に分類される指紋の紋様の特徴は、1つの上凸コアと1つのデルタとが存在すること、及びデルタが中心軸の左側に位置することである(図13参照)。
図12Cは、左Loop型の指紋の紋様の特徴の例を示す図である。左Loop型に分類される指紋の紋様の特徴は、1つの上凸コアと1つのデルタとが存在すること、及びデルタが中心軸の右側に位置することである(図13参照)。
図12Dは、Arch型の指紋の紋様の特徴の例を示す図である。Arch型に分類される指紋の紋様の特徴は、1つの上凸コアが存在すること、及び中心軸が存在しないことである(図13参照)。
図12Eは、Tented Arch型の指紋の紋様の特徴の例を示す図である。Tented Arch型に分類される指紋の紋様の特徴は、1つの上凸コアと1つのデルタとが存在すること、及び中心軸のほぼ延長上にデルタが存在することである(図13参照)。
第2実施形態において、識別装置は、指紋の紋様の分類、すなわち、Whorl型,右Loop型,左Loop型,Arch型,及びTented Arch型をそれぞれクラスとして用いる。
図14は、第2実施形態における、識別装置の構成例を示す図である。第2実施形態において、識別装置1Bは、第1実施形態における識別装置1の構成に、さらに、特異点検出部122と中心軸検出部123とを含む。
特異点検出部122は、入力部11から入力された指紋画像(生体データ)から、特異点(指紋中心と三角州)を検出する。中心軸検出部123は、生体データから中心軸を検出する。特異点検出部122によって検出された特異点と、中心軸検出部123によって検出された中心軸とは、特徴情報として扱われる。
分類部121は、特異点検出部122によって検出された特異点と中心軸検出部123によって検出された中心軸とを含む特徴情報のクラス分類を信頼度に基づいて行う。
図15は、特異点と中心軸とに基づくクラス分類と信頼度とが定められた表の例を示す。第2実施形態において、分類部121及び信頼度算出部121aは、図15に示される表に基づいて、特徴情報が分類されるクラスと各クラスに対する信頼度とを決定する。図15に示される例では、1つの入力データが該当する可能性のあるクラスが多くなるほど、各クラスに対する信頼度が低くなるように信頼度が設定されている。例えば、入力データが、1つの上凸コア,1つの下凸コア,2つのデルタを含む場合には、入力データが該当する可能性のあるクラスはWhorl型のみなので、当該入力データの信頼度は100となる。例えば、入力データに1つの上凸コアしか含まれない場合には、Whorl型,右Loop型,左Loop型,Arch型,及びTented Arch型のいずれにも該当する可能性がある。この場合、Whorl型の信頼度は30,右Loop型及び左Loop型の信頼度は20,Arch型及びTented Arch型の信頼度は15となる。また、図15に示される表では、特異点の数に加え、特徴情報に含まれる特異点又は中心軸を基準とする上下左右の範囲の広さにも基づいて、特徴情報が該当する可能性のあるクラスが定義される。図15に示される表における信頼度の設定は例であり、信頼度は、例えば、予め求められた各クラスの正規分布のデータに合わせて決定される。
図16は、入力データの例を示す図である。入力データD1は、ユーザの指先側の狭い範囲のみが入力された例である。入力部11から入力される指紋画像(生体データ)が、常に指紋の全体像を含むとは限らず、図16に示される例における入力データD1のように、指紋の一部分の画像しか入力されない場合もある。
入力データD1は、上凸コアのみを画像の下側に有する。入力データD1の場合、上凸コアの下側が所定の閾値よりも狭いので、図15及び図16に示されるように、Whorl型,右Loop型,左Loop型,Arch型,及びTented Arch型に該当する可能性がある。例えば、信頼度算出部121aが図15に示される表を用いる場合には、入力データD1に対する各クラスの信頼度は、Whorl型は30,右Loop型及び左Loop型は20,Arch型及びTented Arch型は15と決定される。
例えば、入力データD1において上凸コアの下側が所定の閾値よりも十分に広い入力データの場合には、当該入力データはArch型に該当する可能性が高くなる。例えば、信頼度算出部121aが図15に示される表を用いる場合には、入力データD1に対する信頼度は、Arch型は100、その他のクラスの信頼度は0と決定される。
図17は、入力データの例を示す図である。入力データD2は、ユーザの指紋の一部分が入力された例である。
入力データD2は、1つの上凸コアと中心軸の左側にデルタを有する。また、入力データD2の上凸コアの中心軸の左側は所定の閾値よりも十分に広くない。したがって、入力データD2は、図15及び図17に示されるように、Whorl型及び右Loop型に該当する可能性がある。例えば、信頼度算出部121aが図15に示される表を用いる場合には、入力データD2に対する信頼度は、Whorl型は60、右Loop型は40,その他のクラスは0と決定される。
分類部121は、信頼度算出部121aによって算出された信頼度と分類閾値とを比較して、生体データの特徴情報が分類される1つ以上のクラスを決定する。このとき、分類閾値はWhorl型,右Loop型,左Loop型,Arch型,及びTented Arch型それぞれで、異なっていてもよい。理想的な状態で入力された生体データがWhorl型,右Loop型,左Loop型,Arch型,及びTented Arch型のいずれか1つに分類される場合、クラスごとに分類される分布が異なる。例えば、所定数のサンプル生体データがある場合、Arch型に分類される生体データの割合に比べて、Whorl型に分類される生体データの割合が大きくなるという結果が得られる。この結果を参照すると、例えば、1つの上凸コアのみを含む生体データが入力された場合には、当該生体データはArch型よりもWhorl型である確率の方が高くなるので、例えば、Whorl型の分類閾値は低く、Arch型の分類閾値は高く設定される。このとき、図15に示される表のように、Whorl型の信頼度が最も高く割り当てられている場合には、Whorl型から優先的に識別処理が行われることになる。したがって、或る生体データの識別処理時に、当該生体データが分類される可能性の高いクラスにより多くの生体データが登録されることになるため、識別処理をより効率よく行うことができる。
その後、生体データの特徴情報は、登録部13へ出力され、登録部13によって格納部18に格納される。又は、生体データの特徴情報は、照合部15へ出力され、照合処理が行われる。
第2実施形態において、識別装置1Bは、指紋の紋様の特異点及び中心軸に基づいて、生体データをWhorl型,右Loop型,左Loop型,Arch型,及びTented Arch型の中で該当する可能性のある1つ以上のクラスに分類する。生体データが指紋の一部分しか含まない場合でも、生体データが該当する可能性のある1つ以上のクラスに分類され、登録又識別が行われることによってクラス分類の失敗の発生率を下げることができ、誤認証が防がれ、認証精度が向上する。
<第3実施形態>
第3実施形態において、識別装置は、ユーザの指の面積に対して小さい面積の生体データを取得する。第3実施形態では、第1実施形態及び第2実施形態と共通する部分の説明は省略される。
図18は、登録処理時と識別処理時とで、生体データの入力範囲が異なる場合の生体データの例を示す図である。図18では、同一のユーザの同一の指において、登録処理時及び認証処理時に入力される指紋画像の例が示される。ユーザの指の指紋の範囲は点線で示される。指紋センサで読み取られた指紋の入力範囲は実線で囲まれた範囲である。また、図18では、例えば、指紋センサの採取面積が狭い場合に取得される指紋画像が示される。
例えば、指先のような生体部位の範囲に対して、指紋センサなどの生体データ入力装置の採取面が十分大きい場合には、ユーザの生体データの入力の際に位置ずれあっても、生体データが欠けることがない。そのため、登録時の生体データと識別時の生体データとでクラス分類結果が一致しやすく、高い類似度が算出されやすい。
一方、生体部位の範囲に対して、生体データ入力装置の採取面積が小さい場合には、ユーザが生体データを入力するときに位置ずれがあると、登録時と識別時とで生体情報の入力範囲が異なる。図18に示される例では、登録時には、生体データの入力範囲に上凸コアが含まれているが、識別時には、生体データの入力範囲には上凸コアは含まれず、デルタが1つ含まれる。図18に示される例では、同じユーザの同じ指の指紋であったとしても、登録時と識別時とで入力範囲に含まれる特異点が異なるため、クラス分類の結果が異なってしまい、類似度も低くなり、認証されにくくなる。
第3実施形態において、識別装置に入力される生体データの入力範囲は生体部位よりも小さい場合が想定される。
図19は、識別装置1Cの構成例を示す図である。識別装置1Cは、第2実施形態における識別装置1Bの構成に加え、部分領域抽出部124を有する。
部分領域抽出部124(抽出部に相当)は、入力部11から入力された生体データ(指紋画像)を得る。部分領域抽出部124は、入力された指紋画像から部分領域を抽出する。部分領域は、指紋認証アルゴリズムの特性から要求される指紋画像の最小の長さ及び幅で規定される面積、又は、運用に利用される指紋センサ(入力部11)の採取面の最小の長さ及び幅で規定される面積を基準とする。
部分領域抽出部124は、入力された指紋画像の面積に基づいて、複数回指紋データを採取するか否かを判定する。例えば、部分領域抽出部124は、生体データ(指紋画像)の入力範囲が部分領域の長さ,幅に基づいて定められた入力回数判定閾値以上の場合に、生体データから複数の部分領域を抽出する。生体データの入力範囲が部分領域の長さ,幅に基づいて定められた入力回数判定閾値より小さい場合には、部分領域抽出部124は、部分領域を抽出するとともに、入力部11に対して複数回生体データを取得するように指示する。入力回数判定閾値は、入力部11によって複数回生体データが取得されるべきかを判定するための生体データの入力範囲の大きさの閾値であって、部分領域の範囲より十分に大きい。
部分領域抽出部124は、入力された生体データの接触範囲の端から最も近い特異点を含むようにして部分領域を抽出する。なお、部分領域は、特異点が部分領域の周辺から所定の距離となるように調整されて抽出される。
図20A,図20B,及び図20Cは、入力された生体データ(指紋画像)の入力範囲と部分領域抽出部124によって抽出された部分領域との関係の例を示す図である。
図20Aは、生体データの入力範囲が入力回数判定閾値以上の場合の例を示す。図20Aに示される例の場合、部分領域抽出部124は、1回の入力された生体データから複数の部分領域を抽出する。部分領域D31は、入力された生体データの上端に最も近い特異点を含む範囲が抽出された例である。部分領域D32は、入力された生体データの下端に最も近い特異点を含む範囲が抽出された例である。部分領域D33は、入力された生体データの左端に最も近い特異点を含む範囲が抽出された例である。
図20Bは、生体データの入力範囲が部分領域とほぼ同じ大きさの場合の例を示す。例えば、ユーザは指紋センサの採取面に十分指を接触させているものの、指紋センサの採取面の寸法が小さい場合である。部分領域D41は、入力された生体データの上端に最も近い特異点を含む範囲が抽出された例であり、図20Aにおける部分領域D31と同じ範囲である。部分領域D42は、入力された生体データの下端に最も近い特異点を含む範囲が抽出された例であり、図20Aにおける部分領域D32と同じ範囲である。部分領域D43は、入力された生体データの左端に最も近い特異点を含む範囲が抽出された例であり、図20Aにおける部分領域D33と同じ範囲である。
図20Cは、生体データの入力範囲が部分領域よりも小さい場合の例を示す。例えば、指紋センサの採取面の寸法は部分領域に対して十分大きいものの、ユーザの指と指紋センサの採取面との接触面積が小さい場合である。部分領域D51は、入力された生体データの上端に最も近い特異点を含む範囲が抽出された例であり、図20Aにおける部分領域D31と、図20Bにおける部分領域D41と同じ範囲である。部分領域D52は、入力された生体データの下端に最も近い特異点を含む範囲が抽出された例であり、図20Aにおける部分領域D32と、図20Bにおける部分領域D42と同じ範囲である。部分領域D53は、入力された生体データの左端に最も近い特異点を含む範囲が抽出された例であり、図20Aにおける部分領域D33と、図20Bにおける部分領域D43と同じ範囲である。
図20B及び図20Cのいずれの場合にも、入力範囲が入力回数判定閾値よりも小さいので、部分領域抽出部124は、入力部11に複数回生体データを取得するように指示を出す。
指紋画像が複数回取得される場合には、部分領域抽出部124は、所定の条件が満たされた場合に指紋画像の入力完了を入力部11に指示する。例えば、部分領域抽出部124は、分類部121によるクラス分類の結果が同じ部分領域ごとの特徴情報が所定数に達した場合に、部分領域抽出部124が生体データの入力完了を検出する。
例えば、図20Bにおける部分領域D41の特徴情報が分類されたクラスを信頼度の順に並び換え、同じ結果が得られる部分領域の生体データが所定回数(例えば3回)入力された場合に生体データの入力完了が検出される。
部分領域抽出部124は、生体データの入力範囲が入力回数判定閾値よりも小さく、さらに部分領域よりも小さい値の部分領域抽出判定閾値よりも小さい場合には、入力された生体データからの部分領域の抽出が不可能であると判定する。この場合、部分領域抽出部124は、入力された生体データを破棄し、入力部11に生体データの取得を指示する。
特異点検出部122及び中心軸検出部123は、部分領域抽出部124によって抽出された部分領域の生体データから、特異点及び中心軸を検出し、部分領域ごとに特徴情報を生成する。
分類部121は、特異点検出部122及ぶ中心軸検出部123によって生成された部分領域の特徴情報をWhorl型,右Loop型,左Loop型,Arch型,Tented Arch型の少なくとも1つに分類する。
図20A,図20B,及び図20Cにおける、部分領域D31,D41,D51は、同一ユーザの同一指の同一の範囲である。同じく、部分領域D32,D42,D52は、同一ユーザの同一指の同一の範囲である。部分領域D33,D43,D53は、同一ユーザの同一指の同一の範囲である。
部分領域D31,D41,D51は、いずれも上凸コアを1つ含み、上凸コアの下側が狭いので、Whorl型,右Loop型,左Loop型,Arch型,Tented Arch型のすべてに該当する可能性がある。信頼度算出部121aが図15に示される表を用いる場合には、信頼度は、Whorl型は30、右Loop型及び左Loop型は20,Arch型及びTented Arch型は15となる。
部分領域D32,D42,D52は、いずれも上凸コアと下凸コアとを1つずつ含むので、Whorl型に該当する可能性がある。信頼度算出部121aが図15に示される表を用いる場合には、Whorl型に対する信頼度は100となる。
部分領域D33,D43,D53は、いずれもデルタを1つ含み、デルタの上側が広いので、Whorl型,右Loop型,左Loop型に該当する可能性がある。信頼度算出部121aが図15に示される表を用いる場合には、信頼度は、Whorl型は40,右Loop型及び左Loop型は30となる。
したがって、図20A,図20B,図20Cのいずれの例においても、同一ユーザの同一指の同一の範囲の部分領域の特徴情報のクラス分類は同じになる。部分領域の特徴情報を用いて登録及び認証する場合にも、適正にクラス分類が行われる。
入力された生体データに特異点が含まれない場合には、部分領域抽出部124は、最も特徴的な形状を持つ領域を含むようにして部分領域を抽出する。この時抽出された部分領域は、特異点および中心軸が含まれないことが特徴情報となる。この特徴情報は、分類部121によって、Whorl型,右Loop型,左Loop型,Arch型,Tented Arch型に分類される。
図21は、特異点を含まない生体データ(指紋画像)の例を示す。図21では、特異点は含まれないものの、単調な波形の隆線が並行に近い状態で並んでいる。この場合、部分領域抽出部124は、各隆線の曲率が最も高くなる箇所を検出し、各隆線の曲率が最も高くなる箇所を可能な限り多く含む範囲で部分領域を抽出する。なお、図21に示される例の場合には、分類部121は、上凸コアを含むとみなして特徴情報を分類してもよい。また、図21において、部分領域として抽出されるのは、隆線の曲率が最も高くなる箇所に限定されず、例えば、所定の範囲の隆線に関して、隆線の接線の傾きの変化量の平均が最も高くなる範囲が部分領域として抽出されてもよい。
特徴抽出部12は、抽出された部分領域のそれぞれに対して、特徴情報を生成し、クラス分類をし、信頼度を算出する。例えば、3つの部分領域が抽出された場合には、クラス分類結果,信頼度,特徴情報がそれぞれ3つずつ得られる。
複数の部分領域の特徴情報から同じクラス分類結果が得られた場合には、最も高い信頼度が得られた部分領域の特徴情報のみを残して、低い信頼度が得られた部分領域の特徴情報は破棄されてもよい。このようにすることで、PCもしくは認証サーバの処理能力が低い場合に、効率よい処理を実現することができる。
生体データの登録処理の場合には、各部分領域の特徴情報は登録部13によって格納部18のユーザ情報181及び照合対象抽出用情報182に格納される。
生体データの識別処理の場合には、抽出された部分領域の数だけ識別処理が繰り返される。例えば、部分領域が3つ抽出された場合には、識別処理は最大3回繰り返される。このとき、各部分領域の特徴情報の各クラスに対する信頼度の中で大きい信頼度を有する特徴情報から順に識別処理が行われ、登録データの中から同一のユーザの生体情報が識別されれば、処理が完了する。例えば、部分領域が3つ抽出された場合に、1つ目の部分領域の特徴情報の類似度が、分類されたクラスの識別判定閾値を超えれば、2つ目、3つ目の部分領域に対して識別処理が省略される。
図22は、特徴情報の生成処理フローの例を示す図である。識別装置1Cは、例えば、ユーザの操作によって生体データの登録が指示された場合、又は、ユーザが識別装置1Cとしてのコンピュータにログインする場合に、生体データの特徴情報の生成処理を開始する。
識別装置1Cの特徴抽出部12は、入力部11を通じて生体データ(指紋画像)の入力を受ける(OP31)。部分領域抽出部124は、入力部11を通じて入力された生体データの入力範囲を検出する(OP32)。
次に、部分領域抽出部124は、生体データの入力範囲が入力回数判定閾値以上か否かを判定する(OP33)。部分領域抽出部124は、生体データの入力範囲が入力回数判定閾値以上か否かを判定することによって、生体データの入力が1回で十分か、又は、複数回の入力が必要かを判定する。
生体データの入力範囲が入力回数判定閾値以上の場合には(OP33:Yes)、部分領域抽出部124は、生体データの入力が1回で良いことを判定する。部分領域抽出部124は、生体データから特異点を抽出する(OP34)。
部分領域抽出部124は、検出された特異点が少なくとも1つ含まれるようにして、生体データから部分領域を少なくとも1つ抽出する(OP35)。このとき、生体データに特異点が存在しない場合には、部分領域抽出部124は、特異点とみなしてよい特徴的な箇所(例えば、図21参照)を含むようにして部分領域を抽出する。
特異点検出部122及び中心軸検出部123は、部分領域抽出部124によって抽出された少なくとも1つの部分領域ごとに、特異点及び中心軸を検出し、特徴情報を生成する(OP36)。このとき、部分領域に特異点が含まれていない場合には、特異点検出部122は、特異点が含まれていないことを当該部分領域の特徴情報とする。又は、部分領域に特異点が含まれていないが特異点とみなしてよい特徴が含まれている場合には、特異点検出部122はその特徴を特異点とみなして特徴情報を生成してもよい。生成された特徴情報は、分類部121によってクラス分類される。
生体データの入力範囲が入力回数判定閾値より小さい場合には(OP33:No)、部分領域抽出部124は、生体データの入力が複数回必要であることを判定する。部分領域抽出部124は、生体データの入力範囲が部分領域を抽出するための条件を満たすか否かを判定する(OP37)。すなわち、部分領域抽出部124は、生体データの入力範囲が部分領域抽出判定閾値以上か否かを判定する。生体データの入力範囲が部分領域抽出判定閾値以上か否かを判定することによって、部分領域抽出部124は、生体データから部分領域が抽出可能か否かを判定する。
生体データの入力範囲が条件を満たさない場合、すなわち、部分領域抽出判定閾値よりも小さい場合には(OP37:No)、部分領域抽出部124は、生体データからの部分領域の抽出は不可能であることを判定する。部分領域抽出部124は、生体データを破棄し、入力部11に生体データの採取を指示する。その後、処理がOP31に戻る。
生体データの入力範囲が条件を満たす場合には、すなわち、生体データの入力範囲が部分領域抽出判定閾値以上の場合には(OP37:Yes)、部分領域抽出部124は、生体データから部分領域の抽出が可能であることを判定する。
部分領域抽出部124は、生体データから特異点を検出する(OP38)。部分領域抽出部124は、検出された特異点を少なくとも1つ含むようにして部分領域を抽出する。このとき、生体データに特異点が存在しない場合には、部分領域抽出部124は、特異点とみなしてよい特徴的な箇所(例えば、図21参照)を含むようにして部分領域を抽出する。また、生体データが特異点を複数含み、1つの部分領域にすべての特異点が含まれない場合には、部分領域抽出部124は、全ての特異点が抽出されるように部分領域を複数抽出する。
特異点検出部122及び中心軸検出部123は、部分領域抽出部124によって抽出された部分領域から特異点及び中心軸を検出し、特徴情報を生成する(OP39)。このとき、部分領域に特異点が含まれていない場合には、特異点検出部122は、特異点が含まれていないことを当該部分領域の特徴情報とする。又は、部分領域に特異点が含まれていないが特異点とみなしてよい特徴が含まれている場合には、特異点検出部122はその特徴を特異点とみなして特徴情報を生成してもよい。生成された特徴情報は、分類部121によってクラス分類される。
生体データの特徴情報が生成され、分類されると、部分領域抽出部124は、入力完了条件が満たされたか否かを判定する(OP40)。入力完了条件が満たされていない場合には(OP40:No)、部分領域抽出部124は、入力部11に生体データの採取を指示する。入力完了条件が満たされた場合には(OP40:Yes)、特徴情報の生成処理が終了する。
第3実施形態の識別装置1Cは、生体データの登録処理時及び識別処理時に、入力された生体データから部分領域を抽出し、部分領域の特徴情報を生成し、部分領域の特徴情報を用いてクラス分類を行う。これによって、例えば、指紋センサの採取面が指に比べて小さい場合や、ユーザの指の位置ずれが発生した場合など、生体データの入力範囲が指紋全体に比べて小さい場合でも、適正に特徴情報がクラス分類され、登録及び認証が行われる。
<第4実施形態>
第4実施形態において、識別装置は、入力された生体データが登録処理及び識別処理に適しているかを判定し、適さない場合には、ユーザに対して再度生体データの入力を促すメッセージを出力する。登録処理及び識別処理に適さないデータには、例えば、どのクラスにも分類されないデータである。第4実施形態では、第1実施形態から第3実施形態と共通する箇所の説明は省略される。
図23は、第4実施形態における識別装置1Dの構成例を示す図である。識別装置1Dは、第2実施形態の識別装置1Bの構成に加えて、入力判定部19,入力状態推定部20,及びメッセージ生成部21を備える。
入力判定部19は、特徴抽出部12から、入力された生体データ(指紋画像)と特徴情報とを入力として得る。入力判定部19は、例えば、特徴情報の各クラスに対する信頼度がいずれも分類閾値に達していない場合に、生体データが登録処理及び識別処理に適していないと判定する。また、例えば、入力判定部19は、入力された生体データが、面積,幅,長さ等の寸法情報,コントラスト,特徴点の個数,特異点の有無などに基づいて、登録処理及び識別処理に適したデータであるか判定してもよい。寸法情報には、例えば、対象とするユーザの年齢,性別,利用する指の種類等によって推定される最小のものが用いられる。
入力判定部19は、入力状態検出部191を含む。入力状態検出部191(検出部に相当)は、生体データが登録処理及び識別処理に適したデータでないと判定された場合に、生体データの入力状態を検出する。生体データの入力状態は、例えば、指紋センサの採取面と指との接触面積,特異点の種別,各特異点から接触範囲境界への距離,接触範囲境界から指紋センサの採取面の撮像範囲への距離等を用いて検出される。
入力状態検出部191は、位置検出部191aと姿勢検出部191bとを含む。位置検出部191aは、指と指紋センサの相対的な位置関係として、例えば、右過ぎ,左過ぎ,奥過ぎ,手前過ぎを検出する。姿勢検出部191bは、指の姿勢として、例えば、指を立たせている姿勢と寝かせている姿勢とを検出する。例えば、図16に示される入力データのように、生体データで指紋中心が接触範囲の下方に位置している場合には、姿勢検出部191bが指の立たせ過ぎ状態を検出する。反対に、生体データに指紋中心がなく、三角州のみが検出されている場合には、姿勢検出部191bは寝かせ過ぎ状態を検出する。識別装置1Dがスライド型指紋センサを備える場合では、指のセンサに対する相対的な速さ、方向等に基づいて入力状態が検出されてもよい。
入力判定部19は、入力状態検出部191によって検出された生体データの入力状態を入力状態推定部20に出力する。
入力状態推定部20(推定部に相当)は、入力判定部19からユーザの入力状態を入力として得る。入力状態推定部20は、信頼度を高めるための生体データの入力状態の改善方法を推定する。例えば、入力判定部19から右過ぎという状態が入力された場合には、入力状態推定部20は、指を左に動かす必要があることを推定する。また、例えば、入力判定部19から立たせ過ぎ状態が入力された場合には、入力状態推定部20は、指を寝かせる必要があることを推定する。入力状態推定部20は、推定した結果をメッセージ生成部21に出力する。
メッセージ生成部21(報知部に相当)は、生体データが登録処理及び識別処理に適していないと判定された場合には、入力状態推定部20から入力状態の推定結果を入力として得る。メッセージ生成部21は、入力状態の推定結果を文字列,アイコン,音声等によってユーザが認識可能なメッセージを生成する。生成されたメッセージは、識別装置1Dに備えられているディスプレイやスピーカ等から出力される。
メッセージ生成部21は、生体データが登録及び識別に適していると判定された場合には、判定部17から識別結果を入力として得る。識別結果が識別失敗の場合に、メッセージ生成部21は、識別失敗とユーザに生体データの入力を促すメッセージとを生成する。生成されたメッセージは、識別装置1Dに備えられたディスプレイ,スピーカ等から出力される。
第4実施形態の識別装置1Dは、入力された生体データが登録処理及び識別処理に適しているか否かを判定し、適していない場合には、生体データの入力状態を改善するための方法を推定し、ユーザに報知する。これによって、ユーザは再度生体データの入力時に、より適正な位置,姿勢で入力することができ、このようにして入力された生体データは、登録処理及び識別処理に適する可能性が高くなる。生体データが登録処理及び識別処理に適したデータとして入力されることによって、生体データが適正に分類され、登録及び識別処理が適正に行われる。
<その他>
本発明は上述した実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で実施可能である。
上記実施形態では、識別装置はコンピュータによって実現される場合について説明された。これに変えて、識別装置は、個人認証専用の装置によっても実現可能である。
また、識別装置は、複数のコンピュータにユーザ情報や特徴情報を保持させ、当該複数のコンピュータに照合部15の処理を分散させるように構成されてもよい。複数のコンピュータに照合部15の処理を分散させることによって、認証時の入力データと登録データとの照合に要する時間を短縮することができる。
また、識別装置は、指紋に限らず、掌紋,鼻紋,掌形,手のひら静脈,指静脈,声紋,顔貌,歩容,耳介等の生体情報を用いた個人認証に適用可能である。
1,1B,1C,1D 識別装置
11 入力部
12 特徴抽出部
13 登録部
14 照合対象抽出部
15 照合部
16 閾値設定部
17 判定部
18 格納部
19 入力判定部
20 入力状態推定部
21 メッセージ生成部
121 分類部
121a 信頼度算出部
122 特異点検出部
123 中心軸検出部
124 部分領域抽出部
191 入力状態検出部
191a 位置検出部
191b 姿勢検出部
図24は、接触型センサデバイスによって取得された指紋の画像の例である。外側の破線で示される枠は、精度よく照合するために必要とされる範囲を示す。内側の実線で示される枠は、接触型センサデバイスによって読み取られる指紋画像の範囲を示す。
生体データのクラス分類が失敗すると、登録された本人であるにもかかわらず認証が失敗する確率(本人拒否率)が上昇したり、登録された本人以外の他人が認証される確率(他人受入率)が上昇したりする。クラス分類の失敗の結果として、認証精度が低下してしまうことがある。
閾値設定部16は、照合対象抽出部14から入力データが分類されたクラスごとの照合対象抽出結果情報を入力として得る。閾値設定部16は、入力データが分類された各クラスに対して、識別判定閾値を設定する。識別判定閾値は、入力データのユーザと同じユーザの登録データであることを判定するための、入力データと登録データとの類似度の閾値である。
特異点には、例えば、隆線のなす曲率が高い指紋中心と、隆線又は谷線が3方向に広がっている三角州とがある。指紋中心はコア、三角州はデルタとも呼ばれる。
指紋中心は、曲率が高い部分から次第に曲率が緩くなって隆線が伸びていく形状である。このとき、指紋中心から隆線が伸びていく方向を平均した方向は中心軸と呼ばれる。
特異点と中心軸とに基づいた指紋の紋様の分類には、例えば、Whorl型,右Loop型,左Loop型,Arch型,及びTented Arch型がある。
図12A,図12B,図12C,図12D,及び図12Eは、特異点と中心軸とに基づいた指紋の紋様の分類の例を示す。図13は、Whorl型,右Loop型,左Loop型,Arch型,及びTented Arch型それぞれの特徴を表にまとめたものである。図12A,図12B,図12C,図12D,及び図12Eにおいて、指紋中心,三角州,及び中心軸は記号化されて表示されている。
<第4実施形態>
第4実施形態において、識別装置は、入力された生体データが登録処理及び識別処理に適しているかを判定し、適さない場合には、ユーザに対して再度生体データの入力を促すメッセージを出力する。登録処理及び識別処理に適さないデータは、例えば、どのクラスにも分類されないデータである。第4実施形態では、第1実施形態から第3実施形態と共通する箇所の説明は省略される。

Claims (8)

  1. 入力生体データの特徴に基づいて、複数の登録生体データがいずれか少なくとも1つのクラスに分類されて登録されている複数のクラスから、前記入力生体データが分類される2つ以上のクラスを決定する分類決定部と、
    前記入力生体データと、前記入力生体データが分類された前記2つ以上のクラスのそれぞれに登録されている各登録生体データとの類似度を算出する算出部と、
    前記入力生体データとの類似度に基づいて、前記2つ以上のクラスのそれぞれに登録されている登録生体データの中から前記入力生体データのユーザと同じユーザのデータを識別する識別部と
    を備える識別装置。
  2. 前記2つ以上のクラスのそれぞれについて、前記入力生体データのユーザと同じユーザのデータであることを識別するための閾値を設定する設定部をさらに備え、
    前記識別部は、前記2以上のクラスのそれぞれに登録されている登録生体データの中で、前記入力生体データとの類似度が前記2以上のクラスのそれぞれについて設定された前記閾値を超える登録生体データがある場合に、前記入力生体データのユーザと該登録生体データのユーザが同一であることを識別する
    請求項1に記載の識別装置。
  3. 前記設定部は、識別装置に求められる他人受入率と、前記2つ以上のクラスのそれぞれに対して求められる他人受入率とから、前記2つ以上のクラスのそれぞれの前記閾値を設定する
    請求項2に記載の識別装置。
  4. 登録時に入力される生体データを、前記分類決定部によって決定された2つ以上のクラスに登録する登録部をさらに備える請求項1から3のいずれか1項に記載の識別装置。
  5. 入力生体データから少なくとも1つの部分領域を抽出する抽出部をさらに備え、
    前記分類決定部は、前記少なくとも1つの部分領域のそれぞれに含まれる特徴に基づいて、前記少なくとも1つの部分領域のそれぞれが分類される2つ以上のクラスを決定し、
    前記算出部は、前記少なくとも1つの部分領域と前記少なくとも1つの部分領域が分類された前記2つ以上のクラスのそれぞれに登録されている部分領域との類似度を算出する
    請求項1から4のいずれか1項に記載の識別装置。
  6. 前記入力生体データの入力状態を検出する検出部と、
    前記入力生体データの入力状態を改善する方法を推定する推定部と、
    前記入力生体データの入力状態を改善する方法をユーザに報知する報知部と、
    をさらに備える請求項1から5のいずれか1項に記載の識別装置。
  7. コンピュータが、
    入力生体データの特徴に基づいて、複数の登録生体データがいずれか少なくとも1つのクラスに分類されて登録されている複数のクラスから、前記入力生体データを分類する2つ以上のクラスを決定し、
    前記入力生体データと、前記入力生体データが分類された前記2つ以上のクラスのそれぞれに登録されている各登録生体データとの類似度を算出し、
    前記入力生体データとの類似度に基づいて、前記2つ以上のクラスのそれぞれに登録されている登録生体データの中から前記入力生体データのユーザと同じユーザのデータを識別する
    識別方法。
  8. コンピュータに、
    入力生体データの特徴に基づいて、複数の登録生体データがいずれか少なくとも1つのクラスに分類されて登録されている複数のクラスから、前記入力生体データを分類する2つ以上のクラスを決定するステップと、
    前記入力生体データと、前記入力生体データが分類された前記2つ以上のクラスのそれぞれに登録されている各登録生体データとの類似度を算出するステップと、
    前記入力生体データとの類似度に基づいて、前記2つ以上のクラスのそれぞれに登録されている登録生体データの中から前記入力生体データのユーザと同じユーザのデータを識別するステップと
    を実行させるためのプログラム。
JP2012505417A 2010-03-19 2010-03-19 識別装置、識別方法、及びプログラム Active JP5660126B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/054851 WO2011114520A1 (ja) 2010-03-19 2010-03-19 識別装置、識別方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2011114520A1 true JPWO2011114520A1 (ja) 2013-06-27
JP5660126B2 JP5660126B2 (ja) 2015-01-28

Family

ID=44648646

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012505417A Active JP5660126B2 (ja) 2010-03-19 2010-03-19 識別装置、識別方法、及びプログラム

Country Status (4)

Country Link
US (1) US9129145B2 (ja)
EP (1) EP2549432A4 (ja)
JP (1) JP5660126B2 (ja)
WO (1) WO2011114520A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022048464A (ja) * 2020-09-15 2022-03-28 株式会社華和結ホールディングス 鼻紋照合装置および方法並びにプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2279483B1 (en) 2008-04-25 2019-06-05 Aware, Inc. Biometric identification and verification
WO2012014308A1 (ja) * 2010-07-29 2012-02-02 富士通株式会社 生体認証装置、生体認証方法及び生体認証用コンピュータプログラムならびに生体情報登録装置
GB2507540A (en) * 2012-11-02 2014-05-07 Zwipe As Enrolling fingerprints by combining image strips to obtain sufficient width
US9965608B2 (en) 2013-07-18 2018-05-08 Samsung Electronics Co., Ltd. Biometrics-based authentication method and apparatus
JP6241165B2 (ja) * 2013-09-19 2017-12-06 富士通株式会社 認証方法、認証装置、認証システム、および認証プログラム
KR20150034832A (ko) 2013-09-24 2015-04-06 삼성전자주식회사 지문인식 센서를 포함하는 전자기기 및 지문인식 센서를 포함하는 전자기기의 사용자 인증 수행 및 사용자 지문 이미지 등록 방법, 및 이 방법을 실행하기 위한 프로그램이 기록되어 있는 비휘발성 기록매체
CN103714324B (zh) * 2013-12-27 2017-02-01 北京市新技术应用研究所 一种基于散列算法的快速掌纹辨识方法
JP2017138858A (ja) * 2016-02-04 2017-08-10 富士通株式会社 生体認証装置、生体認証方法および生体認証プログラム
KR102574772B1 (ko) * 2016-12-12 2023-09-05 삼성전자주식회사 생체 데이터를 등록 및 인증하기 위한 방법 및 그 전자 장치
US10530770B2 (en) 2017-06-28 2020-01-07 International Business Machines Corporation Pressure-based authentication
CN107437074B (zh) * 2017-07-27 2020-02-28 深圳市斑点猫信息技术有限公司 一种身份认证方法和装置
CN108831487B (zh) * 2018-06-28 2020-08-18 深圳大学 声纹识别方法、电子装置及计算机可读存储介质
CN111507262B (zh) * 2020-04-17 2023-12-08 北京百度网讯科技有限公司 用于检测活体的方法和装置
CN113780122B (zh) * 2021-08-30 2023-12-05 沈阳大学 基于手掌静脉特征加密的识别模板生成方法及装置

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE68918724T2 (de) * 1988-02-17 1995-05-24 Nippon Denso Co Fingerabdruck-Prüfungsverfahren mit Verwendung mehrerer Korrelierungsentscheidungspegel und aufeinanderfolgenden Entscheidungsstufen.
JP2613959B2 (ja) 1990-06-20 1997-05-28 日本電気セキュリティシステム株式会社 指紋紋様分類装置
US5337369A (en) 1992-09-09 1994-08-09 Nec Corporation Equipment for fingerprint pattern classification
JPH06139338A (ja) 1992-09-09 1994-05-20 Nippon Denki Security Syst Kk 指紋紋様分類装置
US5465303A (en) * 1993-11-12 1995-11-07 Aeroflex Systems Corporation Automated fingerprint classification/identification system and method
JP2776409B2 (ja) * 1995-08-02 1998-07-16 日本電気株式会社 皮膚紋様並びに指紋紋様の分類装置
JP2737734B2 (ja) 1995-12-13 1998-04-08 日本電気株式会社 指紋分類装置
JP2827994B2 (ja) * 1995-12-22 1998-11-25 日本電気株式会社 指紋特徴抽出装置
JPH10124668A (ja) * 1996-10-16 1998-05-15 Fujitsu Ltd 指紋照合方式、及びネットワーク認証装置
JP2924958B2 (ja) * 1996-12-27 1999-07-26 日本電気株式会社 指紋カード絞り込み装置及び指紋カード絞り込み方法
JP2001021309A (ja) * 1999-07-12 2001-01-26 Toshiba Tec Corp 個体認証方法及び個人認証方法
JP2001167268A (ja) 1999-12-07 2001-06-22 Nec Corp 指紋入力装置
US7133542B2 (en) * 2000-09-29 2006-11-07 Chuo Hatsujo Kabushiki Kaisha Fingerprint verification device and fingerprint verification method
JP4405656B2 (ja) 2000-10-20 2010-01-27 富士通株式会社 指紋情報を用いた個人認証システム及び同システム用登録・認証方法
JP2003256815A (ja) 2002-02-27 2003-09-12 Nec Soft Ltd 指紋画像のキャプチャー方法及び指紋画像入力装置並びにプログラム
US7155039B1 (en) * 2002-12-18 2006-12-26 Motorola, Inc. Automatic fingerprint identification system and method
US20060018523A1 (en) 2004-07-23 2006-01-26 Sanyo Electric Co., Ltd. Enrollment apparatus and enrollment method, and authentication apparatus and authentication method
JP2006072429A (ja) 2004-08-31 2006-03-16 Sanyo Electric Co Ltd 生体情報登録装置および個人認証装置
JP2006039777A (ja) 2004-07-23 2006-02-09 Sanyo Electric Co Ltd 登録方法および装置ならびに認証方法および装置
EP2279483B1 (en) * 2008-04-25 2019-06-05 Aware, Inc. Biometric identification and verification

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022048464A (ja) * 2020-09-15 2022-03-28 株式会社華和結ホールディングス 鼻紋照合装置および方法並びにプログラム

Also Published As

Publication number Publication date
EP2549432A4 (en) 2018-01-10
WO2011114520A1 (ja) 2011-09-22
US20130004032A1 (en) 2013-01-03
US9129145B2 (en) 2015-09-08
JP5660126B2 (ja) 2015-01-28
EP2549432A1 (en) 2013-01-23

Similar Documents

Publication Publication Date Title
JP5660126B2 (ja) 識別装置、識別方法、及びプログラム
Yager et al. Fingerprint verification based on minutiae features: a review
KR100940902B1 (ko) 손가락 기하학 정보를 이용한 바이오 인식 방법
US9798958B2 (en) Biometric information registration device and method
Almalki et al. Continuous authentication using mouse clickstream data analysis
US10235582B2 (en) Automated examination and processing of biometric data
JP5915336B2 (ja) 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
Shawkat et al. The new hand geometry system and automatic identification
JP2012238256A (ja) 生体認証装置、生体認証方法および生体認証プログラム
JP6855266B2 (ja) 顔認証システム、顔認証方法、及び顔認証プログラム
Chiu et al. Person authentication by air-writing using 3D sensor and time order stroke context
JP5895751B2 (ja) 生体認証装置、リトライ制御プログラム及びリトライ制御方法
Ben Jemaa et al. Finger surfaces recognition using rank level fusion
Srihari et al. Comparison of ROC and likelihood decision methods in automatic fingerprint verification
Kumar Hand image biometric based personal authentication system
JP6056577B2 (ja) 生体認証装置、生体認証方法及び生体認証用コンピュータプログラム
Dey et al. Unimodal and Multimodal Biometric Data Indexing
Eskandari et al. Score level fusion for face-iris multimodal biometric system
Orike et al. A gender and ethnicity identification system in Nigeria using the fingerprint technology
JP2003044858A (ja) 個人認証装置および方法
El-Alfy Automatic identification based on hand geometry and probabilistic neural networks
Trabelsi et al. A bi-modal palmvein palmprint biometric human identification based on fusing new CDSDP features
JP6988828B2 (ja) 照合処理装置、照合処理方法、及び、照合処理プログラム
JP2021086255A (ja) ペン入力個人認証方法
Chen et al. Fingerprint Quality Assessment based on Texture and Geometric Features.

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131029

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140325

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141117

R150 Certificate of patent or registration of utility model

Ref document number: 5660126

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150