JP2007524143A - 掌紋認証の方法 - Google Patents

掌紋認証の方法 Download PDF

Info

Publication number
JP2007524143A
JP2007524143A JP2006515633A JP2006515633A JP2007524143A JP 2007524143 A JP2007524143 A JP 2007524143A JP 2006515633 A JP2006515633 A JP 2006515633A JP 2006515633 A JP2006515633 A JP 2006515633A JP 2007524143 A JP2007524143 A JP 2007524143A
Authority
JP
Japan
Prior art keywords
image
palm
line
point
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006515633A
Other languages
English (en)
Inventor
ジャン,ダポン,デイヴィッド
ヨウ,ジア,ジェーン
キン アダムズ コン,ワイ
ルー,グアンミン
ウー,シアンチエン
Original Assignee
ザ ホンコン ポリテクニック ユニヴァーシティ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from HK03104206A external-priority patent/HK1062117A2/xx
Application filed by ザ ホンコン ポリテクニック ユニヴァーシティ filed Critical ザ ホンコン ポリテクニック ユニヴァーシティ
Publication of JP2007524143A publication Critical patent/JP2007524143A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Abstract

個人の手の一部分を含む画像を取得し、前記の手のさまざまな特性を定義する一つまたは複数の特徴パラメータを見出すために前記画像を解析し、前記特徴パラメータをデータベース中の参照情報と比較する、ことを含むことを特徴とする生体認証の方法。

Description

本出願は2002年9月25日に出願された出願番号10/253,914の部分継続出願である。
本発明は生体認証に、特に個人の認証のために掌紋を解析する方法に関するものである。
コンピュータを援用した個人認識は今日の情報化社会にあってますます重要性を増している。バイオメトリクスはこの分野で最も重要かつ信頼できる方法である。最も広く使われる生体的特徴は指紋であるのに対し、最も信頼できるのは虹彩である。しかし、不鮮明な指紋から小さな一意的な特徴(特徴点として知られる)を抽出するのは非常に難しく、虹彩スキャナは非常に高価である。顔や声といったその他の生体的特徴は精度が劣り、模倣も容易にできる。
個人認証のための掌紋認識は人気を増してきている。既知の諸方法は、掌紋中の特異点、しわ、デルタ点および特徴点を同定するために掌紋の画像を解析することを含む。しかし、これには高解像度画像が必要とされる。高解像度画像を取り込む掌紋スキャナは高価で、リアルタイム認証の要求を満たすには高性能コンピュータに頼ることになる。
上記の問題の一つの解決法として低解像度画像の使用が思いつく。しかし、低解像度掌紋画像では、特異点および特徴点を容易に観察することができず、しわもごく一部しか有意に明瞭とはならない。このため低解像度画像から得たそのような特徴の使用が多数の母集団のうちで個人を信頼できる形で識別するための十分な弁別性を提供するかどうかは疑問がある。
生体認証の方法、特に個人の認証のために掌紋を解析する方法であって上記の問題を克服または軽減するような方法を提供することが本発明の目的の一つである。
本発明によれば、
・個人の手の一部分を含む画像を取得し、
・前記の手のさまざまな特性を定義する、幾何学形状特徴パラメータ、手相線特徴パラメータまたは手のひらのテクスチャー特徴パラメータを含む二つ以上の特徴パラメータを見出すために前記画像を解析し、
・前記二つ以上の特徴パラメータをデータベース中の参照情報と比較する、
ことを含むことを特徴とする生体認証の方法が提供される。
好ましくは、前記幾何学形状特徴パラメータは、前記の手の画像上における二つ以上の点の間の関係を含んでいる。
好ましくは、前記幾何学形状特徴パラメータは、人差し指と中指との間の点、薬指と小指との間の点および手相線と手の境界との交点を定義する点のうちの二つ以上を通る直線である。
好ましくは、前記幾何学形状特徴パラメータは、人差し指と中指との間の点、薬指と小指との間の点および感情線もしくは生命線と手の境界との交点を定義する点のうちの二つ以上を通る直線である。
好ましくは、前記幾何学形状特徴パラメータは、手の画像上で少なくとも三つの点を通る二本の直線および該二本の直線の間の角を含む。
好ましくは、前記手相線特徴パラメータまたは手のひらのテクスチャー特徴パラメータを見出すことは、当該画像から再現性のある部分画像を抽出することを含む。
好ましくは、前記手相線特徴パラメータを見出すことは、当該画像中の線を同定するために前記部分画像の二つ以上の方向における一階および二階微分を見出すこと、ならびに、前記線の全強度の値を計算することを含む。
好ましくは、前記手のひらのテクスチャー特徴パラメータを見出すことは、当該画像についての全テクスチャーエネルギーを計算することを含む。
好ましくは、前記手のひらのテクスチャー特徴パラメータを見出すことは、当該画像についての全テクスチャーエネルギーを
Figure 2007524143
の形の式を使って計算することを含み、ここで、rsの和はi,jにあるピクセルを中心とする大きさWx×Wyの方形窓W内で全ピクセルにわたって行われ、Akは零和になるよう「調整された」5×5のたたみ込みマスクであり、Pは規格化因子P2=Σi,j(Ai,j)2である。
本発明のさらなる側面は、単に例として挙げる以下の記述から明らかとなるであろう。
本発明の実施形態について、これから付属の図面を参照しつつ説明する。
本発明のある好ましい実施形態では、掌紋認証は一つまたは複数の特徴パラメータの保存されているパラメータ情報との比較を利用する。特徴パラメータは、手のひらのさまざまな特性を記述する値をもつ一組の物理量を定義するものである。別の実施形態では、認証は手のひらの特性を記述する三つの特徴パラメータの保存されているパラメータ情報との比較に頼る。
当該認証方法は、個人の手の画像を取得し、該画像を解析して前記の手のさまざまな特性を記述する二つまたは三つの特徴パラメータを構築し、これらのパラメータをデータベースに保存されている参照パラメータと比較することを含む。前記特徴パラメータは、手の幾何学的な特性を記述する幾何学形状特徴ベクトル(GFV: geometrical feature vector)、手のひらの特徴的な線を記述する手相線特徴(PLF: palm line feature)、および手のひらのテクスチャー特性を記述するテクスチャー特徴ベクトル(TFV: texture feature vector)である。以下の節ではこれらの特徴パラメータの取得方法を説明した。
幾何学形状特徴の抽出
図2を参照すると、手の画像は容易に識別できる、点P1、P2、P3、P4を含む特徴を有している。P1は人差し指と中指との間にあり、P2は薬指と小指との間にあり、P3は感情線が掌の境界と交わる点であり、P4は生命線が掌の境界と交わる点である。点P1、P2、P3、P4の間の関係は、点P1とP2、P2とP3、P3とP4、P4とP1のそれぞれの間の距離L1、L2、L3、L4をもつ直線によって定義することができる。また、角αは点P2とP4、点P3とP4を結ぶ直線L2とL3の間の角度(°)である。
幾何学形状特徴ベクトルはGRV=(L1,L2,L3,L4,α)であり、これは個々の手に一意的である。幾何学形状特徴ベクトルは掌紋から個々の手を識別するのに使われる。GFVを得るには、点P1、P2、P3、P4を見出さなければならない。これらの点は画像の境界上で外形や主要な手相線といった顕著な特徴の間に存在するので、低解像度画像であっても既知の画像処理技術で容易にみつけることができる。
本発明の好ましい実施形態では、手相線特徴の抽出において再現性のある部分画像を定義するためにも点P1、P2が必要とされる。手相線特徴の抽出は感情線と生命線を識別するものなので、GRV(L1,L2,L3,L4,α)を得るための点P1、P2、P3、P4は手相線特徴抽出の一環として見出すことができる。
手相線特徴(palm line feature)の抽出
人は常に手を掌紋スキャン装置の同じ位置に置くとは限らない。そのため、PLFパラメータを同定する前に掌紋部分画像が抽出され、「規格化」されることが、必須ではないが望ましい。これは掌紋スキャナからの生の掌紋画像の手のひら領域の再現性のある部分画像を定義することに関わる。これは認識の精度を改善する。指形の間の領域を定義する点P1、P2が取得され、部分画像を見出すのに使われる。
図3は、CCDカメラを使って得られた、手のひら側の表面の一部分の低解像度画像を示している。手のひら領域の部分画像は、指の間で点P1、P2を見出し、部分画像を定義するパラメータを見出すのに使う座標系を構築することによって識別される。好ましい実施形態は6つの主要ステップを有し、それについて以下に説明する。
図4を参照すると、第一のステップは、ガウスフィルタのような低域通過フィルタL(u,v)を原画像O(x,y)に適用することである。その際、たたみ込みされた画像を二値画像B(x,y)に変換するためには閾値Tpが使われる。
図5を参照すると、第二のステップは、人差し指と中指の間、薬指と小指との間の空隙の境界を境界追跡アルゴリズムを使って取得することである。これらは(Fixj,Fiyj)と定義され、ここでi=1,2である。薬指と中指の間の境界を抽出対象としないのは、以下の処理で使わないからである。前記の空隙が点P1、P2を定義する。境界追跡アルゴリズムは一般的なもので、画像処理分野においては周知のものである。
図6を参照すると、第三のステップは点P1、P2を通る直線2をみつけることである。P1=(x1,y1)、P2=(x2,y2)としてP1、P2がそれぞれ(F1xj,F1yj)および(F2xj,F2yj)上の点でであれば、P1とP2を通る直線y=mx+cはすべてのi、jについて不等式Fiyj≦mFixj+cを満たす。直線y=mx+cは指の間の二つの空隙の共通接線である。図6では符号2で表されるこの直線は、部分画像1の位置を決定するために使われる座標系のY軸である。
第四のステップは、座標系のX軸を見出すことである。X軸は、P1とP2の中点を通り直線2に垂直な直線3である。
第五のステップは前記座標系に基づいて動的なサイズをもつ部分画像1を抽出することである。部分画像1のサイズおよび位置は点P1とP2の間のユークリッド距離(D)に基づいている。当該座標系において部分画像1の角を表す点4、5、6、7はそれぞれ(0.25D,0.5D)、(1.25D,0.5D)、(0.25D,−0.5D)、(1.25D,−0.5D)である。このように部分画像1は、一辺の長さが前記ユークリッド距離に等しく、Y軸(直線3)に関して対称な正方形である。部分画像は手の特徴(すなわち、指の間の領域)に基づいているので、個々の手それぞれについて再現性がある。
図7および図8は、座標系のx軸2、y軸3および部分画像を図3の生の画像に重ねて示したものである。第六のステップは部分画像1を標準サイズに規格化することであり、これには特徴抽出のための双線形補間を使う。図9が規格化された部分画像1を示す。
点P3、P4を見出すためには、まず以下の方法を使って手相線が抽出される。次いで、手相線の長さ、位置、強さに従って、感情線および生命線が得られる。最後に、感情線と生命線が手のひらの境界と交わる点をみつけることによって点P3、P4が得られる。
手相線は屋根の稜線のようなものである。屋根の稜線は、灰色階調プロファイルの一階微分における不連続点として定義できる。換言すれば、屋根の稜線をなす点の位置は、その一階微分が0をまたぐ点である。二階微分の大きさは屋根の稜線の強さを示す。これらの性質を手相線の検出に使うことができる。手相線の方向は任意であるため、検出は複数の方向で行う必要がある。θ方向で検出できる線はθ方向の方向性線と呼ばれる。水平線の方向がθ=0°方向である。
画像をI(x,y)で表すとする。線の接続およびなめらかさを改良するため、画像は直線方向(たとえば水平方向とする)に沿って分散σsをもつ一次元ガウス関数Gσsによって平滑化される:
Is=I*Gσs (式1)
ここで、*はたたみ込み演算である。
垂直方向の一階微分I′および二階微分I″は、平滑化された画像Isについて、分散σdをもつ一次元ガウス関数Gσdの一階微分(G′σd)および二階微分(G″σd)とのたたみ込みを取ることによって得られる。式は、
I′=Is*(G′σd)T=(I*Gσs)*(G′σd)T=I*(Gσs*(G′σd)T) (式2)
I″=Is*(G″σd)T=(I*Gσs)*(G″σd)T=I*(Gσs*(G″σd)T) (式3)
ここで、Tは転置操作で、*はたたみ込み演算である。
方向性線検出器H1 θ、H2 θが:
H1 0=Gσs*(G′σd)T (式4)
H2 0=Gσs*(G″σd)T (式5)
とすると、
I′=I*H1 0 (式6)
I″=I*H2 0 (式7)
となる。ここで、H1 0、H2 0は水平線検出器と呼ばれる(0°方向の方向性線検出器)。
水平線は、I′が0をまたく点を垂直方向に見ていくことによって得られ、それらの強さはI″の対応する点の値である。よって、
L0 1(x,y)=I″(x,y) I′(x,y)=0またはI′(x,y)×I′(x+1,y)<0の場合
L0 1(x,y)=0 その他の場合
(式8)
屋根の稜線が谷であるか尾根であるかはL0 1(x,y)の値の符号によって与えられる。正なら谷を、負なら尾根を表す。あらゆる手相線は谷であるので、L0 1(x,y)の負の値は破棄される。よって、
L0 2(x,y)=L0 1(x,y) L0 1(x,y)>0の場合
L0 2(x,y)=0 その他の場合
(式9)
隆線に比べて手相線はずっと太いので、L0 2から隆線を除去するために閾値Tを使うことができる。よって、
L0 (x,y)=L0 2(x,y) L0 2(x,y)≧Tの場合
L0 (x,y)=0 その他の場合
(式10)
L0は0°方向の方向性線等級像と呼ばれる。
手相線の方向は任意であるから、検出は複数の方向で行う必要がある。方向θの方向性線検出器H1 θ、H2 θはH1 0、H1 0を角度θ回転させることによって得ることができる。そして線上の点はθ+90°方向に0をまたぐ点をさがすことによって得ることができる。尾根になる稜線を破棄して閾値処理を行ったのちに、θ方向の方向性線等級像Lθが得られる。
方向性線検出器H1 θ、H2 θには二つのパラメータσsおよびσdがある。σsは線の接続およびなめらかさを制御し、σdは検出できる線の太さを制御する。σsの値が小さいと検出される線は接続が悪く、なめらかさも悪くなるのに対し、σsの値が大きいと一部の短い線や曲率が大きな線区間が失われる結果になる。σdが大きいと細い稜線が抽出できなくなる。一般に、手相線は長くまっすぐで細いので、手相線の検出のためにはσsは大きく、σdは小さくするのがよい。たとえば、σs=1.8、σd=0.5である。
図10から図13は図9における手のひらの方向性線等級像をそれぞれθ=0°、45°、90°、135°について、σsとσdをそれぞれ1.8、0.5として示したものである。
以下では方向性線エネルギー(DLE: directional line energy)の計算の仕方を説明する。Lθj(1≦j≦K)を掌紋画像IのK個の方向性線等級像とする。各LθjはM×Mのブロックに均等に分割され、1,...,M×Mと番号付けされる。ブロックiのθj方向の方向性線エネルギー(DLE)は:
Figure 2007524143
で定義される。ここで、mはそのブロック中の点の総数で、それらの点の座標が(x1,y1)、(x2,y2)、…、(xm,ym)である。DLE Ei θjはブロックiの方向θjの手相線の強さを反映する。
K×M×M次元ベクトルVが掌紋全体に対して構築される。ベクトルVについての式は次のようになる:
V=(E1 θ1,E2 θ1,...,EM×M θ1,...,E1 θK,E2 θK,...,EM×M θK) (式12)
ベクトルVはその成分の最大値および最小値を使って規格化される。規格化されたベクトル^Vは次のようになる:
^V=(e1 θ1,e2 θ1,...,eM×M θ1,...,e1 θK,e2 θK,...,eM×M θK) (式13)
ここで、
ei θj=(Ei θj−Emin)/(Emax−Emin) 1≦i≦M×M, 1≦j≦K (式14)
であり、EmaxおよびEminはそれぞれVの成分の最大値および最小値である。前記の規格化されたベクトルはK方向の手相線特徴(PLF: Palm-line feature)と呼ばれる。
前述したように、PLFを構築するためには、掌紋画像はM×Mのブロックに明確に分割される。ある方向性線の上にある各点は二つの状態しかない:あるブロックに属するか属さないかである。処理段の間に平行移動と回転のすべてを除去することは不可能なので、ある画像中でブロックの境界近辺の点は別の時点で同じ手のひらから取り込まれた画像の同じブロックにははいらないかもしれない。この問題を避けるため、ファジーブロックおよびファジー分割が使われる。
2lを正の整数、Uを掌紋におけるすべての点の集合とする。すると、ファジーブロック(fuzzy block)FBkはその中心点を(xk,yk)として次のように定義できる。
FBk={μk(i,j)/(i,j)} (式15)
ここで、(i,j)は点の座標、μk(i,j)はFBkにおける対応するメンバーシップ関数である。μk(i,j)は次式によって与えられる。
μk(i,j)=1 d≦l/2
μk(i,j)=2(l−d)/l l/2<d<l
μk(i,j)=0 d≧l
(式16)
ここで、
d=max(|i−xk|,|j−yk|) (式17)
である。
式16、式17は、ある点があるファジーブロックに属する度合いは、その点から当該ブロックの中心点への距離を調べることによって計算できることを表している。
M×M個のファジーブロックに(0,0)、(0,1)、…、(i,j)、…、(M−1,M−1)と番号を付け、これを、(xi,yj)はブロック(i,j)(i,j=0,...,M−1)の中心点、Mと2lは二つの正整数として、
xi=l+(3/2)×i×l (式18)
yj=l+(3/2)×j×l (式19)
xM-1=yM-1=l+(3/2)×(M-1)×l=N−l (式20)
であるときに、かつそのときに限り、画像のサイズN×NのM×Mファジー分割と呼ぶ。
画像のファジー分割においては、各ファジーブロックは隣接ブロックの(l/2)×2l=l2ピクセルと重なるので、ファジーブロックどうしの間には明確な境界はない。そこで、(式20)は次のように再配列できる。
M=(2N−l)/3l (式21)
Mと2lはいずれも正の整数なので、もしたとえばN=128であれば、(式21)を満たせるMの値は、85、21、5、1の4つしかない。対応するlの値はそれぞれ1、4、16、64である。すなわち、ファジー分割は4通り、つまり85×85のファジー分割、21×21のファジー分割、5×5のファジー分割、1×1のファジー分割が存在するということである。対応するPLFの長さは、85×85×K=7225K、21×21×K=441K、5×5×K=25K、1×1×K=Kである(ここで、KはPLFを計算するのに使われる方向性線等級像の数)。明らかに、1×1ファジー分割は掌紋認識には適さない。必要な記憶スペースと計算量はこれらのベクトルの長さに比例するので、85×85および21×21のファジー分割のPLFは掌紋認識で使うには長すぎる。したがって、5×5のファジー分割がPLFを計算するのに採用される。
ファジーブロックpの場合、式11は次のように修正できる:
Figure 2007524143
ここで、mはこのブロック中の点の総数で、それらの点の座標が(x1,y1)、(x2,y2)、…、(xm,ym)である。掌紋のファジー分割の場合のPLFの定義を得るためには、式12から式14においてEl θjを上記で置き換えればよい(1≦i≦M×M, 1≦j≦K)。
テクスチャー特徴ベクトル抽出
掌紋画像Iのテクスチャーエネルギー(TE)は下記のように定義される。
Figure 2007524143
ここで、rsの和はi,jにあるピクセルを中心とする大きさWx×Wyの方形窓W内で全ピクセルにわたって行われ、Akは零和になるよう「調整された」5×5のたたみ込みマスクであり(図14から図17で示す)、Pはパラメータ規格化因子P2=Σi,j(Ai,j)2である。TEはテクスチャーエネルギー像と呼ばれる。
図14から図17は、大域的な掌紋テクスチャー抽出に対する4種類の「調整されたマスク」を示している。図14は水平線、図15は垂直線、図16は45°の線、図17は−45°の線である。
テクスチャーエネルギー(texture energy)像TEはまずM×Mのブロックに均等に分割される。次いで各ブロックについての局所的なテクスチャーエネルギー(local texture energy)が次式を使って計算される:
Figure 2007524143
ここで、L×Nはブロックの大きさで、(xi,yi)はブロック中の点の座標である。
最後に、M×Mベクトルがすべてのブロックの局所的なテクスチャーエネルギーを使って形成される。このベクトルはテクスチャー特徴ベクトル(TFV: texture feature vector)と呼ばれる。
類似性測定
類似性測定は、測定された掌紋パラメータを認証データベースに保存されている参照パラメータと比較するために使われる。
GFVおよびPLFパラメータについては、ユークリッド距離が類似性を測定するために使われる。二つのベクトルv1、v2のユークリッド距離は次のように定義される。
Figure 2007524143
ここで、Mはベクトルの長さ、v1は掌紋から抽出されたGFVまたはPLF、v2は認証データベースに保存されているベクトルパラメータである。
TFVパラメータについては、二つの特徴パラメータの相違を評価するには角距離が使われる。XおよびYを二つの局所的テクスチャーエネルギーの特徴ベクトルとする。角距離は次式で定義される:
Figure 2007524143
ここで、Tはベクトルの転置を表し、‖ ‖はベクトルのノルムである。
以下の実験結果によって本発明に基づくシステムの有効性が示される。掌紋画像はCCDベースの掌紋スキャナを使って160名から採取された。掌紋画像は処理され、掌紋データベースを確立するためにベクトルが保存された。各個人は左右の手のひらについて計20の画像を提供するよう依頼されたので、データベースには3200の掌紋が集められた。画像の解像度は75dpiで384×284ピクセルである。部分画像1の大きさは128×128ピクセルである。
PLF特徴を試験するため、それぞれの手のひらの6枚の画像がデータベースを確立するためのトレーニングサンプルとして使われ、残りの4枚が試験サンプルとして使われた。方向性線検出器H1 θ、H2 θの分散σsおよびσdはそれぞれ1.8および0.5であり、ヒステリシス閾値が使用され、上の閾値はLθ 1の0でない点に対して大津の方法を使うことによって得られ、下の閾値はLθ 1の0でない点の最小値として選ばれる。PLFを計算するには画像の5×5のファジー分割が使われる。テンプレートは同じ手のひらからのトレーニングサンプルのPLFを平均することによって得られる。PLFは6枚の方向性線等級像を使うことによって計算される(対応する方向角は0°、30°、60°、90°、120°、150°)。
1対320の照合試験において、97.5%の精度が得られた。一対一の照合試験の本人拒否率(FRR: false rejection rate)および他人受入率(FAR: false acceptance rate)が図18にプロットしてある。等誤り率(EER: equal error rate;FARがFRRに等しくなるところ)は2.08%である。
TFVパラメータを試験するために、CCDベースの掌紋スキャナを使って193名から掌紋画像が採取された。掌紋画像は処理され、掌紋認証データベースを確立するためにベクトルが保存された。各個人は左右の手のひらについて各10の画像を提供するよう依頼されたので、データベースには3834の掌紋が集められた。
検証精度が図19に示されている。これはTFVの本物と偽物の確率分布を表している。図20はTFVの受信者操作特性(ROC: receiver operating characteristic)である。これは本人受入率を他人受入率に対してあらゆる可能な操作点についてプロットしたものである。
これまでの説明では、既知の等価物のある数値や要素に言及してきたが、そのような箇所ではそのような等価物も個々に述べられているのと同じように含められている。
本発明の実施例を説明してきたが、本発明の精神または付属の特許請求の範囲から外れることなく変形、改良または修正を行うことができることは理解しておくものとする。
掌紋の表面特徴を示す図である。 掌紋の幾何学形状特徴を示す図である。 図2の幾何学形状特徴のうちの二つを見出すためのステップを示す図である。 図2の幾何学形状特徴のうちの二つを見出すためのステップを示す図である。 図2の幾何学形状特徴のうちの二つを見出すためのステップを示す図である。 規格化された掌紋画像を得るためのステップを示す図である。 規格化された掌紋画像を得るためのステップを示す図である。 規格化された掌紋画像を得るためのステップを示す図である。 規格化された掌紋画像を得るためのステップを示す図である。 図9における掌紋画像の同定された表面特徴を示す図である。 図9における掌紋画像の同定された表面特徴を示す図である。 図9における掌紋画像の同定された表面特徴を示す図である。 図9における掌紋画像の同定された表面特徴を示す図である。 手のひらのテクスチャー抽出のための水平線についての「調整されたマスク」を示す図である。 手のひらのテクスチャー抽出のための垂直線についての「調整されたマスク」を示す図である。 手のひらのテクスチャー抽出のための45°の線についての「調整されたマスク」を示す図である。 手のひらのテクスチャー抽出のための−45°の線についての「調整されたマスク」を示す図である。 本発明に基づく方法についての検証試験結果のグラフである。 本発明に基づく方法についての検証試験結果のグラフである。 本発明に基づく方法についての検証試験結果のグラフである。

Claims (9)

  1. ・個人の手の一部分を含む画像を取得し、
    ・前記の手のさまざまな特性を定義する、幾何学形状特徴パラメータ、手相線特徴パラメータまたは手のひらのテクスチャー特徴パラメータを含む二つ以上の特徴パラメータを見出すために前記画像を解析し、
    ・前記二つ以上の特徴パラメータをデータベース中の参照情報と比較する、
    ことを含むことを特徴とする生体認証の方法。
  2. 前記幾何学形状特徴パラメータが前記の手の画像上における二つ以上の点の間の関係を含んでいることを特徴とする、請求項1記載の方法。
  3. 前記幾何学形状特徴パラメータが、人差し指と中指との間の点、薬指と小指との間の点および手相線と手の境界との交点を定義する点のうちの二つ以上を通る直線であることを特徴とする、請求項1記載の方法。
  4. 前記幾何学形状特徴パラメータが、人差し指と中指との間の点、薬指と小指との間の点および感情線もしくは生命線と手の境界との交点を定義する点のうちの二つ以上を通る直線であることを特徴とする、請求項1記載の方法。
  5. 前記幾何学形状特徴パラメータが、手の画像上で少なくとも三つの点を通る二本の直線および該二本の直線の間の角を含むことを特徴とする、請求項1記載の方法。
  6. 前記手相線特徴パラメータまたは手のひらのテクスチャー特徴パラメータを見出すことが、当該画像から再現性のある部分画像を抽出することを含むことを特徴とする、請求項1記載の方法。
  7. 前記手相線特徴パラメータを見出すことが、当該画像中の線を同定するために前記部分画像の二つ以上の方向における一階および二階微分を見出すこと、ならびに、前記線の全強度の値を計算することを含むことを特徴とする、請求項1記載の方法。
  8. 前記手のひらのテクスチャー特徴パラメータを見出すことが、当該画像についての全テクスチャーエネルギーを計算することを含むことを特徴とする、請求項1記載の方法。
  9. 前記手のひらのテクスチャー特徴パラメータを見出すことが、当該画像についての全テクスチャーエネルギーを
    Figure 2007524143
    の形の式を使って計算することを含み、ここで、rsの和がi,jにあるピクセルを中心とする大きさWx×Wyの方形窓W内で全ピクセルにわたって行われ、Akが零和になるよう「調整された」5×5のたたみ込みマスクであり、Pが規格化因子P2=Σi,j(Ai,j)2である、ことを特徴とする、請求項1記載の方法。
JP2006515633A 2003-06-12 2004-06-11 掌紋認証の方法 Pending JP2007524143A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
HK03104206A HK1062117A2 (en) 2002-09-25 2003-06-12 Method of palm print identification using geometry, line and/or texture features
PCT/CN2004/000631 WO2004111919A1 (en) 2003-06-12 2004-06-11 Method of palm print identification

Publications (1)

Publication Number Publication Date
JP2007524143A true JP2007524143A (ja) 2007-08-23

Family

ID=33548785

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006515633A Pending JP2007524143A (ja) 2003-06-12 2004-06-11 掌紋認証の方法

Country Status (2)

Country Link
JP (1) JP2007524143A (ja)
WO (1) WO2004111919A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016081116A (ja) * 2014-10-10 2016-05-16 富士通株式会社 生体情報補正装置、生体情報補正方法及び生体情報補正用コンピュータプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8548206B2 (en) 2011-01-20 2013-10-01 Daon Holdings Limited Methods and systems for capturing biometric data
US8457370B2 (en) 2011-01-20 2013-06-04 Daon Holdings Limited Methods and systems for authenticating users with captured palm biometric data
CN104809446B (zh) * 2015-05-07 2018-05-04 西安电子科技大学 基于校正手掌方向的掌纹感兴趣区域快速提取方法
CN109829383B (zh) * 2018-12-29 2024-03-15 平安科技(深圳)有限公司 掌纹识别方法、装置和计算机设备
CN117058723B (zh) * 2023-10-11 2024-01-19 腾讯科技(深圳)有限公司 掌纹识别方法、装置及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63308682A (ja) * 1987-06-10 1988-12-16 Toshiba Corp 個人認証装置
JPS6466780A (en) * 1987-09-08 1989-03-13 Toshiba Corp Personal certification device
JPH07141506A (ja) * 1993-11-17 1995-06-02 Canon Inc 情報処理装置
JPH09167230A (ja) * 1995-12-18 1997-06-24 Nec Corp 指掌紋画像処理装置
JP2000510982A (ja) * 1997-03-13 2000-08-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 手の生体特徴検出装置
JP2002117405A (ja) * 2000-10-05 2002-04-19 Nippon Telegr & Teleph Corp <Ntt> 掌形認証方法
JP2002163655A (ja) * 2000-11-24 2002-06-07 Omron Corp 個人認証装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5526436A (en) * 1993-06-17 1996-06-11 Asahi Kogaku Kogyo Kabushiki Kaisha Image detecting apparatus for an individual identifying system
JP2944602B2 (ja) * 1998-01-14 1999-09-06 警察庁長官 掌紋印象の登録・照合方法およびその装置
JP3454309B2 (ja) * 2001-03-14 2003-10-06 日本電気株式会社 画像照合処理装置および方法、画像照合システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63308682A (ja) * 1987-06-10 1988-12-16 Toshiba Corp 個人認証装置
JPS6466780A (en) * 1987-09-08 1989-03-13 Toshiba Corp Personal certification device
JPH07141506A (ja) * 1993-11-17 1995-06-02 Canon Inc 情報処理装置
JPH09167230A (ja) * 1995-12-18 1997-06-24 Nec Corp 指掌紋画像処理装置
JP2000510982A (ja) * 1997-03-13 2000-08-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 手の生体特徴検出装置
JP2002117405A (ja) * 2000-10-05 2002-04-19 Nippon Telegr & Teleph Corp <Ntt> 掌形認証方法
JP2002163655A (ja) * 2000-11-24 2002-06-07 Omron Corp 個人認証装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016081116A (ja) * 2014-10-10 2016-05-16 富士通株式会社 生体情報補正装置、生体情報補正方法及び生体情報補正用コンピュータプログラム
US10019618B2 (en) 2014-10-10 2018-07-10 Fujitsu Limited Biometric information correcting apparatus and biometric information correcting method

Also Published As

Publication number Publication date
WO2004111919A1 (en) 2004-12-23

Similar Documents

Publication Publication Date Title
US7496214B2 (en) Method of palm print identification
Afsar et al. Fingerprint identification and verification system using minutiae matching
JP4246154B2 (ja) バイオメトリックな認証方法
US7072523B2 (en) System and method for fingerprint image enhancement using partitioned least-squared filters
US6876757B2 (en) Fingerprint recognition system
US7110581B2 (en) Wavelet-enhanced automated fingerprint identification system
US7599530B2 (en) Methods for matching ridge orientation characteristic maps and associated finger biometric sensor
JP2815045B2 (ja) 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
WO2005124662A1 (en) Palm print identification using palm line orientation
Gnanasivam et al. An efficient algorithm for fingerprint preprocessing and feature extraction
JP2007524143A (ja) 掌紋認証の方法
WO2002080088A1 (fr) Procede d&#39;identification de particularites biologiques chez l&#39;homme
Sanchez-Avila et al. Multiscale analysis for iris biometrics
Khaliluzzaman et al. Hand geometry based person verification system
Ray et al. Palm print recognition using hough transforms
Palma et al. A dynamic algorithm for palmprint recognition
JP2659046B2 (ja) 本人照合装置
Paik et al. On a lip print recognition by the pattern kernels with multiresolution architecture
Iwasokun et al. Singular-minutiae points relationship-based approach to fingerprint matching
CN112507974B (zh) 一种基于纹理特征的掌纹识别方法
Wang et al. Fingerprint classification: an approach based on singularities and analysis of fingerprint structure
Patel et al. Improve fingerprint and recognition using both minutiae based and pattern based method
Verma et al. Personal palm print identification using KNN classifier
Talele et al. Study of local binary pattern for partial fingerprint identification
Kamboj et al. Review paper on enhancing palm print recognition system

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090630

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090925

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091002

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091030

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091109

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20091130

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20091207

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100629