JP2007188504A - 画像中の画素強度をフィルタリングする方法 - Google Patents

画像中の画素強度をフィルタリングする方法 Download PDF

Info

Publication number
JP2007188504A
JP2007188504A JP2007002498A JP2007002498A JP2007188504A JP 2007188504 A JP2007188504 A JP 2007188504A JP 2007002498 A JP2007002498 A JP 2007002498A JP 2007002498 A JP2007002498 A JP 2007002498A JP 2007188504 A JP2007188504 A JP 2007188504A
Authority
JP
Japan
Prior art keywords
filter
iris
image
pixels
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007002498A
Other languages
English (en)
Inventor
J Jones Michael
マイケル・ジェイ・ジョーンズ
Guodong Guo
グオドング・グオ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2007188504A publication Critical patent/JP2007188504A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

【課題】画像中の画素強度をフィルタリングする方法を提供する。
【解決手段】隣接する画素領域を含むフィルタが定義され、それらの領域に演算子が関連付けられる。演算子は、総和演算子及び減算演算子である。フィルタは中心軸を中心に偶数対称及び奇数対称である。フィルタの適用による全強度値が求められる。全強度値は2値化される。
【選択図】図4

Description

本発明は、包括的には画像中のテクスチャの分類に関し、特にテクスチャ分類のための和差フィルタに関する。
多くのセキュリティシステムは、信頼できる個人識別又は個人認証を要求する。バイオメトリック技術は、鍵、IDカード、及びパスワード等の従来の識別技法及び認証技法の欠点の多くを克服する。バイオメトリクスは、生理特性及び/又は行動特性を表す特徴に基づく個人の自動認識を指す。
DNAサンプル、顔形状、指紋マニューシャ、手形状、手書きスタイル、虹彩の外観、網膜静脈の構成、及び音声スペクトラム等のいくつもの生理特徴をバイオメトリックキューとして用いることができる。これら全ての特徴のうち、虹彩認識の精度は非常に高い。虹彩は弁別性の高い情報を持つ。一卵性双生児の虹彩であっても異なる。
虹彩の特定(Localization)
通常、虹彩分析は虹彩の特定から始まる。一つの従来技術の方法は微積分演算子(IDO)を用いる(Daugman, J.G.著「High confidence visual recognition of persons by a test of statistical independence」(IEEE Trans. on Pattern Analysis and Machine Intelligence, Volume 15, pp. 1148-1161, 1993)(本明細書中に援用される))。IDOは、以下の最適化を用いて虹彩の内側境界及び外側境界を見つける。
Figure 2007188504
ここで、I(x,y)は、目を含む画像である。IDOは画像I(x,y)を、画像I(x,y)の正規化された閉曲線積分の増大する半径rに関するぼけた(blurred)偏導関数の最大値について、半径r及び中心座標(x,y)を有する円弧dsに沿って探索する。記号「」は畳み込みを示し、Gσ(r)は標準偏差σのガウス関数等の平滑化関数である。
IDOは、円のエッジ検出器として働く。IDOは、3Dパラメータ空間を勾配の最大値について探索する。したがって、従来のCannyのエッジ検出器(Canny, J.著「A computational approach to edge detection」(IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 8, pp. 679-698, 1986))のように閾値を用いる必要はない。
別の方法はハフ変換を用いる(Wildes, R.著「Iris recognition: An emerging biometric technology」(Proc. IEEE 85, pp. 1348-1363, 1997))。この方法は、虹彩画像中のエッジを検出した後、円のハフ変換を行って虹彩の境界を特定する。ハフ変換は、以下の最適化の最適パラメータを探索する。
Figure 2007188504
ここで、
Figure 2007188504
であり、エッジ画素が
Figure 2007188504
である場合、
Figure 2007188504
である。
エッジ検出法及びハフ変換法の一つの問題は、エッジ検出中に閾値を用いることである。異なる閾値の値は異なるエッジを生じ得る。異なる閾値はハフ変換の結果に大きく影響を及ぼし得る(Proenca, H.、Alexandre, L.著「Ubiris: A noisy iris image database」(Intern. Confer. on Image Analysis and Processing, 2005))。
ほとんどの他の方法は本質的に、DaugmanのIDO又はWildeのエッジ検出とハフ変換との組み合わせの、パラメータ探索範囲を制約すること又は探索プロセスを最適化することによる些細な変形である。例えば、Ma他は、画素強度の投影及び閾値を用いて瞳孔位置のロケーションを大まかに推定する。これに続いて、Cannyのエッジ検出及び円のハフ変換を行う(Ma, L.、Tan, T.、Wang, Y.、Zhang, D.著「Personal identification based on iris texture analysis」(IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 25, pp. 1519-1533, 2003))。
Masekは、Cannyの検出器とわずかに異なるエッジ検出法を記載し、次に、虹彩の境界抽出のために円のハフ変換を用いている(Masek, L.、Kovesi, P.著「MATLAB Source Code for a Biometric Identification System Based on Iris Patterns」(The School of Computer Science and Software Engineering, The University of Western Australia 2003))。
Kim他は、3つのガウス分布の混合を用いて目の画像を暗い領域と、中間領域と、明るい領域とに粗く分割し、次にハフ変換を用いて虹彩を特定する(Kim, J.、Cho, S.、Choi, J.著「Iris recognition using wavelet features」(Journal of VLSI Signal Processing, vol. 38, pp. 147-156, 2004))。
Rad他は、様々な方向の勾配ベクトル対を用いて円の位置を粗く推定し、次にDaugmanのIDOを用いて虹彩の境界を精緻化する(Rad, A.、Safabakhsh, R.、Qaragozlou, N.、Zaheri, M.著「Fast iris and pupil localization and eyelid removal using gradient vector pairs and certainty factors」(The Irish Machine Vision and Image Processing Conf., pp. 82-91, 2004))。
Cui他は、ウェーブレット変換を求め、次に、ハフ変換を用いて虹彩の内側境界を見つける一方で、外側境界にはDaugmanのIDOを用いる(Cui, J.、Wang, Y.、Tan, T.、Ma, L.、Sun, Z.著「A fast and robust iris localization method based on texture segmentation」(Proc. SPIE on Biometric Technology for Human Identification, vol. 5404, pp. 401-408, 2004))。
上記方法はいずれも、虹彩の境界抽出のために画像中のテクスチャを用いていない。Cui他の方法では、まつげ及び目蓋によって部分的に遮蔽されている画像中のエリアを粗く画定するためにのみテクスチャが用いられる。DaugmanのIDOを用いて、放物線の弧がそのエリア内の目蓋に当てはめられてマスクが生成される。
考え得る目蓋による遮蔽のために、マスク画像を用いて目蓋を除去することができる(Daugman, J.著「How iris recognition works」(IEEE Trans. on Circuits and Systems for Video Technology, vol. 14, pp. 21-30, 2004))。通常の技法は、目の画像において目蓋の境界を検出する。
Daugmanは、弧の曲線をスプライン当てはめとともに用いて、目蓋の境界を明示的に見つける。上記のように、Cui他は、目蓋に放物線モデルを用いる。Masekは、直線を用いて目蓋の境界を近似する。これは、必要以上に大きなマスクを生じる。
ほぼ全ての従来技術の方法が、元の目画像中の目蓋の境界を明示的に推定する。これは直感的であるが、実際にはいくつかの問題がある。目蓋の探索範囲は通常大きく、探索プロセスを遅くし、最も重要なことには、目蓋が虹彩を遮蔽していない場合でも目蓋は常に推定される。
虹彩特徴の抽出
Daugmanは、微積分演算子を用いて虹彩を特定した後に円形画像を矩形画像にアンラップする。次に、虹彩特徴の抽出のために、アンラップした画像に2Dガボールフィルタのセットを適用して、量子化された局所位相角を得る。結果として得られる2値特徴ベクトルは「虹彩コード」と呼ばれる。2値虹彩コードはハミング距離を用いて当てはめられる。
Wildesは、虹彩特徴の抽出のためにガウシアンフィルタのラプラシアンを適用し、正規化相関を用いて虹彩を照合する別の虹彩認識システムを記載している。
1D虹彩輪のセットに対する様々なスケールでのウェーブレット変換の零交差が虹彩特徴の抽出に用いられている(Boles, W.、Boashash, B.著「A Human Identification Technique Using Images of the Iris and Wavelet Transform」(IEEE Trans. On Signal Processing, vol. 46, pp. 1185-1188, 1998))。
2Dウェーブレット変換が使用され、量子化されて87ビットコードが形成された(Lim, S.、Lee, K.、Byeon, O.、Kim, T.著「Efficient iris recognition through improvement of feature vector and classifier」(ETRI J., vol. 23, pp. 61-70, 2001))。しかし、この方法は、虹彩の取り込みによく見られる目の回転問題を扱うことができない。
Masekは、2値虹彩コードの抽出のために1D対数ガボールフィルタを用いた虹彩認識システムを記載している。Ma他は、2つの円対称フィルタを用い、大きな特徴寸法を有する虹彩特徴の抽出のために小さなブロック内の平均及び標準偏差を計算した(Ma, L.、Tan, T.、Wang, Y.、Zhang, D.著「Personal identification based on iris texture analysis」(IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 25, pp. 1519-1533, 2003))。Ma他は、1Dウェーブレット変換を用いた局所変動解析に基づく方法も記載している(Ma, L.、Tan, T.、Wang, Y.、Zhang, D.著「Efficient iris recognition by characterizing key local variations」(IEEE Trans. on Image Processing, vol. 13, pp. 739-750, 2004)も参照)。
別の方法は、虹彩特徴の抽出のために局所勾配方向を特徴付ける(Sun, Z.、Tan, T.、Wang, Y.著「Robust encoding of local ordinal measures: A general framework of iris recognition」(ECCV workshop on Biometric Authentication, 2004))。この方法は計算量が多く、比較的大きな特徴ベクトルを生じる。
虹彩特徴を抽出する従来技術の方法はすべて、計算量が多く時間のかかるフィルタリングステップを使用する。バイオメトリック識別プロトコルにおける虹彩の照合について高精度を達成することができ、且つ計算量が少ない虹彩特徴の抽出方法が必要とされている。
バイオメトリクスはセキュリティ用途について重要である。多くの他のバイオメトリック特徴と比較して、虹彩認識は認識精度が非常に高い。虹彩認識の成功は、正確な虹彩特定によるところが大きい。
本発明の一つの実施の形態において、画像中の虹彩を特定する方法は、強度勾配とテクスチャの差との両方を用いる。
虹彩の境界検出精度を高めるために、楕円形モデルと円形モデルとの間で選択を行う方法が記載される。さらに、ドームモデルを用いてマスク画像を求め、アンラップされた画像中の目蓋による遮蔽を除去する。
虹彩の照合のために、画像中の虹彩の特徴を抽出する方法が記載される。アンラップされた虹彩画像は、画素強度の総和により積分画像に変換される。新規の和差フィルタバンクを用いて、従来技術の方法に見られるよりも遥かに少ない計算量で積分画像をフィルタリングする。フィルタリングされた出力は2値化されて、虹彩特徴ベクトルが生成される。虹彩特徴ベクトルは虹彩の照合に用いられる。
虹彩の特定方法が記載される。この方法は、虹彩と強膜との間及び瞳孔と虹彩との間の強度勾配とテクスチャの差との両方を利用して、虹彩の内側境界及び外側境界を求める。境界を表現するモデルが選択され、このモデルは円形又は楕円形であり得る。この方法はまた、虹彩の画像をアンラップする手段及び遮蔽されたエリアをマスクする手段を提供する。
[好適な実施形態の詳細な説明]
図1は、本発明の一実施形態による画像中の虹彩を照合する方法及びシステム100を示す。虹彩の特定は、目の画像102を取得すること(110)から開始することができる。目は虹彩103を含む。画質の評価(120)により、画像102が使用可能であるかどうかを判定する。目画像が十分な画質である場合、システムは、画像中の虹彩103を特定し(200)、十分な画質でない場合(111)、別の画像を取得する(110)。特定された虹彩の画像(虹彩画像)121は、事前に定義された画素構成を有する「アンラップされた」画像と呼ばれる矩形画像131に正規化される(130)。判定(140)を行って、アンラップされた虹彩画像131中の目蓋による遮蔽を検出する。遮蔽がある場合、マスク161を生成し(160)、アンラップされた画像131に関連付ける。遮蔽がない場合、マスクなし(170)となる。アンラップされた画像から虹彩特徴151を抽出し(150)、マスク161(もしあれば)とともに用いて、記憶された虹彩ライブラリ181のために生成された特徴ベクトルと比較しての虹彩の照合(180)を行う。
虹彩画像の特定
図2Aは、本発明の特定ステップ200の詳細を示す。最初に、目画像102中の虹彩の強度勾配情報225及びテクスチャ情報235を求める(220〜230)。勾配情報225及びテクスチャ情報235を結合して(240)、画像中の虹彩の内側境界245及び外側境界246を生成する。境界の生成(200)については以下でさらに詳述する。本発明の一実施形態によれば、円のセット215について勾配情報及びテクスチャ情報を求めて結合してもよい。結合(240)の最大値に関連する1つの円が虹彩の境界として選択される。上記の手順は、虹彩の内側境界及び外側境界の両方の特定に用いることができることに留意すべきである。
一実施形態に従って、円のセット215を定義する(210)。この円のセット215は円を含まなくても、1つの円を含んでも、又は任意数の円を含んでもよい。また、円のセット215は、画像の特徴に応じて制約する、例えば、円の中心が瞳孔の中心に近接するように制約することができる。
図2Bは、本発明の一実施形態によるマスクを生成する方法を示す。虹彩画像121は、上述のように特定された虹彩の内側境界245及び外側境界246に従って虹彩画像121をアンラップすること(130)によって正規化される。アンラップされた虹彩画像131中に目蓋による遮蔽があるかどうかについて判定(140)を行う。目蓋による遮蔽がある場合、マスク161を生成する(160)。目蓋による遮蔽がない場合、マスクは生成されない(170)。以下でさらに詳述するように、従来技術とは異なり、マスク画像161は、入力される目画像102ではなくアンラップされた画像131について生成される(160)。
図3に示すように、目300において、虹彩304は瞳孔305よりも明るく強膜306よりも暗い。したがって、ほとんどの従来技術の虹彩特定方法は、強度勾配又はエッジ検出のいずれかを用いる。これらの方法は、瞳孔と虹彩との間、及び虹彩と強膜との間の強い強度コントラストに依存する。多くの場合、これらのコントラストは、信頼性の高い虹彩の特定には不十分である。
本発明では、虹彩304が瞳孔及び強膜と非常に異なるテクスチャを有することに着目する。瞳孔及び強膜はそれぞれ、むらのない黒及び白に見え、テクスチャが事実上ない。対照的に、虹彩は斑点又は線があるように見える。本発明では、このテクスチャの差が、特に強度コントラストが比較的小さい場合に、虹彩と瞳孔との間、又は虹彩と強膜との間の区別に有用であることを見出す。これにより、虹彩の特定を大幅に改良することができる。
本発明の一実施形態は、勾配情報とテクスチャの差との結合を用いる。虹彩の特定のための定式は、以下の最適化により表すことができる。
Figure 2007188504
ここで、C(.)は実質的に虹彩画像中の円に沿った画素強度の勾配の大きさの測度を表し、T(.)は虹彩画像中の円の両側のテクスチャの差の測度を表し、λは重みパラメータ、例えば0.1である。円のセット215内の全ての円を調べて、画素強度の勾配の大きさとテクスチャの差との加重和を最大化する円を見つける。
テクスチャの差Tは、円(x,y,r)303により分離される内側ゾーンZ301と外側ゾーンZ302との間のテクスチャの差を測定する。これらのゾーンは、調べている円に実質的に隣接する。本発明の一実施形態によるテクスチャの差は、虹彩の境界を求める際に使用されるものであり、従来技術による、虹彩の遮蔽領域を求めるためのテクスチャの使用と混同すべきでないことを理解すべきである。同一の定式を瞳孔と虹彩との間の内側境界と、強膜と虹彩との間の外側境界との両方に用いることができる。
内側境界及び外側境界に隣接する領域は、必ずしも均一又は均質でないため、境界の隣の狭いゾーンのみを用いてテクスチャの差を測定する。
虹彩の特定のために、勾配の大きさに加えて、テクスチャの差が内側ゾーンと外側ゾーンとの間で測定される。考え得る目蓋による遮蔽のために、探索は、左象限310及び右象限320、すなわち135°〜225°及び−45°〜45°の角度に制限することができる。図3は、瞳孔305及び虹彩304は同心でない場合があることも示す。
強度勾配
式(3)の第1項であるC(I,x,y,r)は強度勾配情報を表す。この項は、円に沿った画素強度の勾配を用いて評価され、例えばDaugmanの微積分演算子(IDO)を用いることができる(上記を参照)。
したがって、次式が得られる。
Figure 2007188504
ここで、I(x,y)は目の画像である。IDOは画像I(x,y)中の強度勾配情報を、I(x,y)の正規化された閉曲線積分の増大する半径rに関するぼけた偏導関数を用いて、半径r及び中心座標(x,y)を有する円弧dsに沿って求める。記号「」は畳み込みを示し、Gσ(r)は標準偏差σのガウス関数等の平滑化関数である。画素強度は、勾配の大きさを測定する目的で[0,1]の範囲に正規化される。一実施形態において、中心の差の近似を、2画素間隔での勾配推定のために用いる。楕円等の非円形の境界を推定及びモデル化する他の方法も用いることができる。
テクスチャの差
式(3)の第2項であるT(Z,Z,x,y,r)は、円(x,y,r)の内側のゾーン及び外側のゾーンにおけるテクスチャがどの程度違うかという測度を表す。一実施形態において、カルバックライブラーダイバージェンス(KLダイバージェンス)により、内側ゾーン301及び外側ゾーン302からそれぞれ導出される2つの確率密度関数の距離(差)を測定する。虹彩の特定精度を低下させることなくテクスチャ情報を効率良く表現するために、本発明では、ローカルバイナリパターン(LBP)演算子を最小近傍、すなわち4つの最近傍画素に適応させる方法を用いる。
ローカルバイナリパターン(LBP)演算子はテクスチャを解析するために用いられる(概して、Maenpaa, T.、Pietikainen, M.著「Texture analysis with local binary patterns」(Chen, C.、Wang, P.編、Handbook of Pattern Recognition and Computer Vision. 3rd ed., World Scientific, pp. 197-216, 2005(参照により本明細書中に援用される))及びOjala, T.、Pietikinen, M.、Harwood, D.著「A comparative study of texture measures with classifications based on feature distributions」(Pattern Recognition, vol. 29, pp. 51-59, 1996(参照により本明細書中に援用される))を参照)。
ローカルバイナリパターン(LBP)演算子
図4に示すように、LBPの演算は3つのステップ、すなわち、閾値処理(410)、重み付け(420)、及び総和(430)を有する。画素402に直に隣接する全ての画素401の画素強度(150、139、112、91)を、中心画素402の強度(100)を閾値として用いて閾値処理する(410)。閾値よりも大きい強度を有する近傍画素411に値1を割り当てる。閾値よりも小さい強度を有する近傍画素412に値0を割り当てる。
次に、近傍画素の割り当てられた値(「0」又は「1」のいずれか)のそれぞれを2のべき乗である重みにより重み付けする(420)。最後に、近傍画素の重み付けした値を総和して(430)中心画素402に割り当てる。このプロセスは、検討する各画素について実行される。
次に、上述したLBP演算から得られる重み付けした値に基づいて、境界ゾーンについて画素値のヒストグラムを動的に求める。内側ゾーン及び外側ゾーンについてそれぞれ確率密度関数p(x)及びq(x)(xはヒストグラム中の各ビンのインデックスを表す)を求める。例えば、内側ゾーンの画素のp(x)は次式に従って定義することができる。
Figure 2007188504
ここで、Nは或るビンにおける重み付けされた画素値の集合であり、nはビン数であり、x∈{0,...,n}である。確率密度関数q(x)は、外側ゾーンの画素のヒストグラムについて同様に定義することができる。一実施形態において、重み付けされた値は[0,15]の範囲である。したがって、各ヒストグラムは16ビンを有する。内側ゾーン及び外側ゾーンのヒストグラムの対応するビンの確率密度関数の差すなわち「距離」はKLダイバージェンスとして測定される。
KLダイバージェンス
確率密度関数p(x)及びq(x)を有する2つのヒストグラムが与えられると、pとqとの間のKLダイバージェンスすなわち相対エントロピーは次のように定義される。
Figure 2007188504
KLダイバージェンスD(p‖q)は、p=qである場合にのみ0であり、その他の場合は正である。分布間の距離は、対称でなく三角不等式を満たさないため、真の距離ではないが、KLダイバージェンスを分布間の「距離」として考えることは依然として有用である。
結果として、式(3)の第2項は、円形の境界の場合に、KLダイバージェンスにより次のように求めることができる。
Figure 2007188504
ここで、Z及びZは、円(x,y,r)303により分離される内側ゾーン及び外側ゾーンである。
図5A〜図5Fは、本発明の一実施形態による境界特定方法の性能を従来技術の方法と比較する。図5A、図5B、図5D及び図5Eは従来技術のものであり、図5C及び図5Fは本発明の一実施形態による方法のものである。
モデル選択
目の画像中の虹彩の内側境界及び外側境界は円又は楕円によりモデル化することができる。楕円の離心率は従来の楕円
Figure 2007188504
について
Figure 2007188504
に従って求められる。
理論上、離心率eは0≦e<1を満たし、円の場合はe=0である。従来の楕円は、x軸及びy軸と一致する長軸及び短軸を有するが、虹彩画像に当てはめる楕円は、それらの軸に対して回転されることができる。円形モデルは、楕円形モデルの特別な場合であり、計算量が少ない。
ほとんどの従来技術の虹彩特定方法は、2つの円を用いて虹彩の内側境界及び外側境界をモデル化する。円は求めるのが簡単であるが、直交しない視点(perspectives of view)のために正確に当てはまらない場合がある。楕円形モデルがより良く当てはまる場合がある。この探索は4D空間で行われる。
上記の説明は円形の境界モデルについて提示されるが、説明した方法及び手順をわずかな修正により、楕円形モデルを実施するために用いることができる。Camus及びWildesは、楕円を用いて瞳孔/虹彩の境界をモデル化し、円を用いて虹彩/強膜の境界をモデル化した(Camus, T.、Wildes, R.著「Reliable and fast eye finding in close-up images」(Inter. Conf. on Pattern Recognition, pp. 389-394, 2002))。本発明では、全ての場合に最良の当てはめを得るために円又は楕円のいずれかを用いる。
本発明の一実施形態において、モデル選択は2段階のアプローチである。第1に、円形モデルを用いて、虹彩の内側境界及び外側境界を近似する。第2に、円形境界よりもわずかに大きな領域内で、以下のステップを行う。エッジ及びテクスチャ情報を上述のように得る。8連結、すなわち全ての隣接画素を用いて境界点についてチェーンコードを生成する。生成された全てのチェーンから最長の輪郭を選択し、「外れ値」のエッジ画素を排除する。
直接的な楕円当てはめ方法(例えば、Fitzgibbon, A.、Pilu, M.、Fisher, R.著「Direct least-square fitting of ellipses」(IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 21, pp. 476-480, 1999)(参照により本明細書中に援用される))を用いて、選択した輪郭に楕円を当てはめる。直接的な楕円当てはめ方法は、一般化固有値系を解き、楕円のパラメータを推定する。当てはめる楕円の離心率eを求め、虹彩の境界をモデル化するために楕円を用いるか又は円を用いるかという判定を、eが閾値eよりも大きい場合は楕円形モデルを選択し、その他の場合は円形モデルを選択するという基準により行う。閾値の離心率eは例えば0.19とすることができる。
図6A〜図6Cは、虹彩画像への円及び楕円の当てはめ効果を示す。全ての円及び楕円は、1画素幅の白線として描かれる。図6A及び図6Bの結果はそれぞれ、ハフ変換及びIDOを用いて内側境界について円形モデルにより得られる。見て分かる通り、円は瞳孔及び虹彩の境界に良く当てはまらない。図6Cの結果は、本発明の一実施形態による直接的な楕円当てはめを用い、境界は正確に当てはめられている。
マスキング
虹彩は、上目蓋及び/又は下目蓋によって遮蔽される可能性がある。いくつかの従来技術の方法は、虹彩特徴の抽出及び認識のために虹彩の上部及び下部を除外している。しかしこれは、目蓋による遮蔽がわずかであるか又は全くない場合に有用な情報を失うことになるかもしれない。目蓋の明示的なモデル化は、虹彩の上部及び下部を単純に省くよりも優れた、利用可能な情報の使用を可能にすべきである。マスク画像を生成し、アンラップされた虹彩画像に関連付けて、目蓋による遮蔽をモデル化してもよい。
ドームモデル
図7は、虹彩710及び矩形のアンラップされた虹彩720を示す。一実施形態において、アンラップされた画像は512×64の画素の矩形配置である。アンラッピングプロセスは、Daugman, J.G.著「High confidence visual recognition of persons by a test of statistical independence」(IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 15, pp. 1148-1161, 1998(参照により本明細書中に援用される)及びMa, L.、Tan, T.、Wang, Y.、Zhang, D.著「Personal identification based on iris texture analysis」(IEEE Trans. on Pattern Analysis and Machine Intelligence, vol. 25, pp. 1519-1533, 2003)(参照により本明細書中に援用される))に記載されている。
図8A〜図8Cに示すように、従来技術と異なり、本発明では、元の目画像ではなくアンラップされた矩形画像において目蓋による遮蔽を求める。抽出された目蓋は、円の上部の弧(以下「ドーム」と呼ぶ)によってモデル化することができる。図8Aには目蓋による遮蔽がないためドームがなく、図8Bには片方の目蓋による遮蔽のために1つのドームがあり、図8Cには下目蓋及び上目蓋による遮蔽のために2つのドームがある。
本発明の一実施形態によれば、上目蓋及び下目蓋による遮蔽はいずれも同様に処理することができる。本発明の一実施形態による一方法は「最小決定(least commitment)戦略」を用いる。
まず、目蓋による遮蔽が存在するか否かの判定がある。図8Aのように遮蔽がない場合、マスクを生成する必要はない。図8B及び図8Cのように遮蔽が存在する場合、この方法は、探索すべきドームがいくつあるか(1つ又は2つ)を求め、次に、関連するドームを見つける。この方法は、考え得る誤検出された遮蔽を低減する後処理段も有する。ドームを抽出するために、スプライン、放物線モデル、又は直線の大まかなモデル等のより複雑なモデルではなく、本発明の一実施形態による円形モデルを用いて、目蓋による遮蔽を近似する。
アンラップされた画像において考え得る目蓋による遮蔽を検出するために、アンラップされた虹彩の、目蓋が現れる可能性のある領域を、遮蔽が起こり得ない領域と比較する。これらの領域は、それぞれの生の画素値分布を観察することによって比較される。カイ2乗距離の測度を用いて、2つの領域における生の画素値ヒストグラムを比較する、すなわち、
Figure 2007188504
であり、ここで、M及びNは比較すべき2つのヒストグラムであり、それぞれBビンを有する。
より詳細には、本発明の一実施形態によるマスクの算出は以下のステップを含み得る。
1.アンラップされた画像において、入力される目画像中の上目蓋、確実に遮蔽のない虹彩(例えば図3における135°〜225°の角度の領域)、及び下目蓋を含む領域にそれぞれほぼ対応するR、R、及びRとして示される3つの領域を抽出する。この3つの領域は例えば、画像の下部から開始して40×20画素のエリアで得られる。
2.H、H、及びHとして示される、各領域における生の画素値のヒストグラムを求める。ヒストグラムH、H、及びHは32ビンを用いて求められる。
3.式(7)を用いてカイ2乗距離Χ(H,H)及びΧ(H,H)を求める。
4.Χ(H,H)>T、且つΧ(H,H)>T(ここで、Tは閾値である)であるかをチェックすることによって、遮蔽があるか否か、ある場合にはいくつのドームがあるかを決定する。例えば、Tは0.26に等しい。
5.必要に応じて、式(3)を用いてドームを探索する。ここでは、円の中心はアンラップされた画像の下にあり、円の上部の弧のみが目蓋に当てはめられることに留意されたい。
6.見つかったドームの最大値がC(I,x ,y ,r)+λT(Z,Z,x ,y ,r)>T(ここで、Tは例えば13.5に設定される閾値であり、(x ,x ,r)は見つかったドームの円である)を満たすかどうかをチェックすることにより誤警報を除去する。満たさない場合、抽出されたドームは誤警報である。
虹彩特徴の抽出
図9は、アンラップされた虹彩画像131において虹彩の特徴を抽出する方法900を示す。本発明の一実施形態によれば、アンラップされた虹彩画像131は、積分画像915に変換することができる(910)。以下でさらに詳述する和差(DoS)フィルタ921を用いて、アンラップされた虹彩画像131又は積分画像915をフィルタリングして(920)、フィルタリングされた出力925を生成する。フィルタリングされた出力925は2値化されて(930)、アンラップされた虹彩画像131の虹彩特徴ベクトル935を生じる。
積分画像
以下でさらに詳述するDoSフィルタリングは、事前に計算された積分画像915を用いて行うことができる。Crowが、高速テクスチャマッピングのための「エリア総和テーブル」を最初に提案した(Crow, F.著「Summed-area tables for texture mapping」(Proceedings of SIGGRAPH, vol. 18, pp. 207-212, 1984))。Viola及びJonesは、顔検出における高速特徴抽出のために「積分画像」を用いる(Viola, P.、Jones, M.著「Rapid object detection using a boosted cascade of simple features」(IEEE Conference on Computer Vision and Pattern Recognition, vol. 1, pp. 511-518, 2001)(参照により本明細書中に援用される))。
積分画像において、各ロケーション(x,y)における値は、
Figure 2007188504
を含むロケーション(x,y)の左上の全画素強度の和を含み、ここで、ii(x,y)は積分画像における積分画素強度値であり、i(x,y)はアンラップされた虹彩画像における画素強度値である。アンラップされた虹彩画像131は、アンラップされた虹彩画像に対する1パスで積分画像915に変換することができる。図10に示すように、矩形ABCD1010の角A、B、C及びD1011〜1014における積分画像値を有する積分画像915の矩形エリア1010における画素強度の和は次のように求めることができる。
Figure 2007188504
和差(DoS)フィルタを用いたフィルタリング
DoSフィルタ
本発明の一実施形態によれば、和差(DoS)フィルタを用いて、虹彩画像からテクスチャベースの特徴を抽出する。本発明のDoSフィルタは、いくつかの特有の特性を有する。まず、DoSフィルタの成分は値ではなく演算子である。図11Cは、典型的な従来技術のフィルタ1101を示す。このフィルタの9つの成分はそれぞれ、フィルタリングする画像中の画素に対応する。ほとんどの技法では、フィルタを画素にわたってラスタスキャン順に「移動」させて全画素をフィルタリングする。通常、成分は数値又は整数重みである(図4も参照)。フィルタリング中、各値に対応する画素強度を掛ける。次に、重み付けされた強度を用いて、「書き換え」ステップ中に中心画素値を割り当てる。
図11Dの本発明によるフィルタ1102では、フィルタの成分が関数又は演算子、例えば総和及び減算である。さらに、演算子は画素領域に適用される。図示のように、各演算子は、複数の1×3の隣接する画素領域について規定される。本質的に、演算子は、対応する領域の全画素に適用される。例えば、領域1101及び1103内の画素強度は全て総和され、領域1102内の画素強度は減算される。次に、全ての隣接領域の結果を合計し、何らかの閾値に応じて1つの2進数、すなわち「0」又は「1」に換算する。例えば、合計が正である場合に数は「1」となり、他の場合に数は「0」となる。
2値化した値はその場合、そのフィルタがカバーする全ての隣接領域に割り当てられる値である。したがって、フィルタは2つの効果を有する。画素数の表現のサイズは、隣接領域のサイズによって設定される係数によって大幅に低減され、フィルタの適用毎の最終的なフィルタ出力は単一ビットである。したがって、本発明によるDoSフィルタは、特徴抽出、圧縮、及び符号化を行う。
特定の実施形態において、本発明の、虹彩を符号化するための矩形の和差(DoS)フィルタは、2つの基本的な断面形状を有する。図11Aは「奇数」対称フィルタを示し、図11Bは「偶数」対称フィルタを示す。奇数対称フィルタは、その中心軸を中心に奇数対称であり、奇数の演算子及び対応領域を有する。偶数対称フィルタは、その中心軸を中心に偶数対称であり、偶数の演算子及び領域を有する。フィルタは2つの可能な演算子、例えば(+)及び(−)のみを有する。したがって、フィルタを「信号」、例えば画像の矩形領域で畳み込むことにより、フィルタの正の部分及び負の部分に関連する信号部分の総和の差が求められる。したがって、このフィルタは和差(DoS)フィルタと呼ばれる。
本発明のDoSフィルタは、いくつかの点で従来技術のフィルタよりも優れている。DoSフィルタの設計は概念的に非常に単純である。ガボールフィルタ等の従来技術のフィルタは通常、フィルタリングにおいて用いられる1つ又は複数の関数を近似することが多い整数値のアレイによって表される。利点として、本発明の一実施形態によるDoSフィルタは、演算子の矩形領域により表現することができる。さらに、演算子は単一ビットで表すことができる。したがって、フィルタは、画像中の多くの画素をカバーする大きな領域に対しても非常にコンパクトな表現を有する。
乗算を伴うために長い計算時間を伴う従来技術のフィルタを用いたフィルタ応答の算出とは異なり、DoSフィルタを用いたフィルタ応答は、単純な加算(+)演算及び減算(−)演算のみを用いて求めることができる。
さらなる利点として、本発明の矩形のDoSフィルタによるフィルタリングは、上述のような積分画像を用いて実施することができる。すなわち、フィルタ出力は、積分画像における単純な参照によって求めることができる。これは、DoSフィルタの適用を非常に高速化する。
極座標における従来技術の虹彩フィルタ、例えば2Dガボールフィルタは、
Figure 2007188504
のようにより複雑であり、積分画像には用いることができない。
DoSフィルタは本質的に、アンラップされた虹彩画像における誤差の原因の影響を受け難い。従来技術のフィルタとは異なり、奇数対称DoSフィルタ及び偶数対称DoSフィルタはともにゼロ和を有し、絶対強度値に対するフィルタ応答の感度を排除し、差動対効果を与える。従来技術のガボールフィルタの実数成分は、結果として得られる虹彩コードのビットが画素強度に依存しないように、切り捨てによって注意深くバイアスされなければならない。本発明のDoSフィルタを用いる場合、切り捨ては不要である。
虹彩テクスチャの特徴抽出のために、2次元DoSフィルタ対のバンクを用いる。バンクのDoSフィルタは全て同じ高さ(例えば8画素)及び様々な幅を有する。
図12は、虹彩特徴の抽出のための、様々な幅を有する奇数対称DoSフィルタ及び偶数対称DoSフィルタの4つの対1201〜1204を示す。本発明の一実施形態によれば、8つのフィルタ(12画素、24画素、36画素、及び48画素の幅のそれぞれについて1つの奇数対称フィルタ及び1つの偶数対称フィルタ)から成るバンクを用いる。全てのフィルタは8画素の高さを有する。
DoSフィルタを用いたフィルタリング
本発明の一実施形態によれば、積分画像をいくつか(例えば8個)の水平ストリップに分割し、次に間隔を置いて各ストリップ内でフィルタを適用することによってDoSフィルタバンクが虹彩画像に適用される。間隔は重複してもよい。フィルタリングされた出力は実数値である。
2値化
サイン関数を用いて、フィルタリングされた出力を不連続の整数値(1又は0)に2値化する。
Figure 2007188504
ここで、xは総和及び減算の結果であり、yはフィルタ出力である。
2値化は特徴抽出を、虹彩パターン内のノイズに影響を受け難いものにする。例えば、虹彩の画像は、様々な視角で取得することができる。さらに、光源の入射角は変化してもよく、虹彩の特定は完璧でなくてもよい。
実際にこれは、被写体の姿勢及び周囲の照明条件を制御することが難しい実世界の用途に対して特に有利である。さらに、登録中に取得される画像は、後の照合のために後に取得される画像と全く異なる姿勢及び照明条件に支配され易い。また、異なるカメラは異なる応答を有し得ることに留意されたい。
一連の「1」ビット及び「0」ビットを有する2値化された表現は特徴の照合精度を高める。虹彩特徴ベクトルを虹彩の照合に用いることができる。本発明の一実施形態によれば、テスト虹彩特徴ベクトルと、虹彩画像データベースに記憶される虹彩特徴ベクトルとの間のハミング距離が、虹彩の回転を補償するために左右に6シフトして求められる。ハミング距離は、2つの2進列間で異なるビット数である。より形式的には、2つの特徴ベクトルA及びBの間の距離はΣ|A−B|である。
[発明の効果]
虹彩の特定方法が記載される。この方法は、虹彩と強膜との間及び瞳孔と虹彩との間の強度勾配とテクスチャの差との両方を利用して、虹彩の内側境界及び外側境界を求める。境界を表現するモデルが選択され、このモデルは円形又は楕円形であり得る。この方法はまた、虹彩の画像をアンラップする手段及び遮蔽されたエリアをマスクする手段を提供する。
画像中の虹彩の特徴を抽出する方法も記載される。アンラップされた虹彩画像が画素強度の総和により積分画像に変換される。和差フィルタバンクが積分画像のフィルタリングに用いられる。フィルタリングされた出力は2値化されて、虹彩特徴ベクトルが生成される。虹彩特徴ベクトルは虹彩の照合に用いられる。
本発明を好適な実施形態の例として記載してきたが、本発明の精神及び範囲内で様々な他の適応及び修正を行ってもよいことが理解される。したがって、添付の特許請求の範囲の目的は、本発明の真の精神及び範囲に入るこのような変形及び修正をすべて網羅することである。
本発明の一実施形態による画像中の虹彩を照合する方法のフロー図である。 本発明の一実施形態による画像中の虹彩の境界を生成する方法のフロー図である。 本発明の一実施形態によるマスク生成方法のフロー図である。 本発明の一実施形態による、特定すべき虹彩を含む目領域の概略図である。 本発明の一実施形態による4近傍の場合のローカルバイナリパターン(LBP)演算子のブロック図である。 従来技術のハフ変換により虹彩の境界が検出された画像である。 従来技術の微積分演算子により虹彩の境界が検出された画像である。 本発明の一実施形態により虹彩の境界が検出された画像である。 従来技術のハフ変換により虹彩の境界が検出された画像である。 従来技術の微積分演算子により虹彩の境界が検出された画像である。 本発明の一実施形態により虹彩の境界が検出された画像である。 従来技術のハフ変換を用いて円形の虹彩境界が検出された目の画像である。 従来技術の微積分演算子を用いて円形の虹彩境界が検出された目の画像である。 本発明の一実施形態により楕円形の虹彩境界が検出された目の画像である。 本発明の一実施形態による、虹彩の画像を正規化又はアンラッピングするブロック図である。 本発明の一実施形態によるアンラップされた虹彩画像である。 本発明の一実施形態による、片方の目蓋による遮蔽が検出された、アンラップされた虹彩画像である。 本発明の一実施形態による、両方の目蓋による遮蔽が検出された、アンラップされた虹彩画像である。 本発明の一実施形態による虹彩特徴ベクトルを抽出する方法のフロー図である。 本発明の一実施形態による積分画像のブロック図である。 本発明の一実施形態による奇数対称フィルタのブロック図である。 本発明の一実施形態による偶数対称フィルタのブロック図である。 従来技術のフィルタのブロック図である。 本発明の一実施形態による和差フィルタのブロック図である。 本発明の一実施形態によるフィルタバンクのブロック図である。

Claims (15)

  1. 画像中の画素強度をフィルタリングする方法であって、
    画像中の隣接する画素領域のセットをフィルタとして定義することであって、各画素は強度値を有する、定義すること、
    演算子を前記セットの各領域に関連付けること、
    各演算子を各対応領域の前記強度に適用して、前記領域のセットの全強度値を得ること、及び
    前記全強度値を閾値処理して、2値化された強度値を、前記領域のテクスチャを表す単一ビットとして得ること
    を含む、画像中の画素強度をフィルタリングする方法。
  2. 前記領域は矩形である、請求項1に記載の方法。
  3. 前記フィルタを繰り返し適用して、前記画像中の全画素をフィルタリングし、適用毎に対応する単一ビットを生成すること、及び
    前記単一ビットを結合して、前記画像全体の前記テクスチャを表す特徴ベクトルにする、結合すること
    をさらに含む、請求項1に記載の方法。
  4. 偶数の領域がある、請求項1に記載の方法。
  5. 奇数の領域がある、請求項1に記載の方法。
  6. 前記演算子は総和及び減算である、請求項1に記載の方法。
  7. 前記フィルタはその中心軸を中心に対称である、請求項1に記載の方法。
  8. 前記フィルタは前記中心軸を中心に偶数対称である、請求項7に記載の方法。
  9. 前記フィルタは前記中心軸を中心に奇数対称である、請求項7に記載の方法。
  10. 前記2値化された強度値は、前記全強度値が正である場合に1であり、その他の場合に0である、請求項1に記載の方法。
  11. 前記画像は積分画像である、請求項1に記載の方法。
  12. 複数のフィルタ対を含むフィルタセットを定義すること、及び
    前記フィルタセットの各フィルタ対を前記画像中の全画素に適用することであって、該対の各フィルタは同一の画素領域に適用される、適用すること
    をさらに含む、請求項1に記載の方法。
  13. 各フィルタ対の前記フィルタ同士は同一サイズである、請求項12に記載の方法。
  14. 前記フィルタ対はそれぞれ、偶数対称の第1のフィルタ及び奇数対称の第2のフィルタを含む、請求項13に記載の方法。
  15. 前記フィルタセットは4対のフィルタを含み、第1のフィルタ対のサイズは12×8画素であり、第2のフィルタ対のサイズは24×8画素であり、第3のフィルタ対のサイズは36×8画素であり、第4のフィルタ対のサイズは48×8画素である、請求項14に記載の方法。
JP2007002498A 2006-01-11 2007-01-10 画像中の画素強度をフィルタリングする方法 Pending JP2007188504A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/329,791 US20070160308A1 (en) 2006-01-11 2006-01-11 Difference of sum filters for texture classification

Publications (1)

Publication Number Publication Date
JP2007188504A true JP2007188504A (ja) 2007-07-26

Family

ID=38232817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007002498A Pending JP2007188504A (ja) 2006-01-11 2007-01-10 画像中の画素強度をフィルタリングする方法

Country Status (2)

Country Link
US (1) US20070160308A1 (ja)
JP (1) JP2007188504A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211179A (ja) * 2008-02-29 2009-09-17 Canon Inc 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置
WO2012098842A1 (ja) * 2011-01-20 2012-07-26 パナソニック株式会社 特徴抽出装置、特徴抽出方法、特徴抽出プログラム、および、画像処理装置
US8340439B2 (en) 2009-06-26 2012-12-25 Canon Kabushiki Kaisha Image conversion method and apparatus, and pattern identification method and apparatus

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7591583B2 (en) * 2005-05-18 2009-09-22 Federal-Mogul World Wide, Inc. Transient defect detection algorithm
US7583823B2 (en) * 2006-01-11 2009-09-01 Mitsubishi Electric Research Laboratories, Inc. Method for localizing irises in images using gradients and textures
US20080170767A1 (en) * 2007-01-12 2008-07-17 Yfantis Spyros A Method and system for gleason scale pattern recognition
US8290219B2 (en) * 2008-08-22 2012-10-16 International Business Machines Corporation Registration-free transforms for cancelable iris biometrics
KR101522985B1 (ko) * 2008-10-31 2015-05-27 삼성전자주식회사 영상처리 장치 및 방법
CN102081739B (zh) * 2011-01-13 2012-07-25 山东大学 基于fir滤波器和下采样的虹膜特征提取方法
KR101165357B1 (ko) * 2011-02-14 2012-07-18 (주)엔써즈 이미지 특징 데이터 생성 장치 및 방법
US8385685B2 (en) * 2011-06-08 2013-02-26 Honeywell International Inc. System and method for ocular recognition
US9208402B2 (en) * 2013-03-28 2015-12-08 Honeywell International Inc. Face matching for mobile devices
KR20150005094A (ko) * 2013-07-04 2015-01-14 삼성전자주식회사 전자 디바이스 및 전자 디바이스에서 눈 영역 검출 방법
WO2015200820A1 (en) * 2014-06-26 2015-12-30 Huawei Technologies Co., Ltd. Method and device for providing depth based block partitioning in high efficiency video coding
KR20160042562A (ko) * 2014-10-10 2016-04-20 현대자동차주식회사 홍채 인식 장치 방법
FR3030042A1 (fr) * 2014-12-15 2016-06-17 Michelin & Cie Procede de detection de defaut sur une surface de pneumatique
US20170337689A1 (en) * 2016-05-20 2017-11-23 Yung-Hui Li Method for validating segmentation of objects with arbitrary shapes
CN108629262B (zh) * 2017-03-18 2021-08-20 上海荆虹电子科技有限公司 虹膜识别方法及相应装置
CN109002796B (zh) * 2018-07-16 2020-08-04 阿里巴巴集团控股有限公司 一种图像采集方法、装置和系统以及电子设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4621337A (en) * 1983-08-11 1986-11-04 Eastman Kodak Company Transformation circuit for implementing a collapsed Walsh-Hadamard transform
FR2746243B1 (fr) * 1996-03-15 1998-06-05 Procede pour fournir une representation d'une scene optique par transformation de walsh-hadamard et capteur d'image mettant en oeuvre ce procede

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211179A (ja) * 2008-02-29 2009-09-17 Canon Inc 画像処理方法、パターン検出方法、パターン認識方法及び画像処理装置
US8447076B2 (en) 2008-02-29 2013-05-21 Canon Kabushiki Kaisha Image processing method, pattern detection method, pattern recognition method, and image processing device
US8340439B2 (en) 2009-06-26 2012-12-25 Canon Kabushiki Kaisha Image conversion method and apparatus, and pattern identification method and apparatus
WO2012098842A1 (ja) * 2011-01-20 2012-07-26 パナソニック株式会社 特徴抽出装置、特徴抽出方法、特徴抽出プログラム、および、画像処理装置
US9053384B2 (en) 2011-01-20 2015-06-09 Panasonic Intellectual Property Management Co., Ltd. Feature extraction unit, feature extraction method, feature extraction program, and image processing device
JP5861123B2 (ja) * 2011-01-20 2016-02-16 パナソニックIpマネジメント株式会社 特徴抽出装置、特徴抽出方法、特徴抽出プログラム、および、画像処理装置

Also Published As

Publication number Publication date
US20070160308A1 (en) 2007-07-12

Similar Documents

Publication Publication Date Title
JP5107045B2 (ja) 目に関して取得される画像中の虹彩を表す画素を特定する方法
JP2009523265A (ja) 画像中の虹彩の特徴を抽出する方法
JP2007188504A (ja) 画像中の画素強度をフィルタリングする方法
AU2018256555B2 (en) Image and feature quality, image enhancement and feature extraction for ocular-vascular and facial recognition, and fusing ocular-vascular with facial and/or sub-facial information for biometric systems
Wang et al. Toward accurate localization and high recognition performance for noisy iris images
Puhan et al. Efficient segmentation technique for noisy frontal view iris images using Fourier spectral density
KR102554391B1 (ko) 홍채 인식 기반 사용자 인증 장치 및 방법
Frucci et al. WIRE: Watershed based iris recognition
CA2671561A1 (en) Method and apparatus for extraction and matching of biometric detail
Zhou et al. Multimodal eye recognition
Liu et al. Iris segmentation: state of the art and innovative methods
KR100664956B1 (ko) 눈 검출 방법 및 장치
Asmuni et al. An improved multiscale retinex algorithm for motion-blurred iris images to minimize the intra-individual variations
Guo et al. Iris extraction based on intensity gradient and texture difference
Jillela et al. Methods for iris segmentation
Koç et al. Detailed analysis of iris recognition performance
Broussard et al. Using artificial neural networks and feature saliency to identify iris measurements that contain the most discriminatory information for iris segmentation
Mohammed et al. Conceptual analysis of Iris Recognition Systems
Deshpande et al. Fast and Reliable Biometric Verification System Using Iris
Sun et al. Image Preprocessing of Iris Recognition
Matveev et al. Iris segmentation system based on approximate feature detection with subsequent refinements
Rathgeb et al. Iris segmentation methodologies
Yahya et al. Accurate iris segmentation method for non-cooperative iris recognition system
Subbarayudu et al. A novel iris recognition system
Sharma et al. Iris Recognition-An Effective Human Identification