JP2004206444A - Individual authentication method and iris authentication device - Google Patents

Individual authentication method and iris authentication device Download PDF

Info

Publication number
JP2004206444A
JP2004206444A JP2002375051A JP2002375051A JP2004206444A JP 2004206444 A JP2004206444 A JP 2004206444A JP 2002375051 A JP2002375051 A JP 2002375051A JP 2002375051 A JP2002375051 A JP 2002375051A JP 2004206444 A JP2004206444 A JP 2004206444A
Authority
JP
Japan
Prior art keywords
iris
mask
area
image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002375051A
Other languages
Japanese (ja)
Inventor
Kenji Kondo
堅司 近藤
Takeo Azuma
健夫 吾妻
Masahiro Wakamori
正浩 若森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2002375051A priority Critical patent/JP2004206444A/en
Publication of JP2004206444A publication Critical patent/JP2004206444A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To decrease influences of eyelashes upon the authentication precision by simple processing in individual authentication using iris pictures. <P>SOLUTION: After a boundary of an iris area consisting of an iris periphery, a pupil periphery and upper and lower eyelids positions is detected, a mask area MA is set downwards of the upper eyelid position (a). Then, the mask area MA is eliminated from an area surrounded by an iris area boundary, and the remaining area is defined as an iris area NEA to be used for then authentication (b). <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、虹彩画像を用いて個人認証を行う技術に属する。
【0002】
【従来の技術】
近年、虹彩認識を用いた個人認証の技術が、重要施設への入退室管理、銀行等のATM(Automated Teller Machine)およびPCログイン用途などに利用され始めている。特に、特許文献1および非特許文献1に記載された方法は、世界各国においてすでに商品化がなされており、事実上の世界標準方式となりつつある。両者はぼぼ同様の処理を行っているが、虹彩領域を切り出すアルゴリズムが少し異なっている。
【0003】
特許文献1の方式では、まず、円で近似した瞳孔外縁と、同じく円で近似した虹彩外縁とを決定し、これらによって囲まれたドーナツ状領域から、瞼、睫または照明反射の影響を受け易い領域を除外した蝶ネクタイ型の領域を、虹彩領域として定めている。特許文献1の図2には、このような虹彩領域の例が示されている。
【0004】
非特許文献1の方式では、円で近似した瞳孔外縁と、同じく円で近似した虹彩外縁、および、アーチ状の曲線で近似した上下まぶたの位置を決定し、これらの境界によって囲まれた領域を、虹彩領域として定めている。図18は非特許文献1の方式によって定められた虹彩領域の一例である。
【0005】
虹彩領域を切り出した後は、両者の方式は共通であり、虹彩領域を極座標で表現し、2D Gabor Waveletフィルタリングを行い、虹彩コードを生成する。
【0006】
【特許文献1】
特許第3307936号公報
【非特許文献1】
"Statistical Richness of Visual Phase Information: Update on Recognizing Person by Iris Patterns", John Daugman, International Journal of Computer Vision 45(1), 25-68, 2001
【0007】
【発明が解決しようとする課題】
ところが、従来の技術では、以下のような問題がある。
【0008】
特許文献1の方式では、虹彩領域の上部およぶ下部が、一律に、認証処理の対象領域から除外される。すなわち、まぶたが閉じているか、見開いているか、あるいは、まつげが下向きに生えており虹彩領域にかかっているか、上向きに生えていて虹彩領域にかかっていないか、などに関係なく、どのような場合であっても、虹彩領域の上部およぶ下部が一律に、処理対象から除外されてしまう。
【0009】
この結果、まぶたが見開かれ、かつ、まつげが虹彩領域にかかっていない虹彩画像では、認証に用いられない虹彩領域が広い範囲にわたって存在することになり、認証精度の面で無駄が生じる。逆に、まぶたが閉じていたり、まつげが多く虹彩領域にかかっている虹彩画像では、蝶ネクタイ型の処理領域にもまぶたやまつげが入ってしまう可能性があり、この場合には、まぶたやまつげによる輝度変化が虹彩パタンとしてコード化されてしまう。
【0010】
また、非特許文献1の方式では、まぶたラインを正しく検出できた場合でも、図19のように、虹彩領域の中にまつげが含まれる場合には、まつげによる輝度変化が虹彩パタンとしてコード化されてしまう。
【0011】
まつげは、虹彩画像上において常に一定の位置に現れるものではなく、撮影角度や瞼の開き具合などに応じて、様々な範囲や形状で現れる。そして、虹彩画像のコード化対象領域にまつげが含まれることは、個人認証において、本人拒否(FR:False Reject)が発生する大きな要因となる。
【0012】
本来ならば、画像処理を用いて一本一本のまつげを検出し、まつげ以外の虹彩領域をコード化に利用すればよい。しかしながら、虹彩認証機能を携帯電話や個人情報端末(PDA)等に搭載する場合には、コストの関係上、カメラおよびレンズは比較的低品質のものが用いられる可能性が高い。そして、カメラが低画素であったり、レンズの周波数特性が十分でない場合には、画像処理によってまつげを一本一本検出することは、実際上はきわめて困難である。
【0013】
前記の問題に鑑み、本発明は、虹彩画像を用いた個人認証において、まつげが認証精度に及ぼす影響を、簡易な処理によって、低減することを課題とする。
【0014】
【発明を解決するための手段】
前記の課題を解決するために、本発明は、虹彩画像を用いた個人認証として、虹彩画像から上まぶた位置を含む虹彩領域境界を検出し、検出された上まぶた位置の下方領域をマスク領域として設定し、虹彩領域境界によって囲まれた領域からマスク領域を除外し、残りの領域の画像を虹彩画像から切り出して認証を行うものである。
【0015】
また、本発明は、虹彩画像を用いた個人認証として、虹彩画像から上まぶた位置を含む虹彩領域境界を検出し、虹彩領域境界によって囲まれた領域を虹彩画像から切り出し、検出された上まぶた位置の下方領域をマスク領域として設定し、マスク領域が占める範囲を表すマスクデータを生成し、切り出された画像を用いるとともに、マスクデータを参照することによってマスク領域を除外して、認証を行うものである。
【0016】
これらの発明によると、上まぶた位置の下方領域がマスク領域として設定され、このマスク領域が認証の対象から除外されるので、認証対象となる画像に含まれるまつげの量が減少し、これにより、まつげの影響が少ない認証を行うことができる。しかも、マスク領域を設定して、虹彩領域から除外するまたはマスクデータを生成する、という簡易な処理によって実現されるので、例えば低品質のカメラによって撮影された虹彩画像に対しても、容易にまつげの影響を低減することができる。
【0017】
また、本発明は、虹彩画像を用いた個人認証として、虹彩画像から上まぶた位置を含む虹彩領域境界を検出し、虹彩領域境界によって囲まれた領域の画像から、特徴データを抽出するとともに、上まぶた位置の下方に設定された互いに異なる複数のマスク領域をそれぞれ表す複数のマスクデータを生成し、虹彩データベースに登録された登録者の特徴データと認証時に抽出した特徴データとを、認証時に生成した各マスクデータを参照することによって、各マスク領域をそれぞれ除外して比較し、複数の照合スコアを求め、被認証者が登録者と同一であるか否かを判断するものである。
【0018】
また、本発明は、虹彩画像を用いた個人認証として、虹彩画像から上まぶた位置を含む虹彩領域境界を検出し、虹彩領域境界によって囲まれた領域の画像から特徴データを抽出し、虹彩データベースに登録された登録者の特徴データと認証時に抽出した特徴データとを、虹彩データベースに登録された,上まぶた位置の下方に設定された互いに異なる複数のマスク領域をそれぞれ表す複数のマスクデータを参照することによって、各マスク領域をそれぞれ除外して比較し、複数の照合スコアを求め、被認証者が登録者と同一であるか否かを判断するものである。
【0019】
これらの発明によると、登録者の特徴データと認証時に抽出した特徴データとの比較において、各マスクデータを参照することによって各マスク領域が除外され、複数の照合スコアが求められ、これら複数の照合スコアから、被認証者が登録者と同一であるか否かが判定される。すなわち、上まぶた位置の下方のマスク領域を複数設定したときのそれぞれの照合スコアから、認証が行われるので、まつげの量や生え方に応じた精度の高い認証を行うことができる。
【0020】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して説明する。
【0021】
(第1の実施形態)
図1は本発明の各実施形態における認証システムの全体構成を示す図である。図1において、虹彩認証サーバ11は複数登録者の虹彩画像の特徴データを格納する虹彩データベース12を持っており、インターネット、専用線、公衆回線などのネットワーク網13に接続されている。また、虹彩登録装置14と虹彩認証装置15も同様にネットワーク網13に接続されている。虹彩登録装置14は、登録時に生成した虹彩コードを虹彩データベース12に向けて送信する。虹彩認証装置15は、認証時に生成した虹彩コードと、虹彩データベース12から取得した登録時の虹彩コードとを比較することによって個人認証を行う。
【0022】
なお、虹彩認証サーバ11は、利用する地域毎や機関毎に複数設置されていたり、負荷を分散するためのミラーサーバを含めて複数台あってもよい。また、虹彩データベース12は、ネットワーク網を介して虹彩認証サーバ11に接続されていてもよい。また、虹彩登録装置14の機能は、個人認証サーバ11に内蔵されていてもよいし、虹彩認証装置15が登録と認証の双方の機能を有していてもよい。
【0023】
図2は各実施形態における虹彩認証装置15の一例としての認証機能付携帯電話の外観を示す図である。図2の認証機能付携帯電話20は、携帯電話に、虹彩画像撮影用のカメラ21と虹彩撮影用の照明22とが付加されたものである。カメラ21および照明22以外には、モニタ23、操作ボタン24、スピーカ25、マイク26およびアンテナ27等を備えている。照明22は1個または数個の近赤外LEDによって構成されている。カメラ21には可視光カットフィルタがセットされており、近赤外成分のみを受光する。モニタ23には、撮影中の虹彩画像や認証結果が表示される。
【0024】
図3は本発明の第1の実施形態に係る個人認証方法における処理の流れを示すフローチャートである。図3は、登録時と認証時とについて共通に示したものである。なお、登録時には、照合ステップSA6が省かれる。
【0025】
まず、図3のフローに従って、本実施形態に係る個人認証方法における登録時の処理について説明する。
【0026】
まず、登録者は、虹彩登録装置14によって虹彩画像を撮影する(SA1)。以後の処理は、虹彩登録装置14を用いて行われるものとする。
【0027】
次に、撮影した虹彩画像から、虹彩領域の境界を検出する(SA2)。図4に示すように、虹彩領域の境界は、瞳孔外縁、虹彩外縁および上下のまぶた位置から構成される。本実施形態では、上述の非特許文献1に記載された方法を用いて、瞳孔外縁、虹彩外縁および上下のまぶた位置を決定する。非特許文献1では、瞳孔外縁および虹彩外縁をそれぞれ円で近似しており、切り出し位置を表すパラメータとして、それぞれ、中心x座標、中心y座標および半径の3個のパラメータ(xp ,yp ,rp )および(xi ,yi ,ri )が得られる。上下のまぶたについては、文献には「アーチ状のスプライン曲線で近似する」との記述があるが、本実施形態では、2次曲線によって近似する。2次曲線をy=a(x+b)2+cと表すと、上まぶた位置について(au,bu,cu)、下まぶた位置について(al,bl,cl)の計6個のパラメータが得られる。すなわち、全部で12個のパラメータを用いて、図4のような虹彩領域の境界を表現することができる。
【0028】
次に、ステップSA2において検出された虹彩領域境界によって囲まれた領域において、上まぶた位置の下方にマスク領域を設定する(SA3)。本実施形態では、マスク領域は、元の虹彩領域においてコード化の対象から除外される領域のことをいう。すなわち、上まぶたの下側の,まつげが存在する可能性が高い領域が、マスク領域として設定されることによって、後のコード化の対象から除外される。
【0029】
ここでは図5(a)に示すように、上まぶたを下方向に、虹彩直径2ri の所定倍(ここでは0.1倍とする)に相当する量だけ移動させる。そして、図4においてハッチが付された元の虹彩領域、すなわち虹彩領域境界によって囲まれた領域のうち、移動前の上まぶた位置と移動後の上まぶた位置とによって挟まれた領域(図5(a)においてハッチが付された領域)を、マスク領域MAとして設定する。上まぶた位置の移動は、上まぶたパラメータの定数項cu に、2ri ×0.1を加えることによって、簡単に行える。
【0030】
なお、ここでは、上まぶた位置の移動量を虹彩直径2ri の0.1倍としたが、この倍数値は他の値でもかまわない。ただし、虹彩径の所定倍に相当する量に設定することによって、取得された虹彩画像の大きさが一定でなくても、相対的に幅が一定の適切なサイズのマスク領域を設定することができる。また、虹彩画像の大きさがほぼ一定である場合は、上まぶた位置の移動量を、所定の画素数に定めてもかまわない。
【0031】
次に、図4に示す元の虹彩領域から、図5(a)に示すマスク領域MAを除外して、残りの領域を虹彩領域として定め、虹彩画像からこのコード化を行うための虹彩領域の画像を切り出す(SA4)。この結果、図5(b)に示すような虹彩領域NEAの画像が得られる。
【0032】
最後に、ステップSA4において切り出された虹彩画像から、虹彩コードを生成する(SA5)。ここでは、上述の非特許文献1に記載された手法を用いるものとする。非特許文献1の虹彩コード生成の手法の概略は、以下のとおりである。
(1)切り出された虹彩領域をxy直交座標系からrθ極座標系へと変換する
(2)解析帯を決定する(半径方向をリング状に8分割)
(3)マルチスケールの2−d Gaborフィルタを適用し、Gaborフィルタ出力後の信号を二値化したものを虹彩コードとする
図6(a)は図5(b)に示す虹彩領域を、瞳孔中心を中心としたrθ極座標系で表現した図である。実際の瞳孔外縁と虹彩外縁は正確には真円ではない。両者を敢えて円で近似した場合、瞳孔の中心と虹彩の中心は同心ではない(偏心である)が、r方向の値を瞳孔外縁で0、虹彩外縁で1に設定することにより、偏心、瞳孔の開き具合の差、および拡大縮小の影響を吸収することができる。もちろん、この時点で虹彩領域の平行移動の影響も吸収されている。また図6(b)は、決定された8リング状の解析帯域を表す図である。
【0033】
図7は(3)の虹彩コード作成を示す図であり、図6(b)の解析帯を決定した後の輝度信号(a)に、Gaborフィルタを適用して(b)二値化を行う(c)様子を示している。実際は2次元信号であるが、ここでは説明の簡略化のために1次元で示した。(a)は8リングのうちの1リングにおける角度方向輝度信号である。実際はマルチスケールのGaborフィルタを適用し、単一のスケールのGaborフィルタにも実部、虚部が存在するが、(b)(c)は、ある1つのスケールのGaborフィルタ実部を適用した結果である。二値化後の虹彩コード(c)における各ビットの位置は、虹彩画像上のある位置に対応付けることができる。
【0034】
このようにして生成された虹彩コードは、虹彩データベース12に格納される。なお、本実施形態では、非特許文献1記載の方法を用いて虹彩コード生成を行ったが、他の方法を用いてもかまわない。
【0035】
次に、同じく図3のフローに従って、本実施形態に係る個人認証方法における認証時の処理について説明する。認証時には、虹彩認証装置15によって、ステップSA1〜SA6を行う。なお、ステップSA1〜SA5における処理の内容は、登録時と同様であるので、ここでは説明を省略する。
【0036】
そしてステップSA6において、予め作成しておいた登録用虹彩コードと、認証時の虹彩コードを比較(ここでは排他的OR演算)し、2つのコード間のハミング距離を計算する。ハミング距離は、例えば、不一致ビット数/比較ビット数として計算される。ハミング距離が閾値以下の場合は、本人として受け入れ、そうでなければ他人として棄却する。
【0037】
図8は本実施形態に係る個人認証装置の機能ブロック図である。図8において、虹彩画像取得部30はカメラ等を用いて虹彩画像を取得し、虹彩境界検出部31は虹彩画像取得部30によって取得された虹彩画像から、上まぶた位置を含む虹彩領域境界を検出する。マスク部32は虹彩境界検出部31によって検出された上まぶた位置の下方領域をマスク領域として設定する。虹彩領域切り出し部33は虹彩領域境界によって囲まれた領域からマスク部32によって設定されたマスク領域を除外し、残りの領域を虹彩領域として定め、取得された虹彩画像から虹彩領域の画像を切り出す。虹彩コード生成部34は虹彩領域切り出し部33によって切り出された虹彩画像から虹彩コードを生成する。登録時には、生成された虹彩コードは虹彩データベース12に登録される。認証時には、照合部35が、生成された虹彩コードを登録虹彩コードと比較し、認証を行う。ここで、虹彩コード生成部34と照合部35とによって、認証部36が構成されている。
【0038】
以上のように本実施形態によると、上まぶた位置の下方領域がマスク領域として設定され、虹彩領域境界によって囲まれた領域からマスク領域を除外した残りの領域が虹彩領域として定められ、この虹彩領域の画像が虹彩画像から切り出され、認証に用いられる。すなわち、認証に用いられる虹彩画像から上まぶた位置の下方にあるマスク領域が除外されるので、虹彩領域に含まれるまつげの量が減少することになり、これにより、まつげの影響が少ない認証を行うことができる。
【0039】
また、マスク領域は、上述したように例えば、上まぶた位置を下方向に移動させ、移動前の上まぶた位置と移動後の上まぶた位置とによって挟まれる領域として決定することができるので、追加処理はきわめて簡易であり、処理量はほとんど増えることはない。しかも、携帯電話に搭載されるような低品質のカメラによって撮影された虹彩画像であっても、本人棄却率(FRR)を低減できる、という顕著な効果が得られる。
【0040】
なお、まつげの量が少なかったり、まつげが上向きに生えている(女性がまつげを上向きにセットする場合も含む)等、元の虹彩領域にまつげがあまりかかっていない人については、マスク領域を設定することによってコード化対象領域の面積が少なくなり、かえって認証性能が低下してしまう可能性も考えられる。しかしながら、本願発明者らは、多数のデータを用いた評価実験を行っており、その結果から、本実施形態に係る処理は、統計的に見た場合には有効であることをすでに確認している。すなわち、実際にデータ数1400程度のデータベースを用いて実験を行ったところ、上まぶた位置の下方領域をコード化対象領域から除外することによって、従来と比べて、本人棄却FR(False Rejection)の個数を12%削減することができた。
【0041】
<マスク領域の他の形状>
本実施形態では、上まぶた位置を下方向に平行移動させ、移動前の上まぶた位置と移動後の上まぶた位置とによって挟まれた領域をマスク領域として設定した。この方法によると、それぞれのまつげの長さが、生えている位置に依らず一定である場合は、まつげを効率的にコード化領域から除外することができる。
【0042】
ただし、マスク領域の設定は、必ずしも上述の方法でなくてもよい。例えば図9(a)のように、上まぶた位置と、その下方に位置する水平直線L1と、瞳孔外縁および虹彩外縁とによって囲まれた領域を、マスク領域MAとして決定してもよい。水平直線L1の垂直方向位置(Y座標)は、例えば2次曲線で近似した上まぶた位置の最上部(凸)のY座標を基準にして決定すればよい。また図9(b)に示すように、傾きを持った直線L2をマスク領域MAの下限としてもよい。この場合は、例えば後述する方法によって、虹彩領域の輝度からまつげの存在領域を推定すればよい。
【0043】
あるいは、図10(a)のように折れ線L3を用いてもよいし、図10(b)のように小矩形で領域を分割し、その境界線L4を用いてもよいし、図10(c)のように、上まぶたとは異なる曲率を持った曲線L5を用いてもよい。
【0044】
なお、本実施形態では、上まぶたの移動量を、人物に依らず、虹彩径の所定倍に相当する量としたが、本発明はこれに限られるものではなく、例えば虹彩画像から得られる輝度情報を用いて、移動量を適応的に(すなわち、まつげの量や生え方に応じて)決定してもかまわない。
【0045】
このような方法の一例として、図4に示すように虹彩領域境界を決定した後、この虹彩領域境界によって囲まれた領域における輝度を、垂直方向に調べるという方法がある。具体的には図11に示すように、虹彩領域境界によって囲まれた領域を水平直線によって垂直方向にN個(図ではN=8)の領域に分け、各領域内の平均輝度値を調べる。図11の例では、領域1はまつげが多くかかっており、領域2はまつげが少しかかっている。このため、領域1の平均輝度値は他の領域よりもかなり低くなり、また領域2の平均輝度値は他の領域よりも少し低くなる。したがって、閾値を適切に設定すれば、各領域の輝度値を基にして、まつげを多く含む領域を容易に特定することができる。また、もし各領域の輝度平均値がほぼ一定であるときは、虹彩領域にはまつげがかかっていないと判断できる。
【0046】
このようにしてまつげの存在領域を推定してから、上まぶたの移動量を決定することによって、虹彩画像毎に適応的にマスク領域が設定され、まつげの影響を的確に除去することができる。これによって、本人棄却率をより一層低減することができる。
【0047】
なお、輝度値を調べる際の領域分割は、必ずしも水平直線によるものでなくてもよく、例えば格子状に分割してもよいし、曲線を用いてもかまわない。
【0048】
なお、上まぶた位置の移動量を適応的に決定する方法としては、次のような方法を用いてもよい。すなわち、登録時に、各人物毎(虹彩画像毎)にまつげの量を計測し、上まぶたの移動量を予め設定し、これを登録虹彩コードとともに登録しておく。そして認証時には、登録者毎に予め設定された、上まぶたの移動量を用いる。
【0049】
1対1認証では、自分のIDを申告し、IDに対応する登録コードと認証時のコードとの比較を行うが、このとき、申告したIDについて登録された上まぶた移動量も併せて取得し、これを用いて認証時のコード生成を行う。これにより、人物毎(虹彩画像毎)に、まつげの量や生え方に応じた適切なマスク領域が設定されることになり、精度の高い認証を行うことができる。なお、自分のIDを申告しない1対N認証の場合は、認証時のコード生成を、対象となる登録コード毎に、これと併せて登録された移動量を用いて行えばよい。
【0050】
なお、上まぶた位置の移動量の設定について、(a)一律に決定する方法、(b)虹彩領域の輝度を基にして決定する方法、(c)登録者毎に予め設定しておく方法、についてすでに説明した。これらの方法は、単独で用いてもよいし、組み合わせて利用してもかまわない。例えば、上まぶたの移動量を登録者毎に予め登録しておき、認証時には、上まぶた位置から、登録された移動量だけ下方の領域の輝度を調べ、この輝度に応じて移動量を微調整する、といった方法も考えられる。この方法では、広い領域の輝度を調べる方法に比べて、処理量を削減することができる。また、上まぶた移動量の上限・下限を予め設定しておき、認証時に輝度を基にして上まぶた移動量を算出し、算出された上まぶた移動量が上限と下限の間に収まっているか否かをチェックするようにしてもよい。
【0051】
(第2の実施形態)
図12は本発明の第2の実施形態に係る個人認証方法における処理の流れを示すフローチャートである。図12は、登録時と認証時とについて共通に示したものである。なお、登録時には、照合ステップSB6が省かれる。また、図1に示す認証システムにおいて実行されるものとし、図2に示すような個人認証装置が用いられるものとする。
【0052】
まず、図12のフローに従って、本実施形態に係る個人認証方法における登録時の処理について説明する。
【0053】
ステップSB1,SB2における処理は、第1の実施形態におけるステップSA1,SA2と同様であるため、ここでは説明を省略する。ステップSB2の結果、図4に示すような虹彩領域の境界が検出される。
【0054】
次に、図4でハッチが付された虹彩領域境界によって囲まれた領域を、虹彩領域として定め、虹彩画像からこの虹彩領域の画像をコード化の対象として切り出す(SB3)。第1の実施形態と異なるのは、コード化を行うために切り出された虹彩領域は、まつげを含んだままであるという点である。
【0055】
次に、ステップSB3において切り出された虹彩領域の画像から、虹彩コードを生成する(SB4)。ここでの処理は、第1の実施形態におけるステップSA5と同様に実現することができ、ここではその詳細な説明を省略する。
【0056】
次に、ステップSB2において検出された虹彩領域境界によって囲まれた領域において、上まぶた位置の下方にマスク領域を設定する。そして、ステップSB3で切り出された虹彩領域内においてマスク領域が占める範囲を表すマスクデータを生成する(SB5)。具体的には、次のような処理を行う。
(1)虹彩領域において、ステップSB2において検出された上まぶた位置の下方領域を、マスク領域として設定する。ここでのマスク領域の設定は、第1の実施形態におけるステップSA3の処理と同様に行えばよい。例えば図5に示すように決定される。
(2)図13に示すように、ステップSB4において生成した虹彩コードと要素同士が対応するマスクコードをマスクデータとして設ける。虹彩コードは、虹彩領域における所定の点に2-d Gaborフィルタを適用して生成したものであるため、虹彩コードを構成する各要素は、虹彩領域における各局所領域と対応している。したがって、マスクコードの各要素も虹彩領域における各局所領域と対応している。
(3)マスクコードにおいて、(1)で設定したマスク領域に対応する要素について、照合に用いないことを表すフラグを設定する。フラグ設定の例として、マスクコードを二値ベクトルとしたとき、照合に用いない局所領域に対応する要素には“0”を設定し、照合に用いる局所領域に対応する要素には“1”を設定する。図13では、マスクコードにおいて、黒が“0”に相当し、白が“1”に相当している。すなわち、虹彩コードにおいてハッチが付された部分が、マスクコードのフラグによって、照合に用いられない要素となる。
【0057】
生成されたマスクコードは、虹彩コードとともに、虹彩データベース12に格納される。
【0058】
次に、同じく図12のフローに従って、本実施形態に係る個人認証方法における認証時の処理について説明する。認証時には、虹彩認証装置15によって、ステップSB1〜SB6を行う。なお、ステップSB1〜SB5における処理の内容は、登録時と同様であるので、ここでは説明を省略する。
【0059】
そしてステップSB6において、予め作成しておいた登録虹彩コードと、認証時の虹彩コードとを比較(ここでは排他的OR演算)し、2つのコード間のハミング距離を計算する。ハミング距離は、例えば、不一致ビット数/比較ビット数として計算される。ハミング距離が閾値以下の場合は、本人として受け入れ、そうでなければ他人として棄却する。
【0060】
このとき、図14に示すように、登録虹彩コードと併せて登録されていた登録マスクコード、および認証時に求めた認証マスクコードを参照して、マスク領域を除外して、照合を行う。すなわち、虹彩コードの各要素のうち、登録マスクコードおよび認証マスクコードにおいてともにマスクされていない要素に対応する要素のみを、比較の対象とする。これにより、虹彩コードにおいてハッチが付された部分、すなわちマスク領域に含まれた局所領域に対応する要素は、照合から除外される。
【0061】
ここでの処理を式で表すと、数1のようになる。
【数1】

Figure 2004206444
ここで、HDはハミング距離、codeA,codeBは登録虹彩コードと認証虹彩コード、maskA,maskBは登録マスクコードおよび認証マスクコードである。また、XOR演算およびAND演算は2値ベクトル同士で行うものとする。また、ベクトルの大きさを表す演算子‖‖としては、例えば、2値ベクトルについては、値が“1”である要素数を計数する演算子等を用いることができる。これは、2値ベクトルと原点との距離を算出していることに相当する。
【0062】
図15は本実施形態に係る個人認証装置の機能ブロック図である。図15において、虹彩画像取得部40はカメラ等を用いて虹彩画像を取得し、虹彩境界検出部41は虹彩画像取得部40によって取得された虹彩画像から、上まぶた位置を含む虹彩領域境界を検出する。虹彩領域切り出し部42は虹彩領域境界によって囲まれた領域を虹彩領域として定め、取得された虹彩画像から虹彩領域の画像を切り出す。虹彩コード生成部43は虹彩領域切り出し部42によって切り出された虹彩画像から虹彩コードを生成する。マスク部44は虹彩境界検出部41によって検出された上まぶた位置の下方領域をマスク領域として設定し、虹彩領域内においてマスク領域が占める範囲を表すマスクコードを生成する。登録時には、生成された虹彩コードはマスクコードとともに虹彩データベース12に登録される。認証時には、照合部45が、マスクコードを参照することによってマスク領域を除外して、生成された虹彩コードを登録虹彩コードと比較し、認証を行う。ここで、虹彩コード生成部43と照合部45とによって、認証部46が構成される。
【0063】
以上のように本実施形態によると、上まぶた位置の下方領域がマスク領域として設定され、虹彩領域においてマスク領域が占める範囲を表すマスクデータとしてのマスクコードが生成される。そして、認証の際に、このマスクコードを参照することによって、マスク領域が除外される。すなわち、認証時に上まぶた位置の下方にあるマスク領域が除外されるので、虹彩領域に含まれるまつげが減少することになり、これにより、まつげの影響が少ない認証を行うことができる。また第1の実施形態と同様に、マスク領域の設定はきわめて簡易な処理によって実現できるので、処理量はほとんど増えることはない。しかも、携帯電話に搭載されるような低品質のカメラによって撮影された虹彩画像であっても、本人棄却率(FRR)を低減できる、という顕著な効果が得られる。
【0064】
すなわち本実施形態は、第1の実施形態とは、まつげ領域の影響除去をコード化時に行うか、または照合時に行うか、という点のみが異なっており、同様の効果が得られる。さらに、後述するように複数のマスク領域を設定する場合には、本実施形態ではマスクコードのみを複数個生成すればよく、虹彩コードは1個生成すればすむので、第1の実施形態よりも処理量を低減することができる。
【0065】
なお、本実施形態においても、上まぶた位置の移動量の設定は、第1の実施形態と同様に様々な方法を用いることができる。また、登録者毎に移動量を予め設定しておく場合、自分のIDを申告しない1対N認証においては、認証時、対象となる登録コード毎に、マスクコードを生成すればよく、虹彩コード自体は1個生成すればよい。このため、第1の実施形態よりも演算量を削減することができる。
【0066】
なお、本実施形態では、マスクコードを二値ベクトルとして表現したが、多値ベクトルに拡張することもできる。例えば、虹彩コードの各要素に対応する局所領域の輝度に応じて、マスクコードの要素を[0,1]の範囲内で変化させる。輝度値が小さい(暗い)局所領域は、まつげの量が多いと判断してマスクコードの要素を“0”に近づける。一方、輝度値が大きい(明るい)局所領域は、まつげの量が少ないと判断してマスクコードの要素を“1”に近づける。このときのハミング距離の算出は、例えば、数2を用いればよい。
【数2】
Figure 2004206444
数2は、数1のマスクコードmaskA,maskBを2値から多値に拡張したものである。αi ,βi はそれぞれ登録マスクコードおよび認証マスクコードの要素であって、[0,1]の範囲の値をとる。xi ,yi はそれぞれ登録虹彩コードおよび認証虹彩コードの要素であり、2値(0または1)をとる。Dは虹彩コードベクトルおよびマスクコードベクトルの次元数である。
【0067】
このように、マスクコードの各要素を多値として表現した場合、虹彩画像の局所領域に含まれたまつげの量に応じて、柔軟な処理を行うことができる。なお、数2は、虹彩コードが2値であり、マスクコードが多値の場合のハミング距離を算出する式であるが、虹彩コードが多値であっても対応できることはいうまでもない。例えば、数3のようにユークリッド距離EDを利用して、要素xi ,yi が多値である虹彩コード同士の距離を算出することができる。
【数3】
Figure 2004206444
【0068】
また、本実施形態では、虹彩領域においてマスク領域が占める範囲を表すマスクデータとして、マスクコードを用いるものとしたが、本発明はこれに限られるものではなく、例えば、マスク領域の範囲を直接指定するようなデータを用いてもかまわない。また、本実施形態では、登録時と認証時とにおいてそれぞれマスクコードを生成したが、登録時のみ、または、認証時のみにマスクコードを生成してもかまわない。
【0069】
(第3の実施形態)
本発明の第3の実施形態に係る個人認証方法は、基本的には、図12のフローチャートに示す第2の実施形態に係る個人認証方法と同様である。ただし、マスクステップSB5において、互いに異なる複数のマスク領域をそれぞれ表す複数のマスクコードを生成する点が異なる。また、本実施形態に係る個人認証方法は図16に示す虹彩認証装置によって実施される。マスク部44が互いに異なる複数のマスク領域をそれぞれ表す複数のマスクコードを生成する点、照合部45が複数の照合スコアを計算する点、判断部47が複数の照合スコアから最終的な認証結果を判断する点が異なる。また、虹彩コード生成部43によって、虹彩画像から特徴データを抽出する特徴抽出部が構成されている。
【0070】
すなわち、まず登録時には、ステップSB5において、図17に示すように、マスク領域MAを設定するための上まぶたの移動量として、虹彩直径2riの0.01倍から0.20倍まで0.01倍刻みで20通りの値を用いる。これにより、20個のマスク領域MAが設定される。そして、各マスク領域についてそれぞれ、第2の実施形態と同様にマスクデータとしてのマスクコードを求めて、得られた20個のマスクコードを、ステップSB4において生成された特徴データとしての虹彩コードとともに、虹彩データベース12に格納する。
【0071】
そして認証時にも、登録時と同様に、ステップSB5において20個のマスクコードを生成する。そしてステップSB6において、登録虹彩コードと認証時の虹彩コードとの照合を行うが、このとき、登録虹彩コードに20個のマスクコードが付随しており、認証時の虹彩コードにも20個のマスクコードが付随しているため、虹彩コードの照合は、マスクコード同士の組み合わせの数すなわち400(=20×20)回行われる。そして、これら400回の照合の結果求められた照合スコアから、被認証者が登録者と同一であるか否かを判断する。ここでは、求められた複数の照合スコアとしての複数のハミング距離の中で、値が最小のハミング距離を照合時のハミング距離として決定し、判断を行うものとする。
【0072】
このように、複数のマスク領域を設定して用いて照合を行った場合、虹彩画像のまつげ量に最も適したマスク領域が用いられたときに、ハミング距離が最小となる。したがって、各人物(虹彩画像)のまつげ量に応じた適切な認証を行うことができる。本願発明者らが、実際にデータ数1400程度のデータベースを用いて実験を行ったところ、本実施形態に係る処理によって、従来と比べて、本人棄却FR(False Rejection)の個数を32%削減することができた。
【0073】
なお、本実施形態では、複数のマスク領域の設定のために、虹彩径の0.01倍から0.20倍まで0.01刻みで20通りのまつげ移動量を用いたが、倍数値の上限、下限および刻み幅は別の値であってもよい。さらには、別の手法によって、複数のマスク領域を設定してももちろんかまわない。
【0074】
また、本実施形態では、登録時と認証時とにおいてそれぞれマスクコードを生成したが、登録時のみ、または、認証時のみにマスクコードを生成してもかまわない。すなわち、虹彩データベースに登録された各マスクデータを参照することによって各マスク領域をそれぞれ除外して、照合を行ってもよいし、認証時に生成した各マスクデータを参照することによって各マスク領域をそれぞれ除外して、照合を行ってもよい。
【0075】
また、本実施形態では、マスクコードの全ての組み合わせについて照合を行った後、最小のハミング距離を照合結果としたが、照合方法はこれに限られるものではなく、例えば照合の過程において、認証閾値を下回るハミング距離が得られたときは、認証成功として照合処理を終了するようにしてもよい。
【0076】
なお、複数のマスクコードを生成する代わりに、第1の実施形態のように、複数のマスク領域が除去された虹彩コードをそれぞれ生成してもよい。ただし、本実施形態の場合、虹彩コード自体は1個生成するだけで済むので、演算量の点において本実施形態の方が効果的である。
【0077】
また、照合に適したマスク領域を学習することによって、演算量の削減を図ることができる。まず過去の認証において、求められた複数の照合スコアから、照合に適したマスク領域、例えば認証に成功したときのマスク領域を、登録虹彩コードの認証履歴として虹彩データベースに蓄積する。このとき蓄積する情報は、上述の例では、上まぶたの移動量を用いればよい。そして、次回の認証時には、照合対象の登録コードの認証履歴から適切なマスク領域を取得して、これを基にして、照合に用いるマスクコードの順序を決める。例えば、複数のマスクコードのうち、認証履歴から得られた適切なマスク領域に近い領域を表すものを優先して照合を行い、認証閾値を下回るハミング距離が得られたとき、認証成功として処理を終了する。これにより、演算量を大幅に削減することができる。なお、適切なマスク領域は、例えば、蓄積された上まぶたの移動量の平均値を用いて定めればよい。
【0078】
すなわち、複数の照合スコアから、照合に適したマスク領域を求め、このマスク領域の情報を特徴データの認証履歴として、虹彩データベースに蓄積することによって、以降の認証処理において、例えば蓄積された認証履歴を参照して、複数のマスクコードを用いる際の順序を決定することができ、したがって、認証時間を削減することができ、認証処理の効率化を図ることができる。
【0079】
なお、上述の各実施形態では、虹彩画像の特徴データとして、虹彩コードを用いるものとしたが、他の特徴データを用いてもよい。また、特徴データの生成のために極座標系表現を利用したが、これを利用しなくてもかまわない。
【0080】
【発明の効果】
以上のように本発明によると、上まぶた位置の下方にあるマスク領域が、認証の対象から除外されるので、まつげの影響が少ない認証を行うことができる。また、上まぶた位置の下方のマスク領域を、複数設定したときのそれぞれの照合スコアから認証が行われるので、まつげの量や生え方に応じた精度の高い認証を行うことができる。
【図面の簡単な説明】
【図1】本発明の各実施形態における認証システムの全体構成図である。
【図2】本発明の各実施形態における虹彩認証装置の一例である認証機能付携帯電話の外観図である。
【図3】本発明の第1の実施形態に係る個人認証方法を示すフローチャートである。
【図4】上まぶた位置を含む虹彩領域の境界を示す図である。
【図5】(a)はマスク領域の設定を示す図であり、(b)はマスク領域が除外された虹彩領域を示す図である。
【図6】(a)は図5(b)の虹彩領域をrθ極座標系で表現した図であり、(b)はリング状の解析帯域を表す図である。
【図7】虹彩コードの作成を示す図である。
【図8】本発明の第1の実施形態に係る個人認証装置の機能ブロック図である。
【図9】マスク領域の他の形状を表す図である。
【図10】マスク領域の他の形状を表す図である。
【図11】虹彩画像の輝度に応じてマスク領域を設定する方法を説明するための図である。
【図12】本発明の第2の実施形態に係る個人認証方法を示すフローチャートである。
【図13】マスクコードを示す図である。
【図14】マスクコードを用いた虹彩コードの照合を示す図である。
【図15】本発明の第2の実施形態に係る個人認証装置の機能ブロック図である。
【図16】本発明の第3の実施形態に係る個人認証装置の機能ブロック図である。
【図17】本発明の第3の実施形態において、複数のマスク領域を設定する方法を示す図である。
【図18】従来技術の1つである非特許文献の方式によって定められた虹彩領域の一例である。
【図19】虹彩領域の中にまつげが含まれた虹彩画像の例である。
【符号の説明】
11 虹彩認証サーバ
12 虹彩データベース
13 ネットワーク網
14 虹彩登録装置
15 虹彩認証装置
20 認証機能付携帯電話
30 虹彩画像取得部
31 虹彩境界検出部
32 マスク部
33 虹彩領域切り出し部
36 認証部
40 虹彩画像取得部
41 虹彩境界検出部
42 虹彩領域切り出し部
43 虹彩コード生成部(特徴抽出部)
44 マスク部
45 照合部
46 認証部
47 判断部
MA マスク領域
NEA マスク領域が除外された虹彩領域[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention belongs to a technology for performing personal authentication using an iris image.
[0002]
[Prior art]
2. Description of the Related Art In recent years, personal authentication technology using iris recognition has begun to be used for entry / exit management to important facilities, ATM (Automated Teller Machine) such as banks, and PC login applications. In particular, the methods described in Patent Literature 1 and Non-Patent Literature 1 have already been commercialized in various countries around the world, and are becoming a de facto global standard method. Both perform roughly the same processing, but the algorithm for cutting out the iris region is slightly different.
[0003]
In the method of Patent Literature 1, first, a pupil outer edge approximated by a circle and an iris outer edge also approximated by a circle are determined, and from a donut-shaped region surrounded by these, the eyelids, eyelashes, or illumination reflection are easily affected. A bow tie type area excluding the area is defined as an iris area. FIG. 2 of Patent Document 1 shows an example of such an iris region.
[0004]
In the method of Non-Patent Document 1, the positions of the pupil outer edge approximated by a circle, the iris outer edge also approximated by a circle, and the upper and lower eyelids approximated by an arch-shaped curve are determined, and the region surrounded by these boundaries is determined. , The iris area. FIG. 18 is an example of an iris region determined by the method of Non-Patent Document 1.
[0005]
After the iris region is cut out, both methods are common, the iris region is expressed in polar coordinates, 2D Gabor Wavelet filtering is performed, and an iris code is generated.
[0006]
[Patent Document 1]
Japanese Patent No. 3307936
[Non-patent document 1]
"Statistical Richness of Visual Phase Information: Update on Recognizing Person by Iris Patterns", John Daugman, International Journal of Computer Vision 45 (1), 25-68, 2001
[0007]
[Problems to be solved by the invention]
However, the conventional technology has the following problems.
[0008]
In the method of Patent Literature 1, the upper and lower portions of the iris region are uniformly excluded from the target region of the authentication process. That is, regardless of whether the eyelids are closed, open, or whether the eyelashes are growing downward and covering the iris area, or whether they are growing upward and not covering the iris area, etc. However, the upper part and the lower part of the iris area are uniformly excluded from the processing target.
[0009]
As a result, in an iris image in which the eyelids are opened and the eyelashes do not cover the iris region, an iris region not used for authentication exists over a wide range, and waste occurs in terms of authentication accuracy. Conversely, in an iris image where the eyelids are closed or many eyelashes are covering the iris area, the eyelids and eyelashes may also enter the bow tie type processing area, in which case the eyelids and eyelashes The luminance change due to the iris pattern.
[0010]
Further, according to the method of Non-Patent Document 1, even if the eyelid line is correctly detected, if the eyelash is included in the iris area as shown in FIG. 19, the luminance change due to the eyelash is encoded as an iris pattern. Would.
[0011]
Eyelashes do not always appear at a fixed position on the iris image, but appear in various ranges and shapes depending on the shooting angle, the degree of opening of the eyelids, and the like. The fact that the eyelashes are included in the coding target area of the iris image is a major factor in the occurrence of false rejection (FR: False Reject) in personal authentication.
[0012]
Originally, each eyelash may be detected using image processing, and an iris area other than the eyelash may be used for coding. However, when the iris authentication function is mounted on a mobile phone, a personal digital assistant (PDA), or the like, it is highly likely that relatively low quality cameras and lenses are used due to cost considerations. If the camera has low pixels or the lens has insufficient frequency characteristics, it is practically very difficult to detect eyelashes one by one by image processing.
[0013]
In view of the above problem, an object of the present invention is to reduce the influence of eyelashes on authentication accuracy by simple processing in personal authentication using an iris image.
[0014]
[Means for Solving the Invention]
In order to solve the above-described problem, the present invention detects an iris region boundary including an upper eyelid position from an iris image as personal authentication using an iris image, and uses a lower region of the detected upper eyelid position as a mask region. Then, the mask region is excluded from the region surrounded by the iris region boundary, and the image of the remaining region is cut out from the iris image to perform authentication.
[0015]
In addition, the present invention detects an iris region boundary including an upper eyelid position from the iris image as an individual authentication using the iris image, cuts out an area surrounded by the iris region boundary from the iris image, and detects the detected upper eyelid position. Is set as a mask area, mask data representing the area occupied by the mask area is generated, the cut-out image is used, and the mask area is excluded by referring to the mask data to perform authentication. is there.
[0016]
According to these inventions, the area below the upper eyelid position is set as a mask area, and this mask area is excluded from the target of authentication, so that the amount of eyelashes included in the image to be authenticated is reduced, Authentication with less influence of eyelashes can be performed. In addition, since it is realized by a simple process of setting a mask area and excluding it from the iris area or generating mask data, even an iris image taken by a low-quality camera can be easily applied to eyelashes. Can be reduced.
[0017]
In addition, the present invention detects an iris region boundary including an upper eyelid position from the iris image as personal authentication using the iris image, extracts feature data from an image of the region surrounded by the iris region boundary, and A plurality of mask data respectively representing a plurality of different mask regions set below the eyelid position are generated, and the registrant's feature data registered in the iris database and the feature data extracted at the time of authentication are generated at the time of authentication. By referring to each mask data, each mask region is excluded and compared, a plurality of collation scores are obtained, and it is determined whether or not the person to be authenticated is the same as the registrant.
[0018]
Further, the present invention detects an iris region boundary including an upper eyelid position from the iris image as personal authentication using the iris image, extracts feature data from an image of the region surrounded by the iris region boundary, and stores the feature data in the iris database. The feature data of the registered registrant and the feature data extracted at the time of authentication are referred to a plurality of mask data respectively registered in the iris database and respectively representing a plurality of different mask areas set below the upper eyelid position. Thus, each mask area is excluded and compared, a plurality of collation scores are obtained, and it is determined whether or not the person to be authenticated is the same as the registrant.
[0019]
According to these inventions, in comparing feature data of a registrant with feature data extracted at the time of authentication, each mask area is excluded by referring to each mask data, a plurality of matching scores are obtained, and a plurality of matching scores are obtained. From the score, it is determined whether the person to be authenticated is the same as the registrant. That is, since authentication is performed based on the respective matching scores when a plurality of mask areas below the upper eyelid position are set, highly accurate authentication can be performed according to the amount of eyelashes and how they grow.
[0020]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0021]
(1st Embodiment)
FIG. 1 is a diagram showing an overall configuration of an authentication system according to each embodiment of the present invention. In FIG. 1, an iris authentication server 11 has an iris database 12 for storing feature data of iris images of a plurality of registrants, and is connected to a network 13 such as the Internet, a dedicated line, or a public line. In addition, the iris registration device 14 and the iris authentication device 15 are similarly connected to the network 13. The iris registration device 14 transmits the iris code generated at the time of registration to the iris database 12. The iris authentication device 15 performs personal authentication by comparing the iris code generated at the time of authentication with the iris code at the time of registration acquired from the iris database 12.
[0022]
Note that a plurality of iris authentication servers 11 may be provided for each region or institution used, or a plurality of servers including a mirror server for distributing the load. The iris database 12 may be connected to the iris authentication server 11 via a network. The function of the iris registration device 14 may be built in the personal authentication server 11, or the iris authentication device 15 may have both registration and authentication functions.
[0023]
FIG. 2 is a diagram illustrating an appearance of a mobile phone with an authentication function as an example of the iris authentication device 15 in each embodiment. The mobile phone 20 with an authentication function shown in FIG. 2 is obtained by adding a camera 21 for capturing an iris image and a lighting 22 for capturing an iris to the mobile phone. In addition to the camera 21 and the lighting 22, a monitor 23, operation buttons 24, a speaker 25, a microphone 26, an antenna 27, and the like are provided. The illumination 22 is constituted by one or several near-infrared LEDs. A visible light cut filter is set in the camera 21 and receives only a near-infrared component. The monitor 23 displays an iris image being captured and an authentication result.
[0024]
FIG. 3 is a flowchart showing a processing flow in the personal authentication method according to the first embodiment of the present invention. FIG. 3 shows the registration time and the authentication time in common. At the time of registration, the collation step SA6 is omitted.
[0025]
First, the processing at the time of registration in the personal authentication method according to the present embodiment will be described according to the flow of FIG.
[0026]
First, the registrant captures an iris image using the iris registration device 14 (SA1). Subsequent processing is performed using the iris registration device 14.
[0027]
Next, the boundary of the iris area is detected from the captured iris image (SA2). As shown in FIG. 4, the boundary of the iris region is constituted by the outer edge of the pupil, the outer edge of the iris, and the upper and lower eyelid positions. In the present embodiment, the outer edge of the pupil, the outer edge of the iris, and the upper and lower eyelid positions are determined using the method described in Non-Patent Document 1 described above. In Non-Patent Document 1, the outer edge of the pupil and the outer edge of the iris are each approximated by a circle, and three parameters (x-coordinate, y-coordinate, and y-coordinate) of the center (x p , Y p , R p ) And (x i , Y i , R i ) Is obtained. The upper and lower eyelids are described in the literature as "approximated by an arch-shaped spline curve", but in the present embodiment, they are approximated by a quadratic curve. Let the quadratic curve be y = a (x + b) Two + C, the upper eyelid position (a u , B u , C u ), Lower eyelid position (a l , B l , C l ) Are obtained. That is, the boundaries of the iris region as shown in FIG. 4 can be expressed using a total of 12 parameters.
[0028]
Next, a mask area is set below the upper eyelid position in an area surrounded by the iris area boundary detected in step SA2 (SA3). In the present embodiment, the mask area refers to an area of the original iris area that is excluded from coding. That is, an area below the upper eyelid where the eyelash is likely to be present is set as a mask area, so that it is excluded from a target of later coding.
[0029]
Here, as shown in FIG. 5A, the upper eyelid is directed downward, and the iris diameter 2r. i Is moved by an amount equivalent to a predetermined multiple (here, 0.1). Then, in the original iris area hatched in FIG. 4, that is, in the area surrounded by the iris area boundary, an area sandwiched between the upper eyelid position before the movement and the upper eyelid position after the movement (FIG. The area hatched in a) is set as the mask area MA. The movement of the upper eyelid position is determined by the constant term c of the upper eyelid parameter. u And 2r i It can be easily performed by adding x0.1.
[0030]
Here, the movement amount of the upper eyelid position is represented by the iris diameter 2r. i , But this multiple value may be another value. However, even if the size of the acquired iris image is not constant, it is possible to set a mask region of an appropriate size having a relatively constant width even if the size of the obtained iris image is not constant. it can. When the size of the iris image is substantially constant, the movement amount of the upper eyelid position may be set to a predetermined number of pixels.
[0031]
Next, the mask area MA shown in FIG. 5A is excluded from the original iris area shown in FIG. 4, and the remaining area is determined as an iris area. An image is cut out (SA4). As a result, an image of the iris area NEA as shown in FIG. 5B is obtained.
[0032]
Finally, an iris code is generated from the iris image cut out in step SA4 (SA5). Here, it is assumed that the method described in Non-Patent Document 1 is used. The outline of the iris code generation method of Non-Patent Document 1 is as follows.
(1) Convert the clipped iris region from the xy rectangular coordinate system to the rθ polar coordinate system
(2) Determine the analysis zone (divide the radial direction into eight rings)
(3) An iris code is obtained by applying a multi-scale 2-d Gabor filter and binarizing a signal output from the Gabor filter.
FIG. 6A is a diagram expressing the iris region shown in FIG. 5B in an rθ polar coordinate system centered on the pupil center. The actual pupil and iris edges are not exactly round. When both are intentionally approximated by a circle, the center of the pupil and the center of the iris are not concentric (eccentric). However, by setting the value in the r direction to 0 at the outer edge of the pupil and 1 at the outer edge of the iris, the eccentricity and pupil can be obtained. Difference in the degree of opening and the effect of scaling can be absorbed. Of course, at this point, the influence of the translation of the iris region has been absorbed. FIG. 6B is a diagram illustrating the determined 8-ring analysis band.
[0033]
FIG. 7 is a diagram showing the creation of the iris code of (3). The Gabor filter is applied to the luminance signal (a) after the analysis band of FIG. 6 (b) is determined, and (b) binarization is performed. (C) shows the situation. Although the signal is actually a two-dimensional signal, it is shown here as one-dimensional for simplification of description. (A) is an angular direction luminance signal in one of the eight rings. Actually, a multi-scale Gabor filter is applied, and a single-scale Gabor filter has a real part and an imaginary part, but (b) and (c) show the results of applying a certain-scale Gabor filter real part. It is. The position of each bit in the binarized iris code (c) can be associated with a certain position on the iris image.
[0034]
The iris code thus generated is stored in the iris database 12. In the present embodiment, the iris code is generated using the method described in Non-Patent Document 1, but another method may be used.
[0035]
Next, the processing at the time of authentication in the personal authentication method according to the present embodiment will be described in accordance with the flow of FIG. At the time of authentication, the iris authentication device 15 performs steps SA1 to SA6. Since the contents of the processing in steps SA1 to SA5 are the same as those at the time of registration, the description is omitted here.
[0036]
Then, in step SA6, the registration iris code created in advance is compared with the iris code at the time of authentication (exclusive OR operation), and the Hamming distance between the two codes is calculated. The Hamming distance is calculated, for example, as the number of mismatch bits / the number of comparison bits. If the hamming distance is equal to or less than the threshold, the hamming distance is accepted as the other person, otherwise the person is rejected as another person.
[0037]
FIG. 8 is a functional block diagram of the personal authentication device according to the present embodiment. 8, the iris image acquisition unit 30 acquires an iris image using a camera or the like, and the iris boundary detection unit 31 detects an iris region boundary including the upper eyelid position from the iris image acquired by the iris image acquisition unit 30. I do. The mask unit 32 sets a region below the upper eyelid position detected by the iris boundary detection unit 31 as a mask region. The iris region cutout unit 33 excludes the mask region set by the mask unit 32 from the region surrounded by the iris region boundary, sets the remaining region as an iris region, and cuts out an image of the iris region from the acquired iris image. The iris code generation section 34 generates an iris code from the iris image cut out by the iris area cutout section 33. At the time of registration, the generated iris code is registered in the iris database 12. At the time of authentication, the matching unit 35 compares the generated iris code with the registered iris code and performs authentication. Here, the authentication unit 36 is configured by the iris code generation unit 34 and the collation unit 35.
[0038]
As described above, according to the present embodiment, the region below the upper eyelid position is set as a mask region, and the remaining region excluding the mask region from the region surrounded by the iris region boundary is determined as the iris region. Is cut out from the iris image and used for authentication. That is, since the mask area below the upper eyelid position is excluded from the iris image used for authentication, the amount of eyelashes included in the iris area is reduced, thereby performing authentication with less influence of eyelashes. be able to.
[0039]
Further, as described above, for example, the upper eyelid position can be moved downward as described above, and the mask area can be determined as an area sandwiched between the upper eyelid position before the movement and the upper eyelid position after the movement. Is very simple, and the processing amount hardly increases. In addition, a remarkable effect that the rejection rate (FRR) can be reduced can be obtained even for an iris image captured by a low-quality camera mounted on a mobile phone.
[0040]
For people who have less eyelashes in the original iris area, such as when the amount of eyelashes is small or the eyelashes are growing upward (including when the woman sets the eyelashes upward), set the mask area By doing so, the area of the coding target area may be reduced, and the authentication performance may be degraded. However, the inventors of the present application have performed evaluation experiments using a large number of data, and from the results, have already confirmed that the processing according to the present embodiment is effective when viewed statistically. I have. That is, when an experiment was actually performed using a database of about 1400 data, the lower region of the upper eyelid position was excluded from the coding target region, and the number of false rejection FRs (False Rejection) was smaller than in the past. Was reduced by 12%.
[0041]
<Other shape of mask area>
In the present embodiment, the upper eyelid position is moved downward in parallel, and a region sandwiched between the upper eyelid position before the movement and the upper eyelid position after the movement is set as the mask region. According to this method, when the length of each eyelash is constant irrespective of the position where the eyelashes grow, the eyelash can be efficiently excluded from the coding region.
[0042]
However, the setting of the mask area does not necessarily have to be the above-described method. For example, as shown in FIG. 9A, a region surrounded by the upper eyelid position, the horizontal straight line L1 located therebelow, and the pupil outer edge and the iris outer edge may be determined as the mask region MA. The vertical position (Y coordinate) of the horizontal straight line L1 may be determined based on, for example, the Y coordinate of the uppermost portion (convex) of the upper eyelid position approximated by a quadratic curve. Further, as shown in FIG. 9B, a straight line L2 having an inclination may be set as the lower limit of the mask area MA. In this case, for example, the area where the eyelashes are present may be estimated from the luminance of the iris area by a method described later.
[0043]
Alternatively, a polygonal line L3 may be used as shown in FIG. 10A, an area may be divided by a small rectangle as shown in FIG. 10B, and a boundary L4 thereof may be used, or FIG. ), A curve L5 having a curvature different from that of the upper eyelid may be used.
[0044]
In the present embodiment, the moving amount of the upper eyelid is set to an amount corresponding to a predetermined multiple of the iris diameter regardless of the person. However, the present invention is not limited to this. Using the information, the movement amount may be determined adaptively (that is, according to the amount of eyelashes and how they grow).
[0045]
As an example of such a method, there is a method in which after determining an iris region boundary as shown in FIG. 4, the luminance in a region surrounded by the iris region boundary is examined in the vertical direction. Specifically, as shown in FIG. 11, the area surrounded by the iris area boundary is vertically divided into N (N = 8 in the figure) areas by a horizontal straight line, and the average luminance value in each area is examined. In the example of FIG. 11, the area 1 has a lot of eyelashes, and the area 2 has a little eyelashes. For this reason, the average luminance value of the area 1 is considerably lower than the other areas, and the average luminance value of the area 2 is slightly lower than the other areas. Therefore, by appropriately setting the threshold value, it is possible to easily specify a region including a lot of eyelashes based on the luminance value of each region. If the average luminance value of each area is substantially constant, it can be determined that the iris area has no eyelashes.
[0046]
By estimating the area where the eyelashes are present in this way and then determining the amount of movement of the upper eyelid, a mask area is adaptively set for each iris image, and the effects of the eyelashes can be accurately removed. As a result, the rejection rate can be further reduced.
[0047]
It should be noted that the area division for checking the luminance value does not necessarily have to be based on a horizontal straight line, but may be, for example, divided into a grid or a curve.
[0048]
The following method may be used as a method for adaptively determining the amount of movement of the upper eyelid position. That is, at the time of registration, the amount of eyelashes is measured for each person (each iris image), the amount of movement of the upper eyelid is set in advance, and this is registered together with the registered iris code. At the time of authentication, the amount of movement of the upper eyelid set in advance for each registrant is used.
[0049]
In the one-to-one authentication, the user declares his / her ID and compares the registration code corresponding to the ID with the code at the time of authentication. At this time, the amount of upper eyelid movement registered for the declared ID is also acquired. Using this, code generation at the time of authentication is performed. As a result, an appropriate mask area is set for each person (each iris image) in accordance with the amount of eyelashes and how they grow, and highly accurate authentication can be performed. In the case of one-to-N authentication in which the user's ID is not declared, code generation at the time of authentication may be performed for each target registration code by using the movement amount registered together with the registration code.
[0050]
The setting of the amount of movement of the upper eyelid position is (a) uniformly determined, (b) determined based on the luminance of the iris area, (c) preset for each registrant, Has already been described. These methods may be used alone or in combination. For example, the amount of movement of the upper eyelid is registered in advance for each registrant, and at the time of authentication, the luminance of an area below the upper eyelid position by the registered amount of movement is checked, and the amount of movement is fine-tuned according to this luminance. There is also a method of doing so. In this method, the processing amount can be reduced as compared with the method of checking the luminance of a wide area. In addition, the upper and lower limits of the upper eyelid movement amount are set in advance, the upper eyelid movement amount is calculated based on the luminance at the time of authentication, and whether the calculated upper eyelid movement amount falls between the upper and lower limits. May be checked.
[0051]
(Second embodiment)
FIG. 12 is a flowchart showing the flow of processing in the personal authentication method according to the second embodiment of the present invention. FIG. 12 shows the registration time and the authentication time in common. At the time of registration, the collation step SB6 is omitted. It is assumed that the process is executed in the authentication system shown in FIG. 1 and that a personal authentication device as shown in FIG. 2 is used.
[0052]
First, the processing at the time of registration in the personal authentication method according to the present embodiment will be described with reference to the flow of FIG.
[0053]
The processing in steps SB1 and SB2 is the same as that in steps SA1 and SA2 in the first embodiment, and a description thereof will not be repeated. As a result of step SB2, a boundary of the iris region as shown in FIG. 4 is detected.
[0054]
Next, a region surrounded by the hatched iris region boundary in FIG. 4 is determined as an iris region, and an image of the iris region is cut out from the iris image as a coding target (SB3). The difference from the first embodiment is that the iris region cut out for coding remains with the eyelashes.
[0055]
Next, an iris code is generated from the image of the iris region cut out in step SB3 (SB4). This processing can be realized in the same manner as step SA5 in the first embodiment, and a detailed description thereof will be omitted here.
[0056]
Next, a mask area is set below the upper eyelid position in an area surrounded by the iris area boundary detected in step SB2. Then, mask data representing a range occupied by the mask area in the iris area cut out in step SB3 is generated (SB5). Specifically, the following processing is performed.
(1) In the iris region, a region below the upper eyelid position detected in step SB2 is set as a mask region. The setting of the mask area here may be performed in the same manner as the processing of step SA3 in the first embodiment. For example, it is determined as shown in FIG.
(2) As shown in FIG. 13, a mask code in which elements correspond to the iris code generated in step SB4 is provided as mask data. Since the iris code is generated by applying a 2-d Gabor filter to a predetermined point in the iris area, each element constituting the iris code corresponds to each local area in the iris area. Therefore, each element of the mask code also corresponds to each local area in the iris area.
(3) In the mask code, a flag indicating that the element corresponding to the mask area set in (1) is not used for comparison is set. As an example of the flag setting, when the mask code is a binary vector, “0” is set for an element corresponding to a local area not used for matching, and “1” is set for an element corresponding to a local area used for matching. Set. In FIG. 13, in the mask code, black corresponds to “0” and white corresponds to “1”. In other words, the hatched portion of the iris code is an element that is not used for comparison due to the flag of the mask code.
[0057]
The generated mask code is stored in the iris database 12 together with the iris code.
[0058]
Next, the processing at the time of authentication in the personal authentication method according to the present embodiment will be described in accordance with the flow of FIG. At the time of authentication, the iris authentication device 15 performs steps SB1 to SB6. Note that the contents of the processing in steps SB1 to SB5 are the same as those at the time of registration, and thus description thereof is omitted here.
[0059]
Then, in step SB6, the registered iris code created in advance and the iris code at the time of authentication are compared (here, exclusive OR operation), and the Hamming distance between the two codes is calculated. The Hamming distance is calculated, for example, as the number of mismatch bits / the number of comparison bits. If the hamming distance is equal to or less than the threshold, the hamming distance is accepted as the other person, otherwise the person is rejected as another person.
[0060]
At this time, referring to the registered mask code registered together with the registered iris code and the authentication mask code obtained at the time of authentication as shown in FIG. That is, among the elements of the iris code, only the elements corresponding to the elements that are not masked in the registration mask code and the authentication mask code are set as comparison targets. As a result, the hatched portion in the iris code, that is, the element corresponding to the local region included in the mask region is excluded from the comparison.
[0061]
When this process is represented by an equation, it is as shown in Equation 1.
(Equation 1)
Figure 2004206444
Here, HD is the Hamming distance, codeA and codeB are the registered iris code and the authentication iris code, and maskA and maskB are the registered mask code and the authentication mask code. The XOR operation and the AND operation are performed between binary vectors. As the operator ‖‖ representing the magnitude of the vector, for example, for a binary vector, an operator that counts the number of elements whose value is “1” can be used. This corresponds to calculating the distance between the binary vector and the origin.
[0062]
FIG. 15 is a functional block diagram of the personal authentication device according to the present embodiment. In FIG. 15, an iris image acquisition unit 40 acquires an iris image using a camera or the like, and an iris boundary detection unit 41 detects an iris region boundary including the upper eyelid position from the iris image acquired by the iris image acquisition unit 40. I do. The iris region cutout unit 42 determines a region surrounded by the iris region boundary as an iris region, and cuts out an image of the iris region from the acquired iris image. The iris code generation unit 43 generates an iris code from the iris image clipped by the iris region clipping unit 42. The mask unit 44 sets a region below the upper eyelid position detected by the iris boundary detection unit 41 as a mask region, and generates a mask code representing a range occupied by the mask region in the iris region. At the time of registration, the generated iris code is registered in the iris database 12 together with the mask code. At the time of authentication, the matching unit 45 performs authentication by comparing the generated iris code with the registered iris code by excluding the mask area by referring to the mask code. Here, the authentication unit 46 is configured by the iris code generation unit 43 and the collation unit 45.
[0063]
As described above, according to the present embodiment, a region below the upper eyelid position is set as a mask region, and a mask code is generated as mask data representing a range occupied by the mask region in the iris region. Then, at the time of authentication, the mask area is excluded by referring to the mask code. That is, since the mask area below the upper eyelid position is excluded at the time of authentication, the number of eyelashes included in the iris area is reduced, whereby authentication with less influence of eyelashes can be performed. Also, as in the first embodiment, the setting of the mask area can be realized by extremely simple processing, so that the processing amount hardly increases. In addition, a remarkable effect that the rejection rate (FRR) can be reduced can be obtained even for an iris image captured by a low-quality camera mounted on a mobile phone.
[0064]
That is, the present embodiment is different from the first embodiment only in that the effect of the eyelash region is removed at the time of coding or at the time of collation, and the same effect is obtained. Further, when a plurality of mask areas are set as described later, only a plurality of mask codes need to be generated in this embodiment, and only one iris code needs to be generated. The processing amount can be reduced.
[0065]
In the present embodiment, various methods can be used for setting the amount of movement of the upper eyelid position, as in the first embodiment. In addition, when the moving amount is set in advance for each registrant, in one-to-N authentication without declaring one's ID, at the time of authentication, a mask code may be generated for each target registration code, and an iris code may be generated. It is sufficient to generate one itself. For this reason, the amount of calculation can be reduced as compared with the first embodiment.
[0066]
In this embodiment, the mask code is represented as a binary vector, but can be extended to a multi-value vector. For example, the elements of the mask code are changed within the range [0, 1] according to the luminance of the local area corresponding to each element of the iris code. For a local area having a small luminance value (dark), the amount of eyelashes is determined to be large, and the element of the mask code is made closer to “0”. On the other hand, in a local area where the luminance value is large (bright), it is determined that the amount of eyelashes is small, and the element of the mask code is brought close to “1”. The calculation of the Hamming distance at this time may use, for example, Equation 2.
(Equation 2)
Figure 2004206444
Equation 2 is obtained by expanding the mask codes maskA and maskB of Equation 1 from binary to multivalued. α i , Β i Are elements of a registration mask code and an authentication mask code, respectively, and take values in the range [0, 1]. x i , Y i Are elements of the registered iris code and the authentication iris code, respectively, and take a binary value (0 or 1). D is the number of dimensions of the iris code vector and the mask code vector.
[0067]
As described above, when each element of the mask code is expressed as multi-valued, flexible processing can be performed according to the amount of eyelashes included in the local region of the iris image. Equation 2 is a formula for calculating the Hamming distance when the iris code is binary and the mask code is multi-valued. However, it is needless to say that the iris code can be multi-valued. For example, using the Euclidean distance ED as in Equation 3, the element x i , Y i Can be calculated as a multi-valued distance between iris codes.
[Equation 3]
Figure 2004206444
[0068]
Further, in the present embodiment, the mask code is used as the mask data representing the range occupied by the mask region in the iris region. However, the present invention is not limited to this, and for example, the range of the mask region is directly designated. Data may be used. Further, in the present embodiment, the mask code is generated at the time of registration and at the time of authentication, however, the mask code may be generated only at the time of registration or only at the time of authentication.
[0069]
(Third embodiment)
The personal authentication method according to the third embodiment of the present invention is basically the same as the personal authentication method according to the second embodiment shown in the flowchart of FIG. However, the difference is that a plurality of mask codes respectively representing a plurality of different mask regions are generated in the mask step SB5. The personal authentication method according to the present embodiment is performed by the iris authentication device shown in FIG. The point that the mask unit 44 generates a plurality of mask codes respectively representing a plurality of different mask areas, the point that the matching unit 45 calculates a plurality of matching scores, and the determining unit 47 determines the final authentication result from the plurality of matching scores. The point to judge is different. The iris code generation unit 43 constitutes a feature extraction unit that extracts feature data from an iris image.
[0070]
That is, at the time of registration, first, in step SB5, as shown in FIG. 17, the amount of movement of the upper eyelid for setting the mask area MA is 0.01 times from 0.01 times to 0.20 times the iris diameter 2ri. 20 values are used at every step. As a result, 20 mask areas MA are set. Then, for each mask area, a mask code as mask data is obtained in the same manner as in the second embodiment, and the obtained 20 mask codes are used together with the iris code as feature data generated in step SB4, It is stored in the iris database 12.
[0071]
At the time of authentication, as in the case of registration, 20 mask codes are generated in step SB5. In step SB6, the registered iris code is compared with the iris code at the time of authentication. At this time, 20 mask codes are attached to the registered iris code, and the iris code at the time of authentication also has 20 masks. Since the code is attached, the matching of the iris code is performed 400 times (= 20 × 20) times the number of combinations of the mask codes. Then, it is determined whether or not the person to be authenticated is the same as the registrant based on the matching score obtained as a result of the 400 times of matching. Here, it is assumed that the Hamming distance having the minimum value is determined as the Hamming distance at the time of comparison among the plurality of obtained Hamming distances as the plurality of matching scores, and the determination is performed.
[0072]
As described above, when matching is performed using a plurality of mask areas, the Hamming distance becomes minimum when the mask area most suitable for the amount of eyelashes of the iris image is used. Therefore, appropriate authentication according to the amount of eyelashes of each person (iris image) can be performed. When the present inventors conducted an experiment using a database having about 1400 data, the processing according to the present embodiment reduced the number of false rejections (FR) by 32% as compared with the related art. I was able to.
[0073]
In this embodiment, in order to set a plurality of mask areas, 20 kinds of eyelash movement amounts are used in 0.01 increments from 0.01 times to 0.20 times the iris diameter. , The lower limit and the step size may be different values. Further, a plurality of mask areas may be set by another method.
[0074]
Further, in the present embodiment, the mask code is generated at the time of registration and at the time of authentication, however, the mask code may be generated only at the time of registration or only at the time of authentication. That is, each mask area may be excluded by referring to each mask data registered in the iris database, and matching may be performed, or each mask area may be referred to by referring to each mask data generated at the time of authentication. The matching may be performed with the exception.
[0075]
Further, in the present embodiment, after matching is performed for all combinations of mask codes, the minimum Hamming distance is set as the matching result. However, the matching method is not limited to this. If a Hamming distance smaller than the above is obtained, the verification process may be terminated as a successful authentication.
[0076]
Instead of generating a plurality of mask codes, an iris code from which a plurality of mask regions have been removed may be generated as in the first embodiment. However, in the case of the present embodiment, only one iris code itself needs to be generated, and thus the present embodiment is more effective in terms of the amount of calculation.
[0077]
Further, by learning a mask region suitable for matching, the amount of calculation can be reduced. First, in the past authentication, a mask area suitable for matching, for example, a mask area at the time of successful authentication, is stored in the iris database as an authentication history of the registered iris code from a plurality of obtained matching scores. The information to be stored at this time may use the movement amount of the upper eyelid in the above example. Then, at the next authentication, an appropriate mask area is acquired from the authentication history of the registration code to be verified, and the order of the mask codes used for verification is determined based on this. For example, among a plurality of mask codes, a matching is preferentially performed for an area that is close to an appropriate mask area obtained from the authentication history, and when a Hamming distance less than the authentication threshold is obtained, the processing is regarded as authentication success. finish. As a result, the amount of calculation can be significantly reduced. Note that an appropriate mask area may be determined using, for example, the average value of the accumulated amount of movement of the upper eyelid.
[0078]
That is, a mask area suitable for collation is obtained from a plurality of collation scores, and the information of the mask area is stored in the iris database as the authentication history of the feature data. , The order in which a plurality of mask codes are used can be determined, so that the authentication time can be reduced and the efficiency of the authentication process can be increased.
[0079]
In the above embodiments, the iris code is used as the feature data of the iris image. However, other feature data may be used. Although the polar coordinate system expression is used for generating the feature data, this need not be used.
[0080]
【The invention's effect】
As described above, according to the present invention, the mask area below the upper eyelid position is excluded from the target of authentication, so that authentication with less influence of eyelashes can be performed. In addition, since authentication is performed based on the matching score when a plurality of mask areas below the upper eyelid position are set, highly accurate authentication can be performed according to the amount of eyelashes and how the eyelashes grow.
[Brief description of the drawings]
FIG. 1 is an overall configuration diagram of an authentication system according to each embodiment of the present invention.
FIG. 2 is an external view of a mobile phone with an authentication function, which is an example of an iris authentication device in each embodiment of the present invention.
FIG. 3 is a flowchart illustrating a personal authentication method according to the first embodiment of the present invention.
FIG. 4 is a diagram showing a boundary of an iris region including an upper eyelid position.
5A is a diagram illustrating setting of a mask region, and FIG. 5B is a diagram illustrating an iris region excluding the mask region.
6A is a diagram showing the iris region of FIG. 5B in an rθ polar coordinate system, and FIG. 6B is a diagram showing a ring-shaped analysis band.
FIG. 7 is a diagram showing creation of an iris code.
FIG. 8 is a functional block diagram of the personal authentication device according to the first embodiment of the present invention.
FIG. 9 is a diagram illustrating another shape of a mask region.
FIG. 10 is a diagram illustrating another shape of a mask region.
FIG. 11 is a diagram for explaining a method of setting a mask area according to the luminance of an iris image.
FIG. 12 is a flowchart illustrating a personal authentication method according to a second embodiment of the present invention.
FIG. 13 is a diagram showing a mask code.
FIG. 14 is a diagram showing collation of an iris code using a mask code.
FIG. 15 is a functional block diagram of a personal authentication device according to a second embodiment of the present invention.
FIG. 16 is a functional block diagram of a personal authentication device according to a third embodiment of the present invention.
FIG. 17 is a diagram illustrating a method for setting a plurality of mask regions in the third embodiment of the present invention.
FIG. 18 is an example of an iris region determined by a method of Non-Patent Document, which is one of conventional techniques.
FIG. 19 is an example of an iris image in which eyelashes are included in an iris area.
[Explanation of symbols]
11 Iris authentication server
12 Iris Database
13 Network Network
14 Iris registration device
15 Iris authentication device
20 Mobile phone with authentication function
30 Iris image acquisition unit
31 Iris boundary detector
32 Mask part
33 Iris region cutout
36 Authentication Department
40 Iris image acquisition unit
41 Iris boundary detector
42 Iris region cutout
43 Iris code generator (feature extractor)
44 Mask part
45 Collation unit
46 Authentication Department
47 Judge
MA mask area
Iris area excluding the NEA mask area

Claims (12)

虹彩画像を用いて個人認証を行う方法であって、
前記虹彩画像から、上まぶた位置を含む虹彩領域境界を検出する虹彩境界検出ステップと、
検出された上まぶた位置の下方領域を、マスク領域として設定するマスクステップと、
前記虹彩領域境界によって囲まれた領域から前記マスク領域を除外し、残りの領域を虹彩領域として定め、前記虹彩画像から前記虹彩領域の画像を切り出す虹彩領域切り出しステップとを備え、
切り出された前記虹彩領域の画像を用いて、認証を行う
ことを特徴とする個人認証方法。
A method of performing personal authentication using an iris image,
An iris boundary detecting step of detecting an iris region boundary including an upper eyelid position from the iris image;
A mask step of setting a region below the detected upper eyelid position as a mask region;
Excluding the mask area from the area surrounded by the iris area boundary, defining the remaining area as an iris area, and cutting out an image of the iris area from the iris image,
A personal authentication method, wherein authentication is performed using the cut-out image of the iris region.
虹彩画像を用いて個人認証を行う方法であって、
前記虹彩画像から、上まぶた位置を含む虹彩領域境界を検出する虹彩境界検出ステップと、
前記虹彩領域境界によって囲まれた領域を虹彩領域として定め、前記虹彩画像から前記虹彩領域の画像を切り出す虹彩領域切り出しステップと、
検出された上まぶた位置の下方領域を、マスク領域として設定し、前記虹彩領域内において前記マスク領域が占める範囲を表すマスクデータを生成するマスクステップとを備え、
切り出された前記虹彩領域の画像を用いるとともに、前記マスクデータを参照することによって前記マスク領域を除外して、認証を行う
ことを特徴とする個人認証方法。
A method of performing personal authentication using an iris image,
An iris boundary detecting step of detecting an iris region boundary including an upper eyelid position from the iris image;
An iris region extracting step of determining an area surrounded by the iris region boundary as an iris region, and extracting an image of the iris region from the iris image;
A mask step of setting a lower area of the detected upper eyelid position as a mask area and generating mask data representing a range occupied by the mask area in the iris area,
A personal authentication method using the cut-out image of the iris region and excluding the mask region by referring to the mask data to perform authentication.
請求項1または2記載の個人認証方法において、
前記マスクステップは、上まぶた位置を下方向に移動させ、移動前の上まぶた位置と移動後の上まぶた位置とによって挟まれた領域を、前記マスク領域として設定する
ことを特徴とする個人認証方法。
The personal authentication method according to claim 1 or 2,
The personal authentication method, wherein the masking step moves the upper eyelid position downward, and sets an area sandwiched between the upper eyelid position before the movement and the upper eyelid position after the movement as the mask area. .
請求項3記載の個人認証方法において、
上まぶた位置の移動量を、前記虹彩画像における虹彩径の所定倍に相当する量に、設定する
ことを特徴とする個人認証方法。
The personal authentication method according to claim 3,
A personal authentication method, wherein the amount of movement of the upper eyelid position is set to an amount corresponding to a predetermined multiple of the iris diameter in the iris image.
請求項3記載の個人認証方法において、
上まぶた位置の移動量を、前記虹彩領域境界によって囲まれた領域における輝度を基にして、設定する
ことを特徴とする個人認証方法。
The personal authentication method according to claim 3,
A personal authentication method comprising: setting a movement amount of an upper eyelid position based on luminance in an area surrounded by the iris area boundary.
請求項3記載の個人認証方法において、
上まぶた位置の移動量として、登録者毎に、予め、設定された値を用いる
ことを特徴とする個人認証方法。
The personal authentication method according to claim 3,
A personal authentication method characterized by using a value set in advance for each registrant as the amount of movement of the upper eyelid position.
虹彩画像を用いて個人認証を行う方法であって、
各登録者について、虹彩画像の特徴データが登録された虹彩データベースを用い、
被認証者について、虹彩画像を取得し、
取得した虹彩画像から、上まぶた位置を含む虹彩領域境界を検出し、
前記虹彩領域境界によって囲まれた領域を虹彩領域として定め、前記虹彩画像から前記虹彩領域の画像を切り出し、
切り出された虹彩領域画像から、特徴データを抽出するとともに、上まぶた位置の下方に設定された互いに異なる複数のマスク領域をそれぞれ表す複数のマスクデータを生成し、
前記虹彩データベースに登録された登録者の特徴データと、認証時に抽出した特徴データとを、認証時に生成した各マスクデータを参照することによって前記各マスク領域をそれぞれ除外して、比較し、複数の照合スコアを求め、
前記複数の照合スコアから、前記被認証者が前記登録者と同一であるか否かを、判断する
を備えたことを特徴とする個人認証方法。
A method of performing personal authentication using an iris image,
For each registrant, using the iris database in which the feature data of the iris image is registered,
Obtain an iris image for the subject,
From the acquired iris image, detect the iris region boundary including the upper eyelid position,
An area surrounded by the iris area boundary is defined as an iris area, and an image of the iris area is cut out from the iris image,
From the cut-out iris region image, extract feature data and generate a plurality of mask data respectively representing a plurality of different mask regions set below the upper eyelid position,
The feature data of the registrant registered in the iris database and the feature data extracted at the time of authentication are compared with each other by excluding each of the mask areas by referring to each mask data generated at the time of authentication, and Find the matching score,
A personal authentication method, comprising: determining whether the person to be authenticated is the same as the registrant from the plurality of collation scores.
虹彩画像を用いた個人認証方法であって、
各登録者について、虹彩画像の特徴データと、上まぶた位置の下方に設定された互いに異なる複数のマスク領域をそれぞれ表す複数のマスクデータとが登録された虹彩データベースを用い、
被認証者について、虹彩画像を取得し、
取得した虹彩画像から、上まぶた位置を含む虹彩領域境界を検出し、
前記虹彩領域境界によって囲まれた領域を虹彩領域として定め、前記虹彩画像から前記虹彩領域の画像を切り出し、
切り出された虹彩領域画像から、特徴データを抽出し、
前記虹彩データベースに登録された登録者の特徴データと、認証時に抽出した特徴データとを、前記虹彩データベースに登録された各マスクデータを参照することによって前記各マスク領域をそれぞれ除外して、比較し、複数の照合スコアを求め、
前記複数の照合スコアから、前記被認証者が前記登録者と同一であるか否かを、判断する
ことを特徴とする個人認証方法。
A personal authentication method using an iris image,
For each registrant, using the iris database in which feature data of the iris image and a plurality of mask data respectively representing a plurality of different mask regions set below the upper eyelid position are registered,
Obtain an iris image for the subject,
From the acquired iris image, detect the iris region boundary including the upper eyelid position,
An area surrounded by the iris area boundary is defined as an iris area, and an image of the iris area is cut out from the iris image,
Extract feature data from the extracted iris area image,
The feature data of the registrant registered in the iris database and the feature data extracted at the time of authentication are compared with each other by excluding the respective mask regions by referring to the respective mask data registered in the iris database. , Find multiple matching scores,
A personal authentication method, comprising: determining whether the person to be authenticated is the same as the registrant from the plurality of collation scores.
請求項7または8の個人認証方法において、
前記複数の照合スコアから、照合に適したマスク領域を求め、このマスク領域の情報を特徴データの認証履歴として、前記虹彩データベースに蓄積する
ことを特徴とする個人認証方法。
The personal authentication method according to claim 7 or 8,
A personal authentication method, wherein a mask area suitable for matching is obtained from the plurality of matching scores, and information on the mask area is stored in the iris database as an authentication history of feature data.
虹彩画像を用いて個人認証を行うための装置であって、
認証者について、虹彩画像を取得する虹彩画像取得部と、
前記虹彩画像から、上まぶた位置を含む虹彩領域境界を検出する虹彩境界検出部と、
検出された上まぶた位置の下方領域を、マスク領域として設定するマスク部と、
前記虹彩領域境界によって囲まれた領域から前記マスク領域を除外し、残りの領域を虹彩領域として定め、前記虹彩画像から前記虹彩領域の画像を切り出す虹彩領域切り出し部と、
切り出された前記虹彩領域の画像を用いて、認証を行う認証部とを備えた
ことを特徴とする虹彩認証装置。
An apparatus for performing personal authentication using an iris image,
An iris image acquisition unit that acquires an iris image for the authenticator;
From the iris image, an iris boundary detection unit that detects an iris region boundary including the upper eyelid position,
A mask section for setting a lower area below the detected upper eyelid position as a mask area,
An iris region cutout unit that excludes the mask region from the region surrounded by the iris region boundary, defines the remaining region as an iris region, and cuts out an image of the iris region from the iris image;
An iris authentication device, comprising: an authentication unit that performs authentication using the cut-out image of the iris region.
虹彩画像を用いて個人認証を行うための装置であって、
認証者について、虹彩画像を取得する虹彩画像取得部と、
前記虹彩画像から、上まぶた位置を含む虹彩領域境界を検出する虹彩境界検出部と、
前記虹彩領域境界によって囲まれた領域を虹彩領域として定め、前記虹彩画像から前記虹彩領域の画像を切り出す虹彩領域切り出し部と、
検出された上まぶた位置の下方領域を、マスク領域として設定し、前記虹彩領域内において前記マスク領域が占める範囲を表すマスクデータを生成するマスク部と、
切り出された前記虹彩領域の画像を用いるとともに、前記マスクデータを参照することによって前記マスク領域を除外して、認証を行う認証部とを備えた
ことを特徴とする虹彩認証装置。
An apparatus for performing personal authentication using an iris image,
An iris image acquisition unit that acquires an iris image for the authenticator;
From the iris image, an iris boundary detection unit that detects an iris region boundary including the upper eyelid position,
An iris region cutout unit that determines a region surrounded by the iris region boundary as an iris region, and cuts out an image of the iris region from the iris image;
A mask section that sets a lower area below the detected upper eyelid position as a mask area, and generates mask data representing a range occupied by the mask area in the iris area;
An iris authentication device, comprising: an authentication unit that performs authentication by using the cut-out image of the iris region and excluding the mask region by referring to the mask data.
虹彩画像を用いて個人認証を行うための装置であって、
認証者について、虹彩画像を取得する虹彩画像取得部と、
前記虹彩画像から、上まぶた位置を含む虹彩領域境界を検出する虹彩境界検出部と、
前記虹彩領域境界によって囲まれた領域を虹彩領域として定め、前記虹彩画像から前記虹彩領域の画像を切り出す虹彩領域切り出し部と、
前記虹彩領域切り出し部によって切り出された前記虹彩領域の画像から、特徴データを抽出する特徴抽出部と、
上まぶた位置の下方に設定された互いに異なる複数のマスク領域をそれぞれ表す複数のマスクデータを生成するマスク部と、
登録者の特徴データと、前記特徴抽出部によって抽出された特徴データとを、前記マスク部によって生成された各マスクデータを参照することによって前記各マスク領域をそれぞれ除外して、比較し、複数の照合スコアを求める照合部と、
前記複数の照合スコアから、前記被認証者が前記登録者と同一であるか否かを判断する判断部とを備えた
ことを特徴とする虹彩認証装置。
An apparatus for performing personal authentication using an iris image,
An iris image acquisition unit that acquires an iris image for the authenticator;
From the iris image, an iris boundary detection unit that detects an iris region boundary including the upper eyelid position,
An iris region cutout unit that determines a region surrounded by the iris region boundary as an iris region, and cuts out an image of the iris region from the iris image;
A feature extraction unit that extracts feature data from an image of the iris region cut out by the iris region cutout unit;
A mask unit that generates a plurality of mask data respectively representing a plurality of different mask regions set below the upper eyelid position,
The registrant's feature data and the feature data extracted by the feature extraction unit are compared with each other by excluding each of the mask regions by referring to each of the mask data generated by the mask unit. A matching unit for obtaining a matching score;
An iris authentication device, comprising: a determination unit configured to determine whether the authenticatee is the same as the registrant based on the plurality of collation scores.
JP2002375051A 2002-12-25 2002-12-25 Individual authentication method and iris authentication device Withdrawn JP2004206444A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002375051A JP2004206444A (en) 2002-12-25 2002-12-25 Individual authentication method and iris authentication device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002375051A JP2004206444A (en) 2002-12-25 2002-12-25 Individual authentication method and iris authentication device

Publications (1)

Publication Number Publication Date
JP2004206444A true JP2004206444A (en) 2004-07-22

Family

ID=32812903

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002375051A Withdrawn JP2004206444A (en) 2002-12-25 2002-12-25 Individual authentication method and iris authentication device

Country Status (1)

Country Link
JP (1) JP2004206444A (en)

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007280250A (en) * 2006-04-11 2007-10-25 Matsushita Electric Ind Co Ltd Face authentication system
KR100794361B1 (en) 2006-11-30 2008-01-15 연세대학교 산학협력단 The eyelid detection and eyelash interpolation method for the performance enhancement of iris recognition
JP2008538425A (en) * 2005-01-26 2008-10-23 ハネウェル・インターナショナル・インコーポレーテッド Distance iris recognition system
US7761453B2 (en) 2005-01-26 2010-07-20 Honeywell International Inc. Method and system for indexing and searching an iris image database
US7933507B2 (en) 2006-03-03 2011-04-26 Honeywell International Inc. Single lens splitter camera
US8045764B2 (en) 2005-01-26 2011-10-25 Honeywell International Inc. Expedient encoding system
US8049812B2 (en) 2006-03-03 2011-11-01 Honeywell International Inc. Camera with auto focus capability
US8050463B2 (en) 2005-01-26 2011-11-01 Honeywell International Inc. Iris recognition system having image quality metrics
US8064647B2 (en) 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US8063889B2 (en) 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
US8085993B2 (en) 2006-03-03 2011-12-27 Honeywell International Inc. Modular biometrics collection system architecture
US8090157B2 (en) 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US8213782B2 (en) 2008-08-07 2012-07-03 Honeywell International Inc. Predictive autofocusing system
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
US8285005B2 (en) 2005-01-26 2012-10-09 Honeywell International Inc. Distance iris recognition
US8436907B2 (en) 2008-05-09 2013-05-07 Honeywell International Inc. Heterogeneous video capturing system
US8442276B2 (en) 2006-03-03 2013-05-14 Honeywell International Inc. Invariant radial iris segmentation
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
JP2013535038A (en) * 2010-04-09 2013-09-09 モンロ、ドナルド・マーティン Image template masking
US8630464B2 (en) 2009-06-15 2014-01-14 Honeywell International Inc. Adaptive iris matching using database indexing
US8705808B2 (en) 2003-09-05 2014-04-22 Honeywell International Inc. Combined face and iris recognition system
US8742887B2 (en) 2010-09-03 2014-06-03 Honeywell International Inc. Biometric visitor check system
JP2014182761A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2015187849A (en) * 2014-03-13 2015-10-29 パナソニックIpマネジメント株式会社 Image processor and image processing method
WO2019044943A1 (en) 2017-08-30 2019-03-07 日本電気株式会社 Iris matching system, iris matching method, and storage medium
WO2019044944A1 (en) 2017-08-30 2019-03-07 日本電気株式会社 Image-processing system, image-processing method, and recording medium
WO2020009126A1 (en) * 2018-07-03 2020-01-09 シャープ株式会社 Authentication device and authentication method
JP2020512634A (en) * 2017-03-24 2020-04-23 マジック リープ, インコーポレイテッドMagic Leap,Inc. Iris code storage and reliability allocation
JP2020144926A (en) * 2016-09-29 2020-09-10 マジック リープ, インコーポレイテッドMagic Leap,Inc. Neural network for eye image segmentation and image quality estimation
US10902258B2 (en) 2017-08-30 2021-01-26 Nec Corporation Iris recognition system, iris recognition method, and storage medium
CN112905816A (en) * 2021-03-19 2021-06-04 上海聚虹光电科技有限公司 Iris search identification method, iris search identification device, iris search identification processor and electronic device
JP2022511217A (en) * 2019-09-26 2022-01-31 上▲海▼商▲湯▼智能科技有限公司 Image processing methods and equipment, electronic devices, computer-readable storage media and computer programs
WO2023175772A1 (en) * 2022-03-16 2023-09-21 日本電気株式会社 Information processing device, information processing method, and recording medium

Cited By (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8705808B2 (en) 2003-09-05 2014-04-22 Honeywell International Inc. Combined face and iris recognition system
US8090157B2 (en) 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
US7761453B2 (en) 2005-01-26 2010-07-20 Honeywell International Inc. Method and system for indexing and searching an iris image database
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US8488846B2 (en) 2005-01-26 2013-07-16 Honeywell International Inc. Expedient encoding system
JP4767971B2 (en) * 2005-01-26 2011-09-07 ハネウェル・インターナショナル・インコーポレーテッド Distance iris recognition system
US8045764B2 (en) 2005-01-26 2011-10-25 Honeywell International Inc. Expedient encoding system
US8285005B2 (en) 2005-01-26 2012-10-09 Honeywell International Inc. Distance iris recognition
US8050463B2 (en) 2005-01-26 2011-11-01 Honeywell International Inc. Iris recognition system having image quality metrics
JP2008538425A (en) * 2005-01-26 2008-10-23 ハネウェル・インターナショナル・インコーポレーテッド Distance iris recognition system
US8085993B2 (en) 2006-03-03 2011-12-27 Honeywell International Inc. Modular biometrics collection system architecture
US8064647B2 (en) 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
US8049812B2 (en) 2006-03-03 2011-11-01 Honeywell International Inc. Camera with auto focus capability
US8761458B2 (en) 2006-03-03 2014-06-24 Honeywell International Inc. System for iris detection, tracking and recognition at a distance
US8442276B2 (en) 2006-03-03 2013-05-14 Honeywell International Inc. Invariant radial iris segmentation
US7933507B2 (en) 2006-03-03 2011-04-26 Honeywell International Inc. Single lens splitter camera
JP2007280250A (en) * 2006-04-11 2007-10-25 Matsushita Electric Ind Co Ltd Face authentication system
KR100794361B1 (en) 2006-11-30 2008-01-15 연세대학교 산학협력단 The eyelid detection and eyelash interpolation method for the performance enhancement of iris recognition
US8063889B2 (en) 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
US8436907B2 (en) 2008-05-09 2013-05-07 Honeywell International Inc. Heterogeneous video capturing system
US8213782B2 (en) 2008-08-07 2012-07-03 Honeywell International Inc. Predictive autofocusing system
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
US8630464B2 (en) 2009-06-15 2014-01-14 Honeywell International Inc. Adaptive iris matching using database indexing
JP2016157420A (en) * 2010-04-09 2016-09-01 フォトネーション リミテッド Image template masking
JP2013535038A (en) * 2010-04-09 2013-09-09 モンロ、ドナルド・マーティン Image template masking
US8742887B2 (en) 2010-09-03 2014-06-03 Honeywell International Inc. Biometric visitor check system
JP2014182761A (en) * 2013-03-21 2014-09-29 Casio Comput Co Ltd Image processing device, image processing method, and program
JP2015187849A (en) * 2014-03-13 2015-10-29 パナソニックIpマネジメント株式会社 Image processor and image processing method
JP7035110B2 (en) 2016-09-29 2022-03-14 マジック リープ, インコーポレイテッド Neural network for ocular image segmentation and image quality estimation
US11776131B2 (en) 2016-09-29 2023-10-03 Magic Leap, Inc. Neural network for eye image segmentation and image quality estimation
KR102583040B1 (en) 2016-09-29 2023-09-25 매직 립, 인코포레이티드 Neural network for eye image segmentation and image quality estimation
KR20220143777A (en) * 2016-09-29 2022-10-25 매직 립, 인코포레이티드 Neural network for eye image segmentation and image quality estimation
JP2020144926A (en) * 2016-09-29 2020-09-10 マジック リープ, インコーポレイテッドMagic Leap,Inc. Neural network for eye image segmentation and image quality estimation
KR102456024B1 (en) * 2016-09-29 2022-10-17 매직 립, 인코포레이티드 Neural network for eye image segmentation and image quality estimation
KR20210025729A (en) * 2016-09-29 2021-03-09 매직 립, 인코포레이티드 Neural network for eye image segmentation and image quality estimation
JP2020512634A (en) * 2017-03-24 2020-04-23 マジック リープ, インコーポレイテッドMagic Leap,Inc. Iris code storage and reliability allocation
JP7125950B2 (en) 2017-03-24 2022-08-25 マジック リープ, インコーポレイテッド Accumulation and reliability assignment of iris codes
US11670066B2 (en) 2017-08-30 2023-06-06 Nec Corporation Iris recognition system, iris recognition method, and storage medium
US11017226B2 (en) 2017-08-30 2021-05-25 Nec Corporation Image processing system, image processing method, and storage medium
WO2019044944A1 (en) 2017-08-30 2019-03-07 日本電気株式会社 Image-processing system, image-processing method, and recording medium
US11295128B2 (en) 2017-08-30 2022-04-05 Nec Corporation Iris recognition system, iris recognition method, and storage medium
WO2019044943A1 (en) 2017-08-30 2019-03-07 日本電気株式会社 Iris matching system, iris matching method, and storage medium
US11636711B2 (en) 2017-08-30 2023-04-25 Nec Corporation Image processing system, image processing method, and storage medium
US11625952B2 (en) 2017-08-30 2023-04-11 Nec Corporation Iris recognition system, iris recognition method, and storage medium
US10902258B2 (en) 2017-08-30 2021-01-26 Nec Corporation Iris recognition system, iris recognition method, and storage medium
WO2020009126A1 (en) * 2018-07-03 2020-01-09 シャープ株式会社 Authentication device and authentication method
JP7089106B2 (en) 2019-09-26 2022-06-21 上▲海▼商▲湯▼智能科技有限公司 Image processing methods and equipment, electronic devices, computer-readable storage media and computer programs
US11532180B2 (en) 2019-09-26 2022-12-20 Shanghai Sensetime Intelligent Technology Co., Ltd. Image processing method and device and storage medium
JP2022511217A (en) * 2019-09-26 2022-01-31 上▲海▼商▲湯▼智能科技有限公司 Image processing methods and equipment, electronic devices, computer-readable storage media and computer programs
CN112905816A (en) * 2021-03-19 2021-06-04 上海聚虹光电科技有限公司 Iris search identification method, iris search identification device, iris search identification processor and electronic device
WO2023175772A1 (en) * 2022-03-16 2023-09-21 日本電気株式会社 Information processing device, information processing method, and recording medium

Similar Documents

Publication Publication Date Title
JP2004206444A (en) Individual authentication method and iris authentication device
CN106778525B (en) Identity authentication method and device
Gottschlich Curved-region-based ridge frequency estimation and curved Gabor filters for fingerprint image enhancement
JP7242528B2 (en) Systems and methods for performing fingerprint user authentication using images captured using mobile devices
Wang et al. A thermal hand vein pattern verification system
KR100784599B1 (en) Personal authentication method and device
JP5107045B2 (en) Method for identifying a pixel representing an iris in an image acquired for the eye
Tapia et al. Gender classification from iris images using fusion of uniform local binary patterns
JP2018508888A (en) System and method for performing fingerprint-based user authentication using an image captured using a mobile device
Jan Segmentation and localization schemes for non-ideal iris biometric systems
JP2009523265A (en) Method for extracting iris features in an image
JP2007188504A (en) Method for filtering pixel intensity in image
US20120308089A1 (en) Method of biometric authentication by using pupil border and apparatus using the method
Kang et al. The biometric recognition on contactless multi-spectrum finger images
Lee et al. An automated video-based system for iris recognition
Yan et al. An automatic 3D ear recognition system
Vega et al. Biometric personal identification system based on patterns created by finger veins
Lee et al. Enhanced iris recognition method by generative adversarial network-based image reconstruction
Aglio-Caballero et al. Analysis of local binary patterns and uniform local binary patterns for palm vein biometric recognition
Donida Labati et al. A scheme for fingerphoto recognition in smartphones
Carney et al. A multi-finger touchless fingerprinting system: Mobile fingerphoto and legacy database interoperability
Khaliluzzaman et al. Hand geometry based person verification system
Tahir et al. An accurate and fast method for eyelid detection
Shashidhara et al. A novel approach to circular edge detection for iris image segmentation
Amjed et al. Noncircular iris segmentation based on weighted adaptive hough transform using smartphone database

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081216

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090114