JP3995181B2 - Individual identification device - Google Patents

Individual identification device Download PDF

Info

Publication number
JP3995181B2
JP3995181B2 JP35401599A JP35401599A JP3995181B2 JP 3995181 B2 JP3995181 B2 JP 3995181B2 JP 35401599 A JP35401599 A JP 35401599A JP 35401599 A JP35401599 A JP 35401599A JP 3995181 B2 JP3995181 B2 JP 3995181B2
Authority
JP
Japan
Prior art keywords
iris
code
iris code
dictionary
codes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP35401599A
Other languages
Japanese (ja)
Other versions
JP2001167279A (en
Inventor
昌彦 須崎
裕次 久野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP35401599A priority Critical patent/JP3995181B2/en
Publication of JP2001167279A publication Critical patent/JP2001167279A/en
Application granted granted Critical
Publication of JP3995181B2 publication Critical patent/JP3995181B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像から任意の特徴を抽出して個体識別を行う個体識別装置に関する。
【0002】
【従来の技術】
従来より、例えば下記に示す文献に記載されているように、個体識別技術として、虹彩(アイリス)を用いたものが提案されている。
【0003】
[文献]米国特許第5291560号明細書、United States Patent BIOMETRIC PERSONAL IDENTIFICATION SYSTEM BASED ON IRIS ANALISYS
【0004】
上記のような従来技術では、テレビカメラによって取得した画像データにおいて、瞳孔に外接する円を検出し、それぞれの円を基準に座標系を設定する。このようにして座標系を設定することにより、瞳孔の大きさの変化、被写体とカメラの距離の変化などを吸収している。このようにして設定された座標系に基づいて、アイリスをいくつかの領域に分割し、それぞれの領域毎にアイリスコードを生成する。このアイリスコードを比較することにより個体識別を行う。
【0005】
【発明が解決しようとする課題】
しかしながら、上記従来の技術では、瞳孔の形やアイリスの形が予め設定した場合と異なる場合や、データ取得時のカメラと被写体の位置関係、データ取得環境などによる画像の歪みなどの影響で、正常に照合処理を行った場合でも、期待する照合の精度を得ることが困難であった。
【0006】
【課題を解決するための手段】
本発明は、前述の課題を解決するため次の構成を採用する。
〈構成1〉
目画像からアイリスコードを生成し、当該アイリスコードに基づいて個体識別を行う個体識別装置において、1個体の複数の異なるシーンの目画像を記憶する入力画像記憶部と、入力画像記憶部に記憶された複数の目画像のそれぞれについて、アイリス座標系の各パラメータの値を変動させて擬似的に抽出誤差のあるアイリスコードを生成する特徴データ生成部と、特徴データ生成部で生成された各アイリスコードに対して、同一個体における任意の画像から得られたアイリスコードとそれ以外の画像から得られたアイリスコードとの平均相違度が所定値より小さい任意の画像から得られたアイリスコードを所定の数だけ選択して登録用のアイリスコードとする辞書データ選択部とを備えた個体識別装置であって、辞書データ選択部は、特徴データ生成部で生成された各アイリスコードに対して、同一個体の他の画像から生成されたアイリスコードとのハミング距離が照合時に用いる閾値よりも小さい場合の数を数え、この数が多いもの程照合性能が高いアイリスコードであるとして、当該照合性能の高いものを任意の数だけ登録用のデータとして選択することを特徴とする個体識別装置。
【0016】
【発明の実施の形態】
以下、本発明の実施の形態を具体例を用いて詳細に説明する。
【0017】
《具体例1》
〈構成〉
図1は、本発明の個体識別装置の具体例1を示す構成図である。
図の装置は、カメラ1、入力画像記憶部2、アイリス座標抽出部3、アイリス座標変動部4、アイリスコード生成部5、データ記憶部(アイリスコード記憶部)6、辞書データ選択部7からなり、アイリス座標抽出部3、アイリス座標変動部4、アイリスコード生成部5により特徴データ生成部8を構成している。
【0018】
カメラ1は、アイリスコードを登録する人物または動物の目を撮影するもので、カメラ1によって取得された映像は、図示しないA/D変換部によりA/D変換され、静止画として入力画像記憶部2に記憶されるよう構成されている。入力画像記憶部2は、メモリやハードディスク等からなるものである。
【0019】
また、カメラ1による撮影は明るさや撮影角度を人為的に変更しながら一定時間行われ、その間に撮影された映像のうち、良好な画質のものを複数フレーム記録する。
【0020】
特徴データ生成部8は、入力画像記憶部2に記録された全ての入力画像に対してアイリスコードを生成する。即ち、アイリス座標抽出部3では、アイリスコード生成のための座標系設定を行う。この座標系の抽出は、入力画像に対して画像処理技術を用いて自動的に行われるよう構成されている。ここで、アイリス座標系とは、瞳孔の外側の輪郭やアイリスの外側の輪郭に、円や楕円などの図形を当てはめたときの、中心座標や半径などのパラメータの値であり、この値が変動することによって、同じ画像であっても異なるアイリスコードが生成される。また、同じ個体から選択された画像であっても、撮影条件などの違いにより、アイリス座標系が正確に設定されても二つの画像間で異なるアイリスコードが生成される。
【0021】
アイリス座標変動部4は、アイリス座標抽出部3で抽出されたアイリス座標系の各パラメータを予め決められた範囲で変動させる機能を有している。アイリスコード生成部5は、アイリス座標変動部4で変動させたパラメータに対してアイリスコードを生成し、入力画像と変動させたパラメータの情報とを共にデータ記憶部6に追加していくものである。また、このようなアイリス座標の変動とアイリスコードの生成は、予め決められた種類のアイリスコードが得られるまで繰り返されるようになっている。
【0022】
辞書データ選択部7は、データ記憶部6に蓄えられたアイリスコードから登録用として記録するアイリスコードを選択する機能部であり、詳細については動作の項で説明する。
【0023】
尚、上記構成において、アイリス座標抽出部3、アイリス座標変動部4、アイリスコード生成部5、辞書データ選択部7の各機能は、各処理に対応したソフトウェアとこれを実行するためのプロセッサやメモリ等からなり、入力画像記憶部2やデータ記憶部6は、半導体メモリやハードディスク装置等の記憶装置から構成されている。
【0024】
〈動作〉
ここでは、登録と照合の対象を人物とし、瞳孔の輪郭とアイリスの外側の輪郭に円を当てはめることによってアイリスコードを生成する場合について説明する。
【0025】
図2は、アイリスコードを登録するための映像入力からアイリスコード生成までの動作を示すフローチャートである。
【0026】
登録を行う人物の目に対して、照合時に起こりうる照明変化やカメラと人との相対位置の変化、目を動かすなどの動作を行い、それら全ての状態の映像を記録する(ステップS101)。取得した映像のうち、様々なシーンから良好な画像を、A/D変換によってデジタル画像として、入力画像記憶部2のメモリまたはハードディスク上に記憶する(ステップS102)。
【0027】
従って、一つの目に対して、複数の画像ファイルが生成される。尚、映像は一旦ビデオテープ等に記録してもよいし、その場で静止画像に変換してハードディスクやメモリ上に記録してもよい。
【0028】
次に、アイリス座標抽出部3では、入力画像記憶部2に記録された複数フレームの画像それぞれに対してエッジ抽出等の処理を行い、瞳孔の輪郭に円を当てはめ、その中心座標をCp(Xp,Yp)、半径をRpとし(ステップS104)、これを瞳孔円と呼ぶ。
【0029】
また、アイリスの外側の輪郭に対しても同様に円を当てはめ、中心座標をCi(Xi,Yi)、半径をRiとし(ステップS105)、これをアイリス円と呼ぶ。尚、これらの円の当てはめは、例えば従来文献に記載されているような従来技術を用いることも可能であるため、ここでの詳細な説明は省略する。
【0030】
上記ステップS104とステップS105で抽出した円の各パラメータが以下の処理でアイリスコードを生成するための基準となるパラメータであり、これを基準パラメータと呼ぶ。
【0031】
図3は、目画像とコード化画像の説明図である。
図3(a)は、瞳孔とアイリスの輪郭に円を当てはめた場合の説明図であり、以下、説明を簡略にするため、瞳孔円とアイリス円の中心は同一である(Xp=Xi,Yp=Yi)とするが、撮影時の目とカメラ1の位置関係による映像の歪みを補正するために、これらを別々に扱う方法をとってもよい。
【0032】
ステップS106〜ステップS109は、入力画像に対するアイリスコードを生成する部分である。瞳孔円やアイリス円の当てはめの誤差を考慮して、これらの円の標準パラメータを一定のステップ幅で変動させ、新しいパラメータを得る(ステップS106)。このパラメータを変動パラメータと呼ぶ。
【0033】
このステップS106では、半径RpとRiのみを変動させるものとし、変動パラメータの値をそれぞれrp(=Rp+Δrp),ri(=Ri+Δri)と表すことにする。この他、中心座標CpやCiの各値を変動させることも可能である。
【0034】
ステップS107では、変動パラメータを元に、アイリスコードを生成するための中間画像(コード化画像と呼ぶ)を生成する。図3(b)では、コード化画像を生成する方法の例を説明している。アイリスの上部はまぶたやまつげ等で隠れているので、図示のように、π−θから2π+θまでの範囲をコード化するものとする。
【0035】
図3(a)のa,b,c,dと、(b)のa,b,c,dがそれぞれ対応するようにコード化画像を生成する。具体的には、コード化画像上の任意の点p(xp,yp)が入力画像上(図3(a))の点q(xq,yq)と対応するとすると、点pと点qの関係は以下の式で表される。
【0036】
点q(xq,yq)は瞳孔円の中心Cpを原点とする極座標系で、q(rq,θq)(Cpからの距離がrq、水平軸とのなす角がθq)と表されるものとすると、
xp=w×(θq−(π−θ))/(π+2θ)
yp=h×(rq−rp)/(ri−rp)
【0037】
ステップS108では、ステップS107で生成されたコード化画像に対して、バンドパスフィルタを適用することによってアイリスコードを生成する。このアイリスコードは既知の技術が適用できるため、ここでの詳細な説明は省略する。ただし、アイリスコードはコード化画像の濃度の変化に依存するため、これらのパラメータが変動することによって、同じ入力画像から異なる複数のアイリスコードを得ることになる。
【0038】
標準パラメータの変動が決められた範囲で完了するまで、ステップS106〜ステップS109の処理が繰り返される。繰り返しの回数がN回であるとすると、1枚の入力画像からN種類のアイリスコードが生成され、画像ファイルの情報と変動したパラメータの情報と共に、辞書候補データとしてメモリやディスク上に記録される(ステップS110,ステップS103)。
【0039】
図4は、辞書候補データの内容を示す説明図である。
図2のステップS101、S102において、一つの目に対してMフレームの画像がファイルとして保存されたとする。また、ステップS106〜S109において、ΔrpとΔriをそれぞれ−0.1〜0.1までステップ幅0.1で変動させたとする。これにより、1フレームの画像から3×3=9個のコードが生成される。この9個のコードをまとめてコードセットCD(m)、(mは画像の番号)と呼ぶ。
【0040】
また、コードセット中でΔrpとΔriが共に0であるコード(ステップS106で抽出されたパラメータに変動を加えずに生成されたアイリスコード)を標準コードと呼び、CDs(m)と表す。従って、一つの目に対してはM個のコードセット(M×9個のコード)が生成されたことになる。m(m=1〜M)番目に取得された静止画像に対するn(n=1〜N,N=9)番目のコードをC(m,n)と表す。N(=9)は、ΔrpとΔriの変動幅とステップ幅によって変化する。
【0041】
図5は、辞書候補データから登録データを選択するための照合度数を求める処理のフローチャートである。
即ち、先ず、辞書候補データ中の全てのコードに対して、コードの照合度数Q(m,n)={D,AVE}(m=1〜M,n=1〜N,Dは照合数,AVEは平均のハミング距離)を計算する。
【0042】
あるコードセットCD(m)(m=1〜M)中のコードC(m,n)(n=1〜N)に対して(ステップS201〜ステップS204,ステップS215)、CD(m)以外のコードセットの標準コードCDs(L)(L=1〜M,L≠m)(ステップS205〜207,ステップS212)とのハミング距離HD(L)を計算し(ステップS208)、HD(L)が照合時に本人と他人を区別するための閾値Taを下回っていれば(ステップS210)、照合数Dを1増やす(ステップS211)。
【0043】
全てのLについてハミング距離の計算と、閾値Taとの比較が終了すれば、ハミング距離の平均AVEを計算し(ステップS209,ステップS213)、DとAVEをコードC(m,n)に対する照合度数Q(m,n)={D,AVE}として登録する(ステップS214)。
【0044】
従って、DはC(m、n)を辞書とした場合、他のコードセットの標準コードCDs(L)が入力されたときに照合できた数である。
【0045】
照合度数の計算はコードセット中の全てのコードについて(ステップS215、ステップS204)、また、全てのコードセットについて(ステップS216、ステップS201)行われる。なお、「照合数が多く、照合数が同じであれば平均ハミング距離が小さいもの」ほど照合度数が高いものとする。
【0046】
照合度数の計算には、あるコードセットCD(m)中のコードと、それ以外のコードセットCD(L)の標準コードだけでなく、CD(L)に含まれる全てのコードを使用してもよい。
【0047】
次に、上記照合度数の計算処理で求めた照合度数Q(m,n)={D,AVE}に基づいて登録データを選択し、辞書セットに登録する処理を説明する。
【0048】
図6は、登録データ選択処理のフローチャートである。
辞書セットは、ある目に対してデータ取得時の明るさやカメラ位置などの条件の違い、アイリス座標の当てはめ誤差などを考慮して、一つの目に対して複数のコードを登録しておくためのもので、登録するコード数をRMとすると、辞書セットはCM(r)(r=1〜RM)と表記する。
【0049】
先ず、各コードセット中のアイリスコードを照合度数の高い順にコードをソートする。ソート後のコードをCS(m,n)(m=1〜M,n=1〜N)と表記する(ステップS301)。ここで、同じmに対して、nの数が小さいコードほど照合度数が高いものとする。更に、全ての辞書候補データ中で最も照合度数が高いコードC(mm,nn)を含むコードセットをCD(mm)とし、そのC(mm,nn)を1番目の登録データとして1番目の辞書セットCM(1)に登録する(ステップS302)。
【0050】
K=mm+1とし、r=2とする(ステップS303)。Kはコードセットの番号で、K>MならばK=1とする(ステップS304)。コードセットのCD(K)中で、辞書セットに登録されていないコードのうち、最も照合度数が高いコードCS(K,n)と、既に登録されてある辞書セット中の全てのコードCM(r)とのハミング距離を計算し、その最小値を求める。この最小値が登録のための閾値Trよりも大きければ(ステップS307)、このコードを辞書セットCM(r)に登録し、Kの値とrの値をそれぞれ1ずつ増やす(ステップS308)。
【0051】
これによって、辞書セット中の各コードは、これを辞書とした場合、他の入力データに対して照合できる割合が高く、かつ、辞書セット中の他のコードとは、その個体のコード空間(その個体から生成され得る全てのコードの集合)における距離が離れているという性質を持つ。
【0052】
図7は、コードCM(r)とコード空間との関係を示す説明図である。
図示の状態は、即ち、辞書セット中のコードがコード空間内に適当に散らばっており、これを用いれば、照合時の環境の変化におるアイリスコードの変動がカバーできることを意味している。
【0053】
図6のステップS307において、ハミング距離の最小値がTrよりも小さければ、コードセットCD(K)中の次に照合度数が高いものについて同じ処理を行う(ステップS309,S306,S307)。
【0054】
コードセットCD(K)中の全てのコードについて、ステップS309,S306、S307の処理を行った結果、CD(K)中の条件を満たすコードがなかった場合、Kを1増やして(ステップS311)、ステップS304に戻る。但し、K=1〜Mの全てのコードセットの全てのコード(辞書候補データ中の全てのコード)について、ステップS307の条件を満たすコードがなかった場合(ステップS310)、Trを予め定めた値drだけ下げて(ステップS307の条件を緩めて)(ステップS312)、ステップS304に戻る。上記ステップS304〜ステップS312の繰り返しは、辞書セット中のコード数がRMになるまで(ステップS305でr>RMとなるまで)行われる。
【0055】
また、全てのコードセットCD(K)に対して上記処理を行った結果、辞書セットCM(RM)に満たなかった場合、辞書データ選択部7は、登録失敗であるとして、これを示すメッセージを表示する等、その情報を出力する。即ち、このような場合は、カメラ1で取得した画像が不鮮明であったり、照明条件が不適切である等、画像として良好なものが少なかった場合である。従って、このようなメッセージを見ることにより、オペレータは登録の失敗を認識することができる。
【0056】
〈効果〉
以上のように具体例1によれば、1個体の複数の異なるシーンの目画像に対応した複数のアイリスコードと、これらのアイリスコードからそれぞれ生成された擬似的に抽出誤差のあるアイリスコードとの中から、あるアイリスコードとそれ以外のアイリスコードとのハミング距離が所定値より小さいアイリスコードを所定の数だけ選択し、これを同一個体における登録用のアイリスコードとして選択するようにしたので、ある目に対する照合を行う場合、照合時の環境条件やカメラとの位置関係による画像の歪みが生じても、複数のコードを登録してあるため、照合できる可能性が高くなる。
【0057】
また、アイリスコードのハミング距離がある距離以上離れているアイリスコードを登録するようにしたので、決められた数でその目から生成されるコード空間をカバーできることから、一つの目に対する登録辞書の数が制限でき、データ量の削減を図ることができる。
【0058】
《具体例2》
具体例2は、具体例1の登録辞書を用いて照合を行うようにした例である。
【0059】
〈構成〉
図8は、具体例2の構成図である。
図の装置は、カメラ11、アイリス座標抽出部12、アイリスコード生成部13、照合部(アイリスコード比較部)14、照合結果出力部15、登録データベース16からなり、アイリス座標抽出部12とアイリスコード生成部13により特徴データ生成部17を構成している。
【0060】
カメラ11は、照合の対象となる人物または動物の目を撮影するもので、カメラ11によって取得された映像は、図示しないA/D変換部によりA/D変換され、また、図示しないメモリまたはハードディスクに保存された後、アイリス座標抽出部12に入力されるよう構成されている。
【0061】
アイリス座標抽出部12は、アイリスコード生成のための座標系設定を行う機能部であり、この座標系の抽出は、入力画像に対して画像処理技術を用いて自動的に行われるよう構成されている。また、アイリスコード生成部13は、アイリス座標抽出部12で抽出した座標パラメータを用いてアイリスコードを計算する機能を有している。即ち、特徴データ生成部17は、入力画像からアイリスコードを生成する機能を有している。
【0062】
照合部14は、アイリスコード生成部13で計算したアイリスコードと登録データベース16の辞書データとの相違度を計算し、照合結果出力部15に送る機能を有している。また、照合結果出力部15は、照合部14で計算した照合結果を出力する機能部である。
【0063】
登録データベース16は、照合を行うための辞書データであるアイリスコードが登録されたデータベースであり、これは具体例1の装置により生成されたものである。
【0064】
尚、上記構成において、アイリス座標抽出部12、アイリスコード生成部13、照合部14の各機能は、各処理に対応したソフトウェアとこれを実行するためのプロセッサやメモリ等からなり、登録データベース16は、ハードディスク装置等からなる。また、照合結果出力部15は、ディスプレイやプリンタあるいはネットワーク等からなる。
【0065】
〈動作〉
図9は、具体例2の動作を示すフローチャートである。
ここでは、個人識別装置での具体例、即ち、識別対象が人である場合について説明する。
【0066】
図9の説明の前に、図8中の登録データベース16の内容について説明する。
データベースに登録している人物の数をNRとすると、データベースはNR個の辞書セットからなる。辞書セットは上記具体例1で作成したものと同一であるが、辞書セット内では照合度数の高いものの順に並べ替えられているものとする。即ち、ある辞書セットCM(r)に含まれるコードをDC(r,n)(r=1〜NR,n=1〜ND(r))と表記すると、
【0067】
Q(r,n)≧Q(r,n+1)
Q(r,n)はDC(r,n)の照合度数
となる。但し、ND(r)は辞書セットCM(r)に含まれるコードの数であり、辞書セットによってその数が異なっていてもよい。
【0068】
図9において、人の目の映像がアイリス座標抽出部12に入力されると(ステップS401)、アイリス座標抽出部12は、アイリス座標を抽出した後、アイリスコードICを作成する(ステップS402)。次に、最小値ホルダMD(r)(r=1〜NR)を十分大きな値で初期化する(ステップS403)。この最小値ホルダMD(r)は、各辞書セットCM(r)に含まれるコードと入力アイリスコードとのハミング距離の最小値を記憶するものである。
【0069】
次に、ステップS404において、繰り返し回数cr、関数R(cr),辞書セットの個数r、変数nを初期化する。ここで、繰り返し回数cr(cr=1〜NC)は、ステップS405の繰り返し回数をカウントする(ステップS412)もので、NCは各辞書セットに含まれるコードの数より少ない整数である。また、この繰り返しが行われる度に、最小値ホルダMD(r)が小さい順に辞書セットCM(r)をソートする(ステップS413)。ソートした結果、辞書セットCM(r)の番号と、含まれるコード、最小値ホルダMD(r)も対応がとれるように内容を変更する。
【0070】
関数R(cr)は、繰り返し回数crに対して、いくつの辞書セットをハミング距離の比較対象となるコードして使用するかを決定する関数である。これは、単調減少関数で、cr=1のときはR(cr)=NRで、最小値は1である。R(cr)=NRということは、全ての辞書セットを検索の対象にするということであり、例えば、R(cr)=n(n<NR)であれば、辞書セットのうち、最小値ホルダMD(r)の値の小さい上位n個の辞書セットが検索の対象になるという意味である。従って、R(cr)=1の場合は、検索対象の辞書セットが一つに絞られたことになる。R(cr)は、例えば、下式、
【0071】
R(1)=NR
R(cr)=R(cr−1)/2 cr>2
if R(cr)<1 then R(cr)=1
という関数にする。これは、繰り返しが行われる度に、比較の対象となる辞書セットの数を半分に絞っていくという関数である。
【0072】
ステップS406のN(cr)は、繰り返し回数crに対して登録セット内の何番目までのコードをハミング距離の計算に用いるかを決定する関数である。N(cr)のチェックに用いる変数はnであり(ステップS406)、このnはステップS404で初期化された後は、ステップS407,S408,S409,S410,ステップS411の繰り返しが行われる度に1ずつ増える。即ち、ステップS407において、r>R(cr)となるまで、ステップS408〜ステップS411の処理を繰り返し、r>R(cr)になった場合は、nを1増やして(ステップS415)、ステップS406に戻る。登録セット内のコードの順番は並べ替えは行われないので、一度ハミング距離を計算したコードは、それ以降ハミング距離の計算に用いられることはない。
【0073】
ステップS408では、入力アイリスコードICとr番目の登録セットCM(r)中のn番目のコードDC(r,n)とのハミング距離HDの計算が行われる。ハミング距離HDが本人と他人を区別する閾値Taより小さければ(ステップS409)、この人物は辞書セットCM(r)の人物と同じ人物であるとして結果を出力する(ステップS416)。
【0074】
ステップS409の条件が満たされない場合、辞書セットCM(r)に対応する最小値ホルダMD(r)の内容を更新し(ステップS410)、rの値を一つ増やして(ステップS411)、ステップS407に戻る。
【0075】
ステップS405で全ての繰り返しが終了した場合、入力されたアイリスコードと一致する人物はいないとして結果を出力する(ステップS414)。
【0076】
次に、上記照合動作について一例を用いて更に説明する。
図10は、図9における繰り返し部分の例を示す説明図である。
ここでは、登録してある人物の数をNR=8とし、各辞書セット中のコードの数をND(r)=7(r=1〜NR、全ての辞書セットが同じコード数である)、繰り返し数NC=4としている。また、繰り返しごとの比較対象コード数は、
【0077】
N(1)=1
N(2)=3
N(3)=5
N(4)=ND(max)=7
とし、R(cr)は上記式の、繰り返しが行われる度に辞書セットの数を半分に絞っていく関数を用いている。
【0078】
1回目の繰り返しでは、全ての辞書セット中の1番目のコードを入力アイリスコードICとのハミング距離の比較に用いている。その結果、照合できなかった場合、CM(1)〜CM(8)を最小相違度の小さいもの順にソートする。上記R(cr)の式に基づいて、2回目の繰り返しに進む辞書セットはソートされた辞書セットのうち上位四つとなる。
【0079】
この2回目の繰り返しのときのCM(1)〜CM(4)の内容は、1回目の繰り返しのときのCM(1)〜CM(4)とは異なる。例えば、1回目の繰り返しで最小相違度がCM(3)<CM(6)<CM(2)<CM(5)<CM(1)<CM(4)<CM(8)<CM(7)であったとすると、2回目の繰り返しに進むのは、CM(3)、CM(6)、CM(2)、CM(5)であり、これらに対して1〜4の番号がふり直されている。
【0080】
2回目の繰り返しでは、N(2)=3より、それぞれの辞書セット中で3番目までのコードをハミング距離の計算に用いる。但し、1番目のコードは計算済みなので、ここでは2番目と3番目のコードのみが比較対象となる。2回目の繰り返しが終了すると、CM(1)〜CM(4)を最小相違度が小さいもの順にソートする。上記R(cr)の式に基づいて、3回目の繰り返しに進む辞書セットはソートされた辞書セットのうち上位二つとなる。
【0081】
この3回目の繰り返しのときのCM(1)、CM(2)の内容は、上述した2回目の繰り返しのときの説明と同様に、2回目の繰り返しのときのCM(1)、CM(2)とは異なる。例えば、2回目の繰り返しで最小相違度がCM(2)<CM(4)<CM(1)<CM(3)であったとすると、3回目の繰り返しに進むのは、CM(2)、CM(4)であり、これらに対して1、2の番号がふり直されている。
【0082】
3回目の繰り返しでは、N(3)=5より、それぞれの辞書セット中で5番目までのコードをハミング距離の計算に用いる。但し、1番目〜3番目のコードは計算済みなので、ここでは4番目と5番目のコードのみが比較対象となる。3回目の繰り返しが終了すると、CM(1)とCM(2)を最小相違度が小さいもの順にソートする。上記R(cr)の式に基づいて、4回目の繰り返しに進む辞書セットはソートされた辞書セットのうち最小相違度の小さい方となる。
【0083】
4回目の繰り返しでは、N(4)=ND(max)(辞書セットに登録されてあるコード数の最大値)=7より、最後に残った辞書セット中の全てのコードを比較対象にする。
【0084】
1回目〜4回目の繰り返しの途中で、照合している人物と一致すると判断されたコードがあれば、そのコードの属する辞書セットに記録されている人物のIDなどを結果として出力する。1回目〜4回目の繰り返しで、照合できる人物がいなければ、登録されていない人物であるという結果を出力する。
【0085】
〈効果〉
以上のように具体例2によれば、一人の人物に対して複数のアイリスコードを登録し、それらを予め照合可能性の高い順番に並べておき、その順番に照合を行うため、照合までの時間が短縮される。また、多人数を登録してある場合でも、それぞれの人物が登録してあるコードのうち、何番目までを比較に用いるかを繰り返し回数毎に決めておき、繰り返しが行われる度に検索対象を絞りながら比較を行うので、それぞれの辞書セット内を偏りなく検索することができる。
【0086】
尚、上記具体例1、2では共に識別対象として人物の例を説明したが、同様の認識技術で照合が行える他の動物に対しても応用が可能である。また、登録データと入力データの相違度を元に認識を行うような装置であれば、アイリスコードに限らず他の識別装置に対しても適用可能である。更に、特徴データの相違度もハミング距離を用いたが、相違度を示すものであればユークリッド距離やマハラノビス距離等、他の距離尺度を使用してもよい。
【図面の簡単な説明】
【図1】本発明の個体識別装置の具体例1を示す構成図である。
【図2】アイリスコードを登録するための映像入力からアイリスコード生成までの動作を示すフローチャートである。
【図3】目画像とコード化画像の説明図である。
【図4】辞書候補データの内容を示す説明図である。
【図5】辞書候補データから登録データを選択するための照合度数を求める処理のフローチャートである。
【図6】登録データ選択処理のフローチャートである。
【図7】コードCM(r)とコード空間との関係を示す説明図である。
【図8】具体例2の構成図である。
【図9】具体例2の動作を示すフローチャートである。
【図10】図9における繰り返し部分の例を示す説明図である。
【符号の説明】
2 入力画像記憶部
6 データ記憶部
7 辞書データ選択部
8、17 特徴データ生成部
14 照合部
16 登録データベース
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an individual identification device that performs individual identification by extracting an arbitrary feature from an image.
[0002]
[Prior art]
Conventionally, as described in, for example, the following literature, a technique using an iris has been proposed as an individual identification technique.
[0003]
[References] US Pat. No. 5,291,560, United States Patent BIOMETRIC PERSONAL IDENTIFICATION SYSTEM BASED ON IRIS ANALISYS
[0004]
In the prior art as described above, a circle circumscribing the pupil is detected in image data acquired by a television camera, and a coordinate system is set based on each circle. By setting the coordinate system in this way, changes in the size of the pupil, changes in the distance between the subject and the camera, and the like are absorbed. Based on the coordinate system set in this way, the iris is divided into several regions, and an iris code is generated for each region. Individual identification is performed by comparing the iris codes.
[0005]
[Problems to be solved by the invention]
However, in the above conventional technique, normal or abnormal pupil shape or iris shape is caused by the influence of image distortion due to the positional relationship between the camera and subject at the time of data acquisition, the data acquisition environment, etc. Even when collation processing is performed, it is difficult to obtain the expected collation accuracy.
[0006]
[Means for Solving the Problems]
  The present invention employs the following configuration in order to solve the above-described problems.
<Configuration 1>
  In an individual identification device that generates an iris code from an eye image and performs individual identification based on the iris code, an input image storage unit that stores eye images of a plurality of different scenes of one individual, and an input image storage unit For each of the plurality of eye images, a feature data generation unit that generates an iris code having an extraction error by changing the value of each parameter of the iris coordinate system, and each iris code generated by the feature data generation unit In contrast, a predetermined number of iris codes obtained from an arbitrary image in which the average difference between an iris code obtained from an arbitrary image in the same individual and an iris code obtained from other images is smaller than a predetermined value A dictionary data selection unit that selects only the iris code for registrationIndividualBody identification deviceWhen the dictionary data selection unit has a Hamming distance between each iris code generated by the feature data generation unit and an iris code generated from another image of the same individual is smaller than a threshold used at the time of matching An individual identification device characterized by selecting an arbitrary number of pieces of data having a higher matching performance as registration data, assuming that the larger the number, the higher the matching performance, and the higher the matching performance.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail using specific examples.
[0017]
<< Specific Example 1 >>
<Constitution>
FIG. 1 is a block diagram showing a specific example 1 of the individual identification apparatus of the present invention.
The apparatus shown in FIG. 1 includes a camera 1, an input image storage unit 2, an iris coordinate extraction unit 3, an iris coordinate variation unit 4, an iris code generation unit 5, a data storage unit (iris code storage unit) 6, and a dictionary data selection unit 7. The feature data generation unit 8 includes the iris coordinate extraction unit 3, the iris coordinate variation unit 4, and the iris code generation unit 5.
[0018]
The camera 1 shoots the eyes of a person or animal that registers an iris code, and the video acquired by the camera 1 is A / D converted by an A / D conversion unit (not shown) and is input as an input image storage unit. 2 is stored in the memory. The input image storage unit 2 includes a memory, a hard disk, and the like.
[0019]
In addition, shooting by the camera 1 is performed for a certain period of time while artificially changing the brightness and shooting angle, and a plurality of frames having good image quality are recorded among the videos shot during that time.
[0020]
The feature data generation unit 8 generates iris codes for all input images recorded in the input image storage unit 2. That is, the iris coordinate extraction unit 3 performs a coordinate system setting for generating an iris code. The extraction of the coordinate system is configured to be automatically performed on the input image using an image processing technique. Here, the iris coordinate system is the value of parameters such as the center coordinates and radius when a figure such as a circle or ellipse is applied to the outer contour of the pupil or the outer contour of the iris. By doing so, different iris codes are generated even for the same image. Moreover, even if the images are selected from the same individual, different iris codes are generated between the two images even if the iris coordinate system is accurately set due to differences in imaging conditions and the like.
[0021]
The iris coordinate changing unit 4 has a function of changing each parameter of the iris coordinate system extracted by the iris coordinate extracting unit 3 within a predetermined range. The iris code generating unit 5 generates an iris code for the parameter changed by the iris coordinate changing unit 4 and adds both the input image and the changed parameter information to the data storage unit 6. . Further, the variation of the iris coordinates and the generation of the iris code are repeated until a predetermined type of iris code is obtained.
[0022]
The dictionary data selection unit 7 is a functional unit that selects an iris code to be recorded for registration from the iris code stored in the data storage unit 6, and details will be described in the operation section.
[0023]
In the above configuration, each function of the iris coordinate extraction unit 3, the iris coordinate variation unit 4, the iris code generation unit 5, and the dictionary data selection unit 7 includes software corresponding to each process, and a processor and memory for executing the software. The input image storage unit 2 and the data storage unit 6 are composed of a storage device such as a semiconductor memory or a hard disk device.
[0024]
<Operation>
Here, a case will be described in which an object to be registered and verified is a person, and an iris code is generated by applying a circle to the contour of the pupil and the contour outside the iris.
[0025]
FIG. 2 is a flowchart showing operations from video input to iris code generation to register an iris code.
[0026]
For the eyes of the person to be registered, operations such as a change in illumination that can occur at the time of collation, a change in the relative position between the camera and the person, and movement of the eyes are performed, and images in all these states are recorded (step S101). Among the acquired videos, good images from various scenes are stored as digital images by A / D conversion on the memory of the input image storage unit 2 or on the hard disk (step S102).
[0027]
Therefore, a plurality of image files are generated for one eye. The video may be temporarily recorded on a video tape or the like, or may be converted into a still image on the spot and recorded on a hard disk or a memory.
[0028]
Next, the iris coordinate extraction unit 3 performs processing such as edge extraction on each of the images of the plurality of frames recorded in the input image storage unit 2, applies a circle to the outline of the pupil, and sets the center coordinates to Cp (Xp , Yp), the radius is Rp (step S104), and this is called a pupil circle.
[0029]
Similarly, a circle is also applied to the outer contour of the iris, the center coordinate is Ci (Xi, Yi), the radius is Ri (step S105), and this is called the iris circle. For fitting these circles, for example, it is possible to use a conventional technique such as that described in the conventional literature, and therefore detailed description thereof is omitted here.
[0030]
Each parameter of the circle extracted in step S104 and step S105 is a parameter that serves as a reference for generating an iris code by the following processing, and is referred to as a reference parameter.
[0031]
FIG. 3 is an explanatory diagram of an eye image and a coded image.
FIG. 3A is an explanatory diagram in the case where a circle is applied to the contours of the pupil and the iris. In order to simplify the description, the centers of the pupil circle and the iris circle are the same (Xp = Xi, Yp). = Yi), but in order to correct image distortion due to the positional relationship between the eyes and the camera 1 at the time of shooting, a method of handling these separately may be used.
[0032]
Steps S106 to S109 are parts for generating an iris code for the input image. In consideration of the fitting error of the pupil circle and the iris circle, the standard parameters of these circles are changed by a constant step width to obtain new parameters (step S106). This parameter is called a variation parameter.
[0033]
In this step S106, it is assumed that only the radii Rp and Ri are varied, and the values of the variation parameters are represented as rp (= Rp + Δrp) and ri (= Ri + Δri), respectively. In addition, each value of the center coordinates Cp and Ci can be changed.
[0034]
In step S107, an intermediate image (referred to as a coded image) for generating an iris code is generated based on the variation parameter. FIG. 3B illustrates an example of a method for generating a coded image. Since the upper part of the iris is hidden by eyelids or eyelashes, the range from π−θ to 2π + θ is coded as shown.
[0035]
Coded images are generated so that a, b, c, and d in FIG. 3A correspond to a, b, c, and d in FIG. Specifically, if an arbitrary point p (xp, yp) on the coded image corresponds to a point q (xq, yq) on the input image (FIG. 3A), the relationship between the point p and the point q Is represented by the following equation.
[0036]
The point q (xq, yq) is a polar coordinate system having the center Cp of the pupil circle as the origin, and expressed as q (rq, θq) (the distance from Cp is rq, and the angle with the horizontal axis is θq). Then
xp = w × (θq− (π−θ)) / (π + 2θ)
yp = h * (rq-rp) / (ri-rp)
[0037]
In step S108, an iris code is generated by applying a bandpass filter to the coded image generated in step S107. Since a known technique can be applied to the iris code, a detailed description thereof is omitted here. However, since the iris code depends on the change in the density of the coded image, a plurality of different iris codes can be obtained from the same input image by changing these parameters.
[0038]
Steps S106 to S109 are repeated until the standard parameter variation is completed within the determined range. If the number of repetitions is N, N types of iris codes are generated from one input image, and are recorded on the memory or disk as dictionary candidate data together with image file information and fluctuating parameter information. (Step S110, Step S103).
[0039]
FIG. 4 is an explanatory diagram showing the contents of dictionary candidate data.
Assume that an M-frame image is stored as a file for one eye in steps S101 and S102 in FIG. In steps S106 to S109, it is assumed that Δrp and Δri are each changed by −0.1 to 0.1 with a step width of 0.1. Thus, 3 × 3 = 9 codes are generated from one frame image. These nine codes are collectively referred to as a code set CD (m), where m is an image number.
[0040]
Further, a code in which Δrp and Δri are both 0 in the code set (an iris code generated without changing the parameter extracted in step S106) is referred to as a standard code and is represented as CDs (m). Therefore, M code sets (M × 9 codes) are generated for one eye. The n (n = 1 to N, N = 9) th code for the m (m = 1 to M) th still image is represented as C (m, n). N (= 9) varies depending on the variation width and the step width of Δrp and Δri.
[0041]
FIG. 5 is a flowchart of processing for obtaining a matching frequency for selecting registered data from dictionary candidate data.
That is, first, for all codes in the dictionary candidate data, the code collation frequency Q (m, n) = {D, AVE} (m = 1 to M, n = 1 to N, D is the number of collations, AVE calculates the average Hamming distance).
[0042]
For codes C (m, n) (n = 1 to N) in a certain code set CD (m) (m = 1 to M) (steps S201 to S204, step S215), other than CD (m) The Hamming distance HD (L) with the standard code CDs (L) (L = 1 to M, L ≠ m) (steps S205 to 207, step S212) of the code set is calculated (step S208), and HD (L) is calculated. If it is below the threshold value Ta for distinguishing the person from others at the time of collation (step S210), the collation number D is increased by 1 (step S211).
[0043]
When the calculation of the Hamming distance and the comparison with the threshold Ta are completed for all L, the average AVE of the Hamming distance is calculated (Step S209, Step S213), and D and AVE are compared with the code C (m, n). Register as Q (m, n) = {D, AVE} (step S214).
[0044]
Therefore, D is a number that can be collated when standard codes CDs (L) of other code sets are input, with C (m, n) as a dictionary.
[0045]
The verification frequency is calculated for all codes in the code set (steps S215 and S204) and for all code sets (steps S216 and S201). It should be noted that the higher the number of verifications and the smaller the average Hamming distance if the number of verifications is the same, the higher the verification frequency.
[0046]
For the calculation of the matching frequency, not only codes in a certain code set CD (m) and standard codes of other code sets CD (L) but also all codes included in CD (L) may be used. Good.
[0047]
Next, processing for selecting registration data based on the collation frequency Q (m, n) = {D, AVE} obtained by the above-mentioned collation frequency calculation processing and registering it in the dictionary set will be described.
[0048]
FIG. 6 is a flowchart of the registration data selection process.
A dictionary set is for registering multiple codes for one eye, taking into account differences in conditions such as brightness and camera position at the time of data acquisition, and errors in fitting iris coordinates. If the number of codes to be registered is RM, the dictionary set is expressed as CM (r) (r = 1 to RM).
[0049]
First, the codes in the code sets are sorted in descending order of collation frequency. The sorted code is expressed as CS (m, n) (m = 1 to M, n = 1 to N) (step S301). Here, for the same m, it is assumed that the smaller the number of n, the higher the matching frequency. Further, the code set including the code C (mm, nn) having the highest collation frequency among all dictionary candidate data is defined as CD (mm), and the first dictionary with the C (mm, nn) as the first registered data. Register in the set CM (1) (step S302).
[0050]
K = mm + 1 and r = 2 (step S303). K is a code set number. If K> M, K = 1 is set (step S304). Among the codes not registered in the dictionary set in the code set CD (K), the code CS (K, n) having the highest matching frequency and all codes CM (r in the already registered dictionary set ) To obtain the minimum value. If this minimum value is larger than the threshold value Tr for registration (step S307), this code is registered in the dictionary set CM (r), and the value of K and the value of r are each increased by 1 (step S308).
[0051]
As a result, when each code in the dictionary set is used as a dictionary, it can be compared with other input data at a high rate, and the other codes in the dictionary set are different from the code space of the individual (its A set of all codes that can be generated from an individual).
[0052]
FIG. 7 is an explanatory diagram showing the relationship between the code CM (r) and the code space.
The state shown in the figure means that the codes in the dictionary set are appropriately scattered in the code space, and if this is used, the fluctuation of the iris code due to the change of the environment at the time of collation can be covered.
[0053]
In step S307 in FIG. 6, if the minimum value of the Hamming distance is smaller than Tr, the same processing is performed for the next highest matching frequency in the code set CD (K) (steps S309, S306, and S307).
[0054]
As a result of performing the processes of steps S309, S306, and S307 for all codes in the code set CD (K), if there is no code satisfying the condition in CD (K), K is incremented by 1 (step S311). Return to step S304. However, if there is no code satisfying the condition of step S307 for all codes (all codes in the dictionary candidate data) of all code sets of K = 1 to M (step S310), Tr is a predetermined value. Decrease by dr (relax the condition of step S307) (step S312), and return to step S304. The above steps S304 to S312 are repeated until the number of codes in the dictionary set reaches RM (until r> RM in step S305).
[0055]
If the result of the above processing for all the code sets CD (K) is less than the dictionary set CM (RM), the dictionary data selection unit 7 determines that registration has failed and displays a message indicating this. The information is output such as displaying. That is, in such a case, there are few good images, such as an image obtained by the camera 1 being unclear or an inappropriate lighting condition. Therefore, the operator can recognize the registration failure by viewing such a message.
[0056]
<effect>
As described above, according to the first specific example, a plurality of iris codes corresponding to the eye images of a plurality of different scenes of an individual, and an iris code having a pseudo extraction error generated from each of these iris codes The number of iris codes whose Hamming distance between a certain iris code and other iris codes is smaller than a predetermined value is selected from among them, and this is selected as an iris code for registration in the same individual. When collating eyes, even if image distortion occurs due to environmental conditions during collation or positional relationship with the camera, there is a high possibility that collation is possible because a plurality of codes are registered.
[0057]
In addition, since the iris code hamming distance is registered more than a certain distance, the iris code is registered, so the code space generated from that eye can be covered with the determined number, so the number of registration dictionaries for one eye Can be limited, and the amount of data can be reduced.
[0058]
<< Specific Example 2 >>
Specific example 2 is an example in which collation is performed using the registration dictionary of specific example 1.
[0059]
<Constitution>
FIG. 8 is a configuration diagram of the second specific example.
The apparatus shown in the figure includes a camera 11, an iris coordinate extraction unit 12, an iris code generation unit 13, a verification unit (iris code comparison unit) 14, a verification result output unit 15, and a registration database 16, and includes an iris coordinate extraction unit 12 and an iris code. The generation unit 13 constitutes a feature data generation unit 17.
[0060]
The camera 11 shoots the eyes of a person or animal to be verified, and the video acquired by the camera 11 is A / D converted by an A / D converter (not shown), and is not shown in a memory or hard disk. And stored in the iris coordinate extraction unit 12.
[0061]
The iris coordinate extraction unit 12 is a functional unit that performs a coordinate system setting for generating an iris code, and this coordinate system extraction is configured to be automatically performed on an input image using an image processing technique. Yes. The iris code generation unit 13 has a function of calculating an iris code using the coordinate parameters extracted by the iris coordinate extraction unit 12. That is, the feature data generation unit 17 has a function of generating an iris code from the input image.
[0062]
The collation unit 14 has a function of calculating the degree of difference between the iris code calculated by the iris code generation unit 13 and the dictionary data of the registration database 16 and sending it to the collation result output unit 15. The collation result output unit 15 is a functional unit that outputs the collation result calculated by the collation unit 14.
[0063]
The registration database 16 is a database in which iris codes, which are dictionary data for collation, are registered, and this is generated by the apparatus of the first specific example.
[0064]
In the above configuration, each function of the iris coordinate extraction unit 12, the iris code generation unit 13, and the collation unit 14 includes software corresponding to each process and a processor or memory for executing the software. And hard disk device. The collation result output unit 15 includes a display, a printer, a network, or the like.
[0065]
<Operation>
FIG. 9 is a flowchart illustrating the operation of the second specific example.
Here, a specific example in the personal identification device, that is, a case where the identification target is a person will be described.
[0066]
Prior to the description of FIG. 9, the contents of the registration database 16 in FIG. 8 will be described.
If the number of persons registered in the database is NR, the database consists of NR dictionary sets. It is assumed that the dictionary set is the same as that created in the above-described specific example 1, but is sorted in the order of the matching frequency in the dictionary set. That is, if a code included in a certain dictionary set CM (r) is expressed as DC (r, n) (r = 1 to NR, n = 1 to ND (r)),
[0067]
Q (r, n) ≧ Q (r, n + 1)
Q (r, n) is the matching frequency of DC (r, n)
It becomes. However, ND (r) is the number of codes included in the dictionary set CM (r), and the number may be different depending on the dictionary set.
[0068]
In FIG. 9, when an image of the human eye is input to the iris coordinate extraction unit 12 (step S401), the iris coordinate extraction unit 12 creates an iris code IC after extracting the iris coordinates (step S402). Next, the minimum value holder MD (r) (r = 1 to NR) is initialized with a sufficiently large value (step S403). The minimum value holder MD (r) stores the minimum value of the Hamming distance between the code included in each dictionary set CM (r) and the input iris code.
[0069]
In step S404, the number of repetitions cr, the function R (cr), the number r of dictionary sets, and the variable n are initialized. Here, the number of repetitions cr (cr = 1 to NC) counts the number of repetitions of step S405 (step S412), and NC is an integer smaller than the number of codes included in each dictionary set. Each time this is repeated, the dictionary set CM (r) is sorted in ascending order of minimum value holder MD (r) (step S413). As a result of the sorting, the contents are changed so that the number of the dictionary set CM (r) can be matched with the included code and the minimum value holder MD (r).
[0070]
The function R (cr) is a function that determines how many dictionary sets are used as codes to be compared with the Hamming distance for the number of repetitions cr. This is a monotonically decreasing function. When cr = 1, R (cr) = NR and the minimum value is 1. R (cr) = NR means that all dictionary sets are to be searched. For example, if R (cr) = n (n <NR), the minimum value holder in the dictionary set. This means that the top n dictionary sets having a small MD (r) value are to be searched. Therefore, when R (cr) = 1, the dictionary set to be searched is narrowed down to one. R (cr) is, for example, the following formula:
[0071]
R (1) = NR
R (cr) = R (cr-1) / 2 cr> 2
if R (cr) <1 then R (cr) = 1
Function. This is a function that reduces the number of dictionary sets to be compared to half each time it is repeated.
[0072]
N (cr) in step S406 is a function that determines how many codes in the registration set are used for the Hamming distance calculation with respect to the number of repetitions cr. The variable used for checking N (cr) is n (step S406), and this n is 1 every time the steps S407, S408, S409, S410, and step S411 are repeated after being initialized in step S404. It increases gradually. That is, in step S407, the processing from step S408 to step S411 is repeated until r> R (cr). When r> R (cr), n is incremented by 1 (step S415), and step S406 is performed. Return to. Since the order of codes in the registration set is not rearranged, the code once calculated for the Hamming distance is not used for the calculation of the Hamming distance thereafter.
[0073]
In step S408, the Hamming distance HD between the input iris code IC and the nth code DC (r, n) in the rth registered set CM (r) is calculated. If the hamming distance HD is smaller than the threshold value Ta for distinguishing the person from others (step S409), the person is the same person as the person in the dictionary set CM (r), and the result is output (step S416).
[0074]
If the condition of step S409 is not satisfied, the content of the minimum value holder MD (r) corresponding to the dictionary set CM (r) is updated (step S410), the value of r is incremented by one (step S411), and step S407 is performed. Return to.
[0075]
When all the repetitions are completed in step S405, the result is output assuming that no person matches the input iris code (step S414).
[0076]
Next, the collation operation will be further described using an example.
FIG. 10 is an explanatory diagram illustrating an example of a repeated portion in FIG.
Here, the number of registered persons is NR = 8, the number of codes in each dictionary set is ND (r) = 7 (r = 1 to NR, all dictionary sets have the same number of codes), The number of repetitions NC = 4. The number of codes to be compared for each repetition is
[0077]
N (1) = 1
N (2) = 3
N (3) = 5
N (4) = ND (max) = 7
R (cr) is a function of reducing the number of dictionary sets to half each time the above expression is repeated.
[0078]
In the first iteration, the first code in all dictionary sets is used for comparison of the Hamming distance with the input iris code IC. As a result, when collation cannot be performed, CM (1) to CM (8) are sorted in the order of the smallest difference. Based on the expression of R (cr), the dictionary set that proceeds to the second iteration is the top four of the sorted dictionary sets.
[0079]
The contents of CM (1) to CM (4) at the second iteration are different from CM (1) to CM (4) at the first iteration. For example, in the first iteration, the minimum difference is CM (3) <CM (6) <CM (2) <CM (5) <CM (1) <CM (4) <CM (8) <CM (7). , It is CM (3), CM (6), CM (2), and CM (5) that proceeds to the second iteration, and the numbers 1 to 4 are reassigned to these. Yes.
[0080]
In the second iteration, since N (2) = 3, up to the third code in each dictionary set is used to calculate the Hamming distance. However, since the first code has already been calculated, only the second and third codes are to be compared here. When the second iteration is completed, CM (1) to CM (4) are sorted in ascending order of the smallest difference. Based on the equation of R (cr), the dictionary set that proceeds to the third iteration is the top two of the sorted dictionary sets.
[0081]
The contents of CM (1) and CM (2) at the time of the third repetition are the same as the description at the time of the second repetition, and the contents of CM (1) and CM (2) at the time of the second repetition are described above. ) Is different. For example, if the minimum difference in the second iteration is CM (2) <CM (4) <CM (1) <CM (3), it is CM (2), CM that proceeds to the third iteration. (4), and the numbers 1 and 2 are reassigned to these.
[0082]
In the third iteration, since N (3) = 5, codes up to the fifth in each dictionary set are used for the Hamming distance calculation. However, since the first to third codes have already been calculated, only the fourth and fifth codes are to be compared here. When the third iteration is completed, CM (1) and CM (2) are sorted in ascending order of minimum dissimilarity. Based on the equation of R (cr), the dictionary set that proceeds to the fourth iteration is the one with the smallest minimum degree of difference among the sorted dictionary sets.
[0083]
In the fourth iteration, since N (4) = ND (max) (maximum value of the number of codes registered in the dictionary set) = 7, all the codes in the last remaining dictionary set are to be compared.
[0084]
If there is a code determined to match the person being collated during the first to fourth iterations, the ID of the person recorded in the dictionary set to which the code belongs is output as a result. If there is no person who can be verified in the first to fourth repetitions, a result indicating that the person is not registered is output.
[0085]
<effect>
As described above, according to the second specific example, a plurality of iris codes are registered for one person, arranged in advance in the order of high possibility of collation, and collation is performed in that order. Is shortened. In addition, even if a large number of people are registered, the number of codes registered for each person is determined for each number of repetitions, and the search target is determined each time the repetition is performed. Since comparison is performed while narrowing down, it is possible to search each dictionary set without bias.
[0086]
In the specific examples 1 and 2 described above, an example of a person as an identification target has been described. In addition, the device is applicable not only to the iris code but also to other identification devices as long as the device recognizes based on the difference between the registered data and the input data. Further, although the hamming distance is used for the dissimilarity of the feature data, other distance scales such as Euclidean distance and Mahalanobis distance may be used as long as the dissimilarity is shown.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a specific example 1 of an individual identification apparatus of the present invention.
FIG. 2 is a flowchart showing an operation from video input for registering an iris code to generation of an iris code.
FIG. 3 is an explanatory diagram of an eye image and a coded image.
FIG. 4 is an explanatory diagram showing the contents of dictionary candidate data.
FIG. 5 is a flowchart of processing for obtaining a matching frequency for selecting registered data from dictionary candidate data.
FIG. 6 is a flowchart of registered data selection processing.
FIG. 7 is an explanatory diagram showing a relationship between a code CM (r) and a code space.
FIG. 8 is a configuration diagram of a specific example 2;
FIG. 9 is a flowchart showing the operation of the specific example 2;
10 is an explanatory diagram showing an example of a repeated portion in FIG. 9. FIG.
[Explanation of symbols]
2 Input image storage
6 Data storage
7 Dictionary data selector
8, 17 Feature data generator
14 Verification part
16 Registration database

Claims (1)

目画像からアイリスコードを生成し、当該アイリスコードに基づいて個体識別を行う個体識別装置において、
1個体の複数の異なるシーンの目画像を記憶する入力画像記憶部と、
前記入力画像記憶部に記憶された複数の目画像のそれぞれについて、アイリス座標系の各パラメータの値を変動させて擬似的に抽出誤差のあるアイリスコードを生成する特徴データ生成部と、
前記特徴データ生成部で生成された各アイリスコードに対して、同一個体における任意の画像から得られたアイリスコードとそれ以外の画像から得られたアイリスコードとの平均相違度が所定値より小さい前記任意の画像から得られたアイリスコードを所定の数だけ選択して登録用のアイリスコードとする辞書データ選択部とを備えた個体識別装置であって、
前記辞書データ選択部は、特徴データ生成部で生成された各アイリスコードに対して、同一個体の他の画像から生成されたアイリスコードとのハミング距離が照合時に用いる閾値よりも小さい場合の数を数え、この数が多いもの程照合性能が高いアイリスコードであるとして、当該照合性能の高いものを任意の数だけ登録用のデータとして選択することを特徴とする個体識別装置。
In an individual identification device that generates an iris code from an eye image and performs individual identification based on the iris code,
An input image storage unit for storing eye images of a plurality of different scenes of one individual;
For each of the plurality of eye images stored in the input image storage unit, a feature data generation unit that artificially generates an iris code having an extraction error by changing the value of each parameter of the iris coordinate system;
For each iris code generated by the feature data generation unit, the average difference between the iris code obtained from an arbitrary image in the same individual and the iris code obtained from other images is smaller than a predetermined value. a number body recognition apparatus and a dictionary data selection unit to iris code for registration by selecting the iris code obtained from any of the image by a predetermined number,
The dictionary data selection unit, for each iris code generated by the feature data generation unit, the number when the Hamming distance between the iris code generated from another image of the same individual is smaller than the threshold used at the time of matching An individual identification apparatus characterized in that an arbitrary number of data having higher collation performance are selected as registration data on the assumption that the larger the number, the higher the collation performance is.
JP35401599A 1999-12-14 1999-12-14 Individual identification device Expired - Fee Related JP3995181B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35401599A JP3995181B2 (en) 1999-12-14 1999-12-14 Individual identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35401599A JP3995181B2 (en) 1999-12-14 1999-12-14 Individual identification device

Publications (2)

Publication Number Publication Date
JP2001167279A JP2001167279A (en) 2001-06-22
JP3995181B2 true JP3995181B2 (en) 2007-10-24

Family

ID=18434747

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35401599A Expired - Fee Related JP3995181B2 (en) 1999-12-14 1999-12-14 Individual identification device

Country Status (1)

Country Link
JP (1) JP3995181B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004042658A1 (en) * 2002-11-07 2004-05-21 Matsushita Electric Industrial Co., Ltd. Method for cerficating individual, iris registering device, system for certificating iris, and program for cerficating individual
JP3639291B2 (en) * 2002-11-07 2005-04-20 松下電器産業株式会社 Personal authentication method, iris registration device, iris authentication device, and personal authentication program
JP3940759B2 (en) 2004-05-10 2007-07-04 松下電器産業株式会社 Iris registration method, iris registration device, and iris registration program
JP4684013B2 (en) * 2005-06-06 2011-05-18 株式会社日立製作所 Identification system
JP4766008B2 (en) * 2007-06-29 2011-09-07 富士ゼロックス株式会社 Authenticity determination device and authenticity determination program
JP5319726B2 (en) * 2011-04-14 2013-10-16 株式会社東芝 PATTERN SELECTION DEVICE, PATTERN SELECTION METHOD, AND PROGRAM
US10831264B2 (en) 2016-01-19 2020-11-10 Magic Leap, Inc. Eye image combination

Also Published As

Publication number Publication date
JP2001167279A (en) 2001-06-22

Similar Documents

Publication Publication Date Title
JP4863423B2 (en) IDENTIFICATION SYSTEM AND METHOD USING IRIS AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING IDENTIFICATION PROGRAM FOR PERFORMING THE METHOD
CN109857254B (en) Pupil positioning method and device, VR/AR equipment and computer readable medium
US7873190B2 (en) Face feature point detection device and method
US20180357475A1 (en) Authentication device and authentication method
US20070036400A1 (en) User authentication using biometric information
KR101381455B1 (en) Biometric information processing device
US20100266165A1 (en) Methods and systems for biometric identification
JP2001307096A (en) Image recognition device and method
US8639058B2 (en) Method of generating a normalized digital image of an iris of an eye
US8498454B2 (en) Optimal subspaces for face recognition
Minut et al. A reinforcement learning model of selective visual attention
EP1271394A2 (en) Method for automatically locating eyes in an image
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
US20090087038A1 (en) Image processing apparatus, image pickup apparatus, processing method for the apparatuses, and program for the apparatuses
MX2012010602A (en) Face recognizing apparatus, and face recognizing method.
CN112464793B (en) Online examination cheating behavior detection method, system and storage medium
JP2008152789A (en) Method and device for calculating similarity of face video, method and device for retrieving face video using this, and face composing method
US20070183665A1 (en) Face feature point detecting device and method
KR20030046007A (en) Iris image processing and recognizing method for personal identification
JP2013504114A (en) Eye state detection apparatus and method
JP2003132355A (en) Iris authenticating method and its device
EP2639743A2 (en) Image processing device, image processing program, and image processing method
JP2010271861A (en) Object identification device and object identification method
JP3995181B2 (en) Individual identification device
CN110929570B (en) Iris rapid positioning device and positioning method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040930

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070717

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070727

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070618

LAPS Cancellation because of no payment of annual fees