JP3620938B2 - Personal identification device - Google Patents

Personal identification device Download PDF

Info

Publication number
JP3620938B2
JP3620938B2 JP30446696A JP30446696A JP3620938B2 JP 3620938 B2 JP3620938 B2 JP 3620938B2 JP 30446696 A JP30446696 A JP 30446696A JP 30446696 A JP30446696 A JP 30446696A JP 3620938 B2 JP3620938 B2 JP 3620938B2
Authority
JP
Japan
Prior art keywords
unit
pattern
iris
facial
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP30446696A
Other languages
Japanese (ja)
Other versions
JPH10137221A (en
Inventor
義尚 梅澤
恭祐 星野
英雄 谷本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP30446696A priority Critical patent/JP3620938B2/en
Publication of JPH10137221A publication Critical patent/JPH10137221A/en
Application granted granted Critical
Publication of JP3620938B2 publication Critical patent/JP3620938B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、人間の生態的特徴、特に眼球のアイリスを利用して個人を識別する個人識別装置に関するものである。
【0002】
【従来の技術】
金融機関で自動取引装置により取引操作を行う場合、あるいはコンピュータ等により秘守性のあるデータにアクセスする場合、更には特定の人間のみが入れる施設等への入場の際等に、その資格の有無をチェックするための個人識別が行われる。
【0003】
この個人識別の技術として、現在種々のものが考えられ、あるいは実施されているが、その1つとして人間の眼球の一部であるアイリスを利用して個人を識別する技術がある。
このアイリスは幼児期に完成され、一生を通じて殆ど変化せず、また太る、痩せるという体格の変化の影響も受けにくいという特徴があるので、識別精度が高く、そのため将来的に多方面での応用が期待されている。
【0004】
図12はアイリスを利用した従来の一般的な個人識別装置を示す機能ブロック図である。
図において1は映像入力を行うカメラ(ビデオカメラ)、2はこのカメラ1で撮影された画像からアイリスを切り出す処理すなわち前処理を行う前処理部、3はこの前処理部2によって切り出されたアイリスの特徴を抽出してそのパターンをコード化する特徴抽出部で、4はこの特徴抽出部3から送られてくるアイリスパターンを照合辞書部5に登録してあるアイリスパターンとを照合して両者の間の類似度を求める照合部であり、ここで照合辞書部5には予め複数の人数分のアイリスパターンが貯えられている。
【0005】
6は照合部4によって算出された類似度から両アイリスパターンが同一人物のものか否かを判定する判定部である。
この構成において、前処理部2,特徴抽出部3,照合部4,及び判定部6は、マイクロプロセッサや専用演算ハードウェアによって構成されるのが一般的であり、また照合辞書部5は、半導体メモリや磁気ディスク等で構成されるのが一般的である。
【0006】
次に、上述した構成の作用について説明する。
図13はアイリスパターンの登録モード時の処理手順を示すフローチャートであり、図14はアイリスパターンの識別モードの処理手順を示すフローチャートである。
まず、図13の登録モードについてSで示したステップに従って説明する。
【0007】
登録すべき者の上半身の映像がカメラ1により撮影される。つまり映像入力される(S1)。
次に、撮影された画像が前処理部2に送られて、この前処理部2で被識別者の画像から頭部の切り出し(頭部の位置の割り出し)が行われ(S2)、更に、この頭部の画像から目の切り出し(目の位置の割り出し)(S3)、そしてこの目の画像からアイリスを切り出す(アイリスの位置の割り出し)処理が順次前処理部2で行われる(S4)。
【0008】
この切り出されたアイリスの画像が特徴抽出部3に送られ、特徴抽出部3で照合に必要な特徴が抽出される(S5)。
具体的には、アイリスを必要な分析帯に分割したり、ガボールフィルタ等によりアイリスの濃度変化を抽出する等の特徴抽出が行われる。
そして、抽出されたアイリスの特徴は特徴抽出部3で正規化され(S6)、2値データとしてコード化されて(S7)、最終的に256バイト程度のアイリスコードがアイリスパターンとして生成される。
【0009】
このようにして生成されたアイリスパターンは、登録者名,ID番号,及び日付等の必要なデータが付加され、照合辞書部5に登録される(S8)。
次に、図14の識別モードについて同じくSで示したステップに従って説明する。
尚、このモードにおいて前記にように照合辞書部5に複数の人のアイリスパターンが登録されているものとする。
【0010】
まず、被識別者の映像入力(S1)、頭部の切り出し(S2)、目の切り出し(S3)、及びアイリスの切り出し(S4)の各処理が前記登録時の場合と同様に前処理部2で順に行われた後、アイリスの特徴抽出(S5)、正規化(S6)、及びコード化(S7)の各処理が前記登録時の場合と同様に特徴抽出部3で行われてアイリスパターンが生成される。
【0011】
生成されたアイリスパターンは照合部4に送られ、照合部4ではこの特徴抽出部3から送られてきたアイリスパターンと照合辞書部5に登録されているアイリスパターンを照合(マッチング)演算し、類似度を求める(S8)。
この場合の照合演算では、ハミング距離などの距離値が類似度の尺度としてよく用いられる。
【0012】
この照合部4での照合により選択されたアイリスパターンの類似度(距離値)は判定部6に転送され、判定部6では送られてきた類似度を、実験や統計的手法によって予め求めた1つあるいは複数のしきい値と比較し、被識別者の画像から得られたアイリスパターンが、照合辞書部5の中の照合したアイリスパターンと同一人物のものかどうかの判定を行う(S9)。
【0013】
尚、この識別モードにおける照合処理では、照合用として照合辞書5に登録されているどの(誰の)コードを用いるか、あるいはいくつの(何人の)パターンを用いるかは、自由に選択できるようになっており、システムの仕様によって決定されるが、大別して次の2種類の形態が採用されている。
その1つは、被識別者の画像から得られたアイリスパターンに対して、照合辞書部5に登録されているアイリスパターンのうちの照合すべきパターンが判っている場合つまり1対1の照合であり、別の1つは、照合辞書部5に登録されているアイリスパターンのうちの照合すべきパターンが判らず、登録されている複数人のアイリスパターンの中から、最も確からしいアイリスパターンを選択する場合つまり1対nの照合である。
【0014】
1対1の照合の場合には、照合部4は、1つのアイリスパターンを用い類似度を算出し、その算出結果を判定部6に対して出力する。
この場合の判定では、類似度を1つあるいは複数のしきい値と比較し、被識別者の画像から得られたアイリスパターンが、照合したアイリスパターンとが同一人物のものであるか否かの識別を行う。
【0015】
1対nの照合の場合には、照合部4は照合辞書部5の中の複数のアイリスパターンを照合して照合演算を行い、その第1位あるいは上位m位(mは任意の値)の類似度を判定部6に送出する。
この場合、判定部6は、第1位あるいは上位m位の類似度を1つあるいは複数のしきい値によって判定し、被識別者の画像から得られたアイリスパターンが、照合したどのアイリスパターンに最も類似しているか、あるいは充分に類似していないか等を調べて、被識別者の画像から得られたアイリスパターンと照合したアイリスパターンとが同一人物のものであるか否かの識別を行う。
【0016】
【発明が解決しようとする課題】
しかしながら、上述したアイリス利用の個人識別装置では認識装置では、被識別者が撮影時にまばたきをしたり、髪の毛が目にかかる等のことによる映像の不安定さ、あるいは周囲の照明条件による映像取得の不安定さ等により、正確なアイリスのデータが得られない場合、確実な識別が困難になり、識別率が下がるという問題があった。
【0017】
このような問題を解決する上で、映像の安定化を得るために、被識別者に無理な姿勢を強いたり、周囲の照明条件に厳しい制限を加えたりすることは、ヒューマンインタフェース上好ましくなく、更に単純に認識率を上げるために、画素数の多いカメラを使うと、処理量の増加、装置の大型化、高価格化、消費電力の増加などが避けられなくなり、現実的でないものとなる。
【0018】
従って、本願発明の課題は、被識別者に無理な姿勢を強いたり、周囲の照明条件に厳しい制限を加えたりすることなく、かつ画素数の多いカメラを使用することなく、確実な識別が可能で、高い識別率が得られる個人識別装置を実現することである。
【0019】
【課題を解決するための手段】
そのため、本発明は、カメラが撮影した被識別者画像からアイリス認識部及び顔貌認識部が特徴抽出してアイリスパタ−ン及び顔貌パタ−ンを取得すると共に、そのアイリスパタ−ン及び顔貌パタ−ンを予め登録されているアイリスパタ−ン及び顔貌パタ−ンと照合してそれぞれの類似度を求め、類似度結合部によりこのアイリスパタ−ンの類似度と顔貌パタ−ンの類似度を結合して、その結合結果に基づいて被識別者の画像から得たアイリスパタ−ン及び顔貌パタ−ンが照合に用いたアイリスパタ−ン及び顔貌パタ−ンと同一人物のものか否かを総合判定部で判定することを特徴とする。
【0020】
【発明の実施の形態】
以下に図面を参照して本発明の実施の形態を説明する。
図1は本発明による個人識別装置の第1の実施の形態の構成を示すブロック図である。
この識別装置は、人物の撮影を行うカメラ1、カメラ出力分配部11、アイリス認識部12、顔貌認識部13、類似度結合部14、及び総合判定部15により構成されている。
【0021】
ここで、カメラ出力分配部11はカメラ1からの出力を受け、その出力をアイリス認識部12と顔貌認識部13にそれぞれ送出する。
アイリス認識部12は、前処理部2、特徴抽出部3、照合部4、及び照合辞書部5から成り、また顔貌認識部13も、前処理部7、特徴抽出部8、照合部9、及び照合辞書部10によって構成されている。
【0022】
アイリス認識部12における2〜4の各部は図13に示した構成要素と同一のもので、顔貌認識部13の7〜10の各部は2〜のものに相当する。
一方、類似度結合部14は、アイリス認識部12の照合部4及び顔貌認識部13の照合部10からそれぞれの類似度を受け、総合類似度を算出して総合判定部6に送出するもので、総合判定部15は、類似度結合部14から送られてくる総合類似度から被識別者がアイリス認識部12の照合辞書部5及び顔貌認識部13の照合辞書部10に登録されている人物かどうかを判定してその判定結果を出力する。
【0023】
次に、このような構成による装置の作用について説明する。
この装置は、登録モードと識別モードの2つのモードで動作するもので、図2は登録モードのフローチャートであり、図3は識別モードのフローチャートである。
まず、図2の登録モードについて、Sで示したステップに従って説明する。
【0024】
登録すべき者(登録者)の上半身の映像がカメラ1により撮影される。つまり映像入力される(S1)。
このカメラ1の出力はカメラ出力分配部1に送られ、このカメラ出力分配部1によりカメラ1で撮影された画像がアイリス認識部12及び顔貌認識部13のそれぞれの前処理部2及び7に分配される(S2)。
【0025】
アイリス認識部12では、頭部の切り出し(S3)、目の切り出し(S4)、アイリスの切り出し(S5)、アイリスの特徴抽出(S6)、正規化(S7)、及びコード化(S8)の各処理が従来と同様に前処理部2及び特徴抽出部3により行われてアイリスパターンが照合辞書部5に登録される(S9)。
一方、顔貌認識部13では、前処理部7がカメラ出力分配部11から送られてきた登録者の画像から顔の輪郭を検出し(S10)、その輪郭から目、鼻、及び口等の顔特有の特徴を示す領域の検出(S11)、更にこれらの相対関係を検出する(S12)。
【0026】
特徴抽出部8では、前処理部7の出力を受けて、入力された顔画像の特徴を正規化し(S13)、コード化して顔貌パターンを生成する(S14)。
このようにして生成された顔貌パターンは、登録者名,ID番号,及び日付等の必要なデータが付加され、照合辞書部10に登録される(S15)。
尚、アイリスパターンと顔貌パターンは、前記のようにそれぞれ照合辞書5,10に登録されるので、この両パターンは互いにリンクさせる必要があるが、リンクのためのデータとしては登録者名やID番号を利用することができる。
【0027】
また、上述したアイリス認識部12でのS3〜S9の処理と顔貌認識部13でのS10〜S15の処理は並行して行われる。
次に、図3の識別モードについて、同じくSで示したステップに従って説明する。
尚、このモードにおいて前記にように照合辞書部5,10にはそれぞれ複数人数人のアイリスパターン及び顔貌パターンが登録されているものとする。
【0028】
まず、カメラ1による被識別者の映像入力からアイリス認識部12でのアイリスのコード化(S1〜S8)、及び顔貌認識部13での顔貌のコード化(S1,S2,S10〜S14)までの各処理が前記登録時と同様に行われる。
そして、アイリス認識部12では、特徴抽出部3で生成されたアイリスパターンは照合部4に送られ、照合部4ではこの特徴抽出部3から送られてきたアイリスパターンと照合辞書部5に登録されているアイリスパターンを照合(マッチング)演算し、類似度を求めて(S9)、その結果を類似度結合部14に対して出力する。
【0029】
尚、この場合の類似度の算出も従来と同様に行われる。
一方、顔貌認識部13では、特徴抽出部8で生成された顔貌パターンが照合部9に送られ、照合部9では特徴抽出部8から送られてきた顔貌パターンを照合辞書部10に登録されている顔貌パターンと照合、演算し、類似度を求める(S15)。
【0030】
この照合演算には、距離尺度等が使用され、そして照合部9は演算結果の類似度(距離値)を類似度結合部14に対して出力する。
このようにしてアイリス認識部12と顔貌認識部13のそれぞれの照合部4,9においてアイリスパターンと顔貌パターンのそれぞれの照合が行われるが、この照合に用いられる照合辞書部5のアイリスパターンと顔貌パターンは必ず同一人物のパターンが使用されるように制御する。
【0031】
次に類似度結合部14は、アイリス認識部12と顔貌認識部13のそれぞれの照合部4,9から受け取った2つの類似度を、以下の(1)式により結合して総合類似度を算出する(S16)
T=k*R+(1−k)*R ・・・・・・ (1)式
ここで、T:総合類似度、R:アイリスによる類似度、R:顔貌による類似度、k:定数(1>k)であり、この定数kは実験や統計的手法により適切な値を決定する。
【0032】
この類似度結合部14で算出された総合類似度は総合判定部15に送出され、総合判定部15は総合類似度を1つあるいは複数のしきい値と比較し、入力された映像から得られたアイリスパターン及び顔貌パターンが、照合辞書部5,10の中の照合したアイリスパターン及び顔貌パターンと同一人物のものかどうかを判定し(S17)、判定結果を出力する。
【0033】
上述した図3の識別モードにおける照合処理では、次の2種類の形態が採用される。
その1つは、被識別者の画像から得られたアイリスパターン及び顔貌パターンに対して、照合辞書部5及び10に登録されているアイリスパターン及び顔貌パターンのうちの照合すべきそれぞれパターンが判っている場合つまり1対1の照合であり、別の1つは、照合辞書部5,10に登録されているアイリスパターン及び顔貌パターンのうちの照合すべきパターンが判らず、登録されている複数のスパターンの中から最も確からしいアイリスパターン及び顔貌パターンを選択する場合つまり1対nの照合である。
【0034】
1対1の照合の場合には、照合部4及び9は、それぞれ1つのアイリスパターン及び顔貌パターンを用いて類似度を算出し、それを類似度結合部14に対して出力する。
1対nの照合の場合には、照合部4及び9は照合辞書部5及び10の中のそれぞれ複数のアイリスパターン及び顔貌パターンを用いて照合演算を行い、その第1位あるいは上位m位(mは任意の値)の類似度を類似度結合部14に対して送出する。
【0035】
この場合、それぞれの照合部4及び9から受け取った第1位あるいは上位m位の類似度が同一人物のものでないことがありうるが、その場合には類似度結合部14が、十分確からしくないとして総合判定部15に通知することによって、被識別者の画像から得られたアイリスパターン及び顔貌パターンが、照合に用いたアイリスパターン及び顔貌パターンと同一人物のものでないと判定することができる。
【0036】
以上説明した、第1の実施の形態によれば、アイリス認識に加えて顔貌認識を行い、個人特定の識別を両認識の類似度を用いることによって行っているため、被識別者に無理な姿勢を強いたり、周囲の照明条件に厳しい制限を加えたりすることなく、かつ画素数の多いカメラを使用することなく、確実な識別が可能で、高い識別率を得ることができる。
【0037】
図4は第2の実施の形態の構成を示すブロック図である。
この第2の実施の形態は、総合判定部15をアイリス認識部12と顔貌認識部13の各々の照合部4及び9に接続し、この総合判定部15に類似度結合部14を接続したもので、その他の構成については第1の実施の形態と同じである。
この第2の実施の形態も登録モードと識別モードの2種類のモードにて動作するが、登録モードは第1の実施の形態と同様であるので、ここでは作用として識別モードのみについて説明する。
【0038】
図5は第2の実施の形態の識別モードを示すフローチャートで、Sで示したステップに従って説明する。
この識別モードにおいてS1〜S15までの処理は第1の実施の形態と同様に行われるのでその説明は省略するが、S9及びS15での照合は、登録辞書部5及び10に登録されているアイリスパターン及び顔貌パターンのうちの照合すべきパターンが判らず、それぞれ複数のパターンの中から、最も確からしいパターンを選択する場合つまり1対nの照合が適用される。
【0039】
また、この第2の実施の形態と第1の実施の形態の動作上の差異は総合判定部15と類似度結合部14による判定法の差である。
すなわち、総合判定部15は、アイリス認識部12及び顔貌認識部13のそれぞれの照合部4及び9から、アイリスパターン及び顔貌パターンの上位n位までの類似度を受け取ると、まずアイリスパターンのn位までの類似度のそれぞれの差を算出する(S16)。
【0040】
次に、その差を予め実験や統計的手法を用いて定めたしきい値aによって判定し(S17)、差がしきい値a以上の場合、アイリスパターンの類似度のみを用いて総合判定を行うが、その差がしきい値a未満の場合は、次のステップである総合類似度算出に進む。
例えば、アイリス認識部12の照合部4から、第2位までの類似度が総合判定部15へ入力された場合、総合判定部15では入力された第1位と第2位との類似度の差を求め、この差が予め設定したしきい値aと同じか大きい場合、第1位の類似度を示すアイリスパタンが充分確からしいとして、総合判定へと進む。
【0041】
また、その差がaよりも小さい場合、第1位として上がってきたものは、充分確からしいとは言えないため、アイリス認識部12からの類似度のみでは判定せず、次の総合類似度算出へと進む。
アイリスパターンの上位n位の差が、しきい値aよりも小さい場合、総合判定部15は類似度結合部14に対してアイリスパターン及び顔貌パターンの上位n位の類似度を転送し、これを受けて類似度結合部14は、第1の実施の形態で説明した(1)式を用いて双方の類似度を結合し、総合類似度を算出して、その算出結果を総合判定部15に転送する(S18)。
【0042】
総合判定部15は類似度結合部14から総合類似度を受けると、その総合類似度を1つあるいは複数のしきい値と比較して判定し(S19)、その判定結果を出力する。
つまり、被識別者の映像から得られたアイリスパターン及び顔貌パターンが、照合辞書部5,10の中の照合したアイリスパターン及び顔貌パターンと同一人物のものか否かを判定し、その判定結果を出力する。
【0043】
以上述べた第2の実施の形態においても、第1の実施例と同様に安定した高い認識率を得ることができ、しかもこの第2の実施の形態では、アイリスパターンが十分に確からしいと判定された場合には、顔貌パターンの類似度を使用することなく被識別者の識別を行うため、処理の高速化を図ることができる。
図6は第3の実施の形態の構成を示すブロック図である。
【0044】
この実施の形態では、アイリス認識部12前処理部2と特徴抽出部3で構成され、また顔貌認識部13も前処理部7と特徴抽出部8で構成されていて、両特徴抽出部2,8が特徴結合部14に接続されている。
そして、特徴結合部14と総合判定部15の間に照合部16が設けられ、この照合部16と特徴結合部14に照合辞書部17が設けられた構成となっている。
【0045】
尚、カメラ1で撮影した画像をカメラ出力分配部11によりアイリス認識部12と顔貌認識部13のそれぞれの前処理部2,7送出することは第1,第2の実施の形態と同じである。
この第3の実施の形態も登録モードと識別モードの2種類のモードにて動作するもので、図7は登録モードのフローチャートであり、図8は識別モードのフローチャートである。
【0046】
この両モードにおいて、それぞれアイリス認識部12と顔貌認識部13の特徴抽出以降に特徴がある。
まず、登録モードについて説明すると、カメラ1による被識別者の映像入力からアイリス認識部12でのアイリスのコード化(S1〜S8)、及び顔貌認識部13での顔貌のコード化(S1,S2,S9〜S13)までの各処理は第1,第2の実施の形態と同様に行われる。
【0047】
アイリス認識部12の特徴抽出部3及び顔貌認識部13の特徴抽出部8でコード化されたアイリスパターン及び顔貌パターンは特徴結合部14に送られ、この特徴結合部5で結合されて特徴パターンが作られる(S14)。
この場合の結合の方法としては、1次元のベクトル配置を採用する。
結合された特徴パターンは、登録者名,ID番号,日付等の必要なデータが付加され、照合辞書部17に登録される(S15)。
【0048】
次に、識別モードについて説明する。
このモードにおいても照合辞書部17にそれぞれ複数の人の特徴パターンが登録されているものとする。
また、この識別モードにおいS1の映像入力からS13のコード化までの処理は第1,第2の実施の形態及び前記図7の登録モードの場合と同様に行われ、そしてS14の特徴結合も図7の登録モードの場合と同様に行われるのでその説明は省略する。
【0049】
特徴結合部14で特徴結合されたアイリスパターンと顔貌パターンとの特徴パターンは照合部16に送られ、この照合部16において照合辞書部17に登録されている特徴パターンと照合、演算が行われて類似度が算出される(S15)。
この場合の照合演算にもハミング距離等の距離尺度が用いられる。
照合部16で算出された類似度(距離値)は総合判定部15に送られ、この総合判定部15では、照合部16によって得られた類似度を予め実験や統計的手法によって求めた1つあるいは複数のしきい値と比較し、入力された映像から得られた特徴パターンが、照合辞書部17の中の照合した特徴パターンと同一人物のものかどうかを判定し(S16)、その判定結果を出力する。
【0050】
上述した図8の識別モードにおける照合処理でも、次の2種類の形態が採用される。
その1つは、照合辞書部17に登録されている特徴パターンのうちの照合すべき特徴パターンが判っている場合つまり1対1の照合であり、別の1つは、照合すべき特徴パターンが判らず、登録されている複数人の特徴パターンの中から最も確からしい特徴パターンを選択する場合つまり1対nの照合である。
【0051】
1対1の照合の場合には、照合部16は照合辞書部17に登録されている1つの特徴パターンを用いて類似度を算出し、それを総合判定部15に対して出力する。
総合判定部15による判定では、類似度を1つあるいは複数のしきい値と比較し、入力された映像から得られた特徴パターンが照合した特徴パターンと同一人物のものかどうかの判定つまり個人識別を行い、その結果を出力する。
【0052】
1対nの照合の場合には、照合部16は照合辞書部17に登録されている複数の特徴パターンを用いて照合演算を行い、その第1位あるいは上位m位(mは任意の値)の類似度を総合判定部15に対して出力する。
この場合、総合判定部15による判定では、第1位あるいは上位m位の類似度類似度を1つあるいは複数のしきい値と比較し、被識別者の画像から得られた特徴パターンが照合したどの特徴パターンに最も類似しているか、あるいは充分に類似していないかなどにより、特徴パターンと同一人物のものかどうかの判定つまり個人識別を行い、その結果を出力する。
【0053】
以上説明した第3の実施の形態によれば、第1の実施例と同様に安定した高い認識率を得ることができ、しかもこの第3の実施の形態では、照合部と照合辞書部がそれぞれ1つで済むので構成が簡素化される利点がある。
図9は第4の実施の形態の構成を示すブロック図である。
この実施の形態は、第1の実施の形態におけるカメラ1とカメラ出力分配部11に代えて、アイリス用カメラ18と顔貌用カメラ19とを用い、アイリス用カメラ18をアイリス認識部12の前処理部2に、また顔貌用カメラ19を顔貌認識部13の前処理部7にそれぞれ接続したもので、その他の構成は第1の実施の形態と同様に構成している。
【0054】
従って、この実施の形態では登録モード及び識別モード時に被識別者の画像がアイリス用カメラ18と顔貌用カメラ19でそれぞれ撮影され、前処理部2,7に別々に送られるが、それ以後の処理は第1の実施の形態と同様に行われる。
このようにした第4の実施の形態でも第1の実施の形態と同様の効果が得られると共に、映像入力用のカメラをアイリス認識用と顔貌認識用の2台に分けたことによって、それぞれの認識に適応したカメラを使用することができる。
【0055】
例えば、アイリス認識用には高解像度で狭角のカメラ、顔貌認識用には低解像度で広角のカメラを使用することができ、そのため高価で大型の1台のカメラを使用する場合に比べて、装置の識別性能を落とすことなく、低価格化、小型化を図ることができる。
図10は第5の実施の形態の構成を示すブロック図、図11は第6の実施の形態の構成を示すブロック図である。
【0056】
この両実施の形態も、第2,3の実施の形態におけるカメラ1とカメラ出力分配部11に代えて、アイリス用カメラ18と顔貌用カメラ19とを用い、アイリス用カメラ18をアイリス認識部12の前処理部2に、また顔貌用カメラ19を顔貌認識部13の前処理部7にそれぞれ接続したもので、その他の構成は第2,3の実施の形態と同様に構成している。
【0057】
従って、この両実施の形態でも登録モード及び識別モード時に被識別者の画像がアイリス用カメラ18と顔貌用カメラ19でそれぞれ撮影され、前処理部2,7に別々に送られるが、それ以後の処理は第2,3の実施の形態と同様に行われる。
このようにした第5,第6の実施の形態でもそれぞれ第2,3の実施の形態と同様の効果が得られると共に、第4の実施の形態と同様に映像入力用のカメラをアイリス認識用と顔貌認識用の2台に分けたことによって、それぞれの認識に適応したカメラを使用することができるので、装置の識別性能を落とすことなく、低価格化、小型化を図ることができる。
【0058】
【発明の効果】
以上説明したように本発明は、被識別者を撮影し、その画像から特徴抽出して得たアイリスパタ−ン及び顔貌パタ−ンを、予め登録されているアイリスパタ−ン及び顔貌パタ−ンと照合してそれぞれの類似度を求め、このアイリスパタ−ンの類似度と顔貌パタ−ンの類似度を結合して、その結合結果に基づいて被識別者の画像から得たアイリスパタ−ン及び顔貌パタ−ンが照合に用いたアイリスパタ−ン及び顔貌パタ−ンと同一人物のものか否かを判定するようにしている。
【0059】
従ってこれによれば、アイリス認識に加えて顔貌認識を行い、個人特定の識別を両認識の類似度を用いることによって行っているため、被識別者に無理な姿勢を強いたり、周囲の照明条件に厳しい制限を加えたりすることなく、かつ画素数の多いカメラを使用することなく、確実な識別が可能となり、高い識別率を得ることができるという効果が得られる。
【図面の簡単な説明】
【図1】本発明による個人識別装置の第1の実施の形態を示すブロック図である。
【図2】第1の実施の形態の作用を示すフローチャートである。
【図3】第1の実施の形態の作用を示すフローチャートである。
【図4】本発明による個人識別装置の第2の実施の形態を示すブロック図である。
【図5】第2の実施の形態の作用を示すフローチャートである。
【図6】本発明による個人識別装置の第3の実施の形態を示すブロック図である。
【図7】第3の実施の形態の作用を示すフローチャートである。
【図8】第3の実施の形態の作用を示すフローチャートである。
【図9】本発明による個人識別装置の第4の実施の形態を示すブロック図である。
【図10】本発明による個人識別装置の第5の実施の形態を示すブロック図である。
【図11】本発明による個人識別装置の第6の実施の形態を示すブロック図である。
【図12】従来技術を示すブロック図である。
【図13】従来技術の作用を示すフローチャートである。
【図14】従来技術の作用を示すフローチャートである。
【符号の説明】
1 カメラ
2 前処理部
3 特徴抽出部
4 照合部
5 照合辞書部
7 前処理部
8 特徴抽出部
9 照合部
10 照合辞書部
11 カメラ出力分配部
12 アイリス認識部
13 顔貌認識部
14 類似度結合部
15 総合判定部
16 照合部
17 照合辞書部
18 アイリス用カメラ
19 顔貌用カメラ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a personal identification device for identifying an individual using human ecological characteristics, particularly an iris of an eyeball.
[0002]
[Prior art]
Existence of qualifications when conducting transaction operations using automatic transaction devices at financial institutions, accessing confidential data with computers, etc., and entering facilities that only specific persons can enter Personal identification is performed to check
[0003]
Various techniques for personal identification are currently conceived or implemented. One technique is to identify an individual using an iris that is a part of a human eyeball.
This iris is completed in early childhood, has little change throughout life, and is not easily affected by changes in physique such as fattening and thinning, so it has high identification accuracy, so it can be applied in various fields in the future. Expected.
[0004]
FIG. 12 is a functional block diagram showing a conventional general personal identification device using an iris.
In the figure, reference numeral 1 denotes a camera (video camera) for inputting video, 2 denotes a process for cutting out an iris from an image captured by the camera 1, that is, a preprocessing unit for performing preprocessing, and 3 denotes an iris cut out by the preprocessing unit 2. 4 is a feature extraction unit that extracts the features and codes the pattern, and 4 compares the iris pattern sent from the feature extraction unit 3 with the iris pattern registered in the collation dictionary unit 5 to The collation unit 5 obtains the similarity between them, and here, the collation dictionary unit 5 stores iris patterns for a plurality of people in advance.
[0005]
Reference numeral 6 denotes a determination unit that determines whether both iris patterns are of the same person based on the similarity calculated by the collation unit 4.
In this configuration, the preprocessing unit 2, the feature extraction unit 3, the collation unit 4, and the determination unit 6 are generally configured by a microprocessor or dedicated arithmetic hardware, and the collation dictionary unit 5 is a semiconductor. Generally, it is composed of a memory or a magnetic disk.
[0006]
Next, the effect | action of the structure mentioned above is demonstrated.
FIG. 13 is a flowchart showing a processing procedure in an iris pattern registration mode, and FIG. 14 is a flowchart showing a processing procedure in an iris pattern identification mode.
First, the registration mode of FIG. 13 will be described according to the steps indicated by S.
[0007]
An image of the upper body of the person to be registered is taken by the camera 1. That is, a video is input (S1).
Next, the photographed image is sent to the preprocessing unit 2, and the preprocessing unit 2 cuts out the head from the identified person's image (indexing of the position of the head) (S2). The eye cut-out (eye position determination) from the head image (S3) and the iris cut-out (iris position determination) process from the eye image are sequentially performed by the preprocessing unit 2 (S4).
[0008]
The cut out iris image is sent to the feature extraction unit 3, and the feature extraction unit 3 extracts features necessary for matching (S5).
Specifically, feature extraction is performed such as dividing the iris into necessary analysis bands or extracting a change in iris density by a Gabor filter or the like.
The extracted feature of the iris is normalized by the feature extraction unit 3 (S6) and coded as binary data (S7), and finally an iris code of about 256 bytes is generated as an iris pattern.
[0009]
Necessary data such as a registrant name, ID number, and date are added to the iris pattern generated in this way, and the iris pattern is registered in the collation dictionary unit 5 (S8).
Next, the identification mode of FIG. 14 will be described according to the steps indicated by S.
In this mode, it is assumed that iris patterns of a plurality of people are registered in the collation dictionary unit 5 as described above.
[0010]
First, the pre-processing unit 2 performs the video input (S1), head segmentation (S2), eye segmentation (S3), and iris segmentation (S4) processes of the identified person in the same manner as in the registration. In the same manner as in the case of the registration, the iris extraction (S5), normalization (S6), and encoding (S7) processes are performed in the feature extraction unit 3 in order. Generated.
[0011]
The generated iris pattern is sent to the collation unit 4, and the collation unit 4 collates (matches) the iris pattern sent from the feature extraction unit 3 with the iris pattern registered in the collation dictionary unit 5, and performs similar processing. The degree is obtained (S8).
In the collation calculation in this case, a distance value such as a Hamming distance is often used as a measure of similarity.
[0012]
The degree of similarity (distance value) of the iris pattern selected by the collation in the collation unit 4 is transferred to the determination unit 6, and the degree of similarity sent by the determination unit 6 is obtained in advance by experiments or statistical methods. It is compared with one or a plurality of threshold values, and it is determined whether or not the iris pattern obtained from the image of the identified person is the same person as the collated iris pattern in the collation dictionary unit 5 (S9).
[0013]
In the collation process in this identification mode, it is possible to freely select which (who) code registered in the collation dictionary 5 for collation or how many (how many) patterns are used. Although it is determined according to the system specifications, the following two types are generally adopted.
One of them is when the pattern to be verified is known among the iris patterns registered in the verification dictionary unit 5 with respect to the iris pattern obtained from the image of the identified person, that is, one-to-one verification. Yes, another one is that Iris pattern registered in the collation dictionary unit 5 is not known and the most probable iris pattern is selected from the registered iris patterns In other words, it is a one-to-n comparison.
[0014]
In the case of one-to-one matching, the matching unit 4 calculates the similarity using one iris pattern and outputs the calculation result to the determination unit 6.
In this case, the similarity is compared with one or a plurality of threshold values, and whether or not the iris pattern obtained from the image of the identified person is the same person as the collated iris pattern is determined. Identify.
[0015]
In the case of one-to-n collation, the collation unit 4 collates a plurality of iris patterns in the collation dictionary unit 5 to perform a collation operation, and the first or upper m-th (m is an arbitrary value) The similarity is sent to the determination unit 6.
In this case, the determination unit 6 determines the first or top m similarity by one or a plurality of threshold values, and the iris pattern obtained from the image of the identified person is the collated iris pattern. It is determined whether the iris pattern obtained from the image of the identified person is the same person by checking whether it is the most similar or not sufficiently similar. .
[0016]
[Problems to be solved by the invention]
However, in the above-described personal identification device using iris, the recognition device uses the instability of the image due to the person to be identified blinking at the time of photographing, the hair touching his eyes, or the like, or the image acquisition based on the surrounding lighting conditions. When accurate iris data cannot be obtained due to instability or the like, there is a problem that reliable identification becomes difficult and the identification rate decreases.
[0017]
In order to solve such problems, it is not preferable on the human interface to force an unreasonable posture on the person to be identified or to place severe restrictions on the surrounding lighting conditions in order to obtain stabilization of the image. Furthermore, if a camera with a large number of pixels is used in order to simply increase the recognition rate, an increase in processing amount, an increase in the size of the apparatus, an increase in price, an increase in power consumption, etc. are unavoidable, which is not realistic.
[0018]
Therefore, the object of the present invention is to enable reliable identification without forcing the identified person into an unreasonable posture, without severely limiting the surrounding lighting conditions, and without using a camera with a large number of pixels. Thus, it is to realize a personal identification device capable of obtaining a high identification rate.
[0019]
[Means for Solving the Problems]
Therefore, the present invention Taken by camera Identified person of From the image Iris recognition unit and facial recognition unit Extract features and create iris pattern and facial pattern As well as acquiring the iris pattern and facial pattern Check the pre-registered iris pattern and facial pattern for each similarity level, By similarity joint By combining the similarity of the iris pattern and the similarity of the facial pattern, and the iris pattern and facial pattern obtained from the image of the person to be identified based on the result of the combination, the iris pattern used for collation And whether it belongs to the same person as the facial pattern In the general judgment section It is characterized by determining.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of a first embodiment of a personal identification device according to the present invention.
This identification device includes a camera 1 that takes a picture of a person, a camera output distribution unit 11, an iris recognition unit 12, a facial recognition unit 13, a similarity combination unit 14, and a comprehensive determination unit 15.
[0021]
Here, the camera output distribution unit 11 receives the output from the camera 1 and sends the output to the iris recognition unit 12 and the facial recognition unit 13, respectively.
The iris recognition unit 12 includes a preprocessing unit 2, a feature extraction unit 3, a collation unit 4, and a collation dictionary unit 5, and the facial recognition unit 13 includes a preprocessing unit 7, a feature extraction unit 8, a collation unit 9, and It is comprised by the collation dictionary part 10. FIG.
[0022]
The components 2 to 4 in the iris recognition unit 12 are the same as the components shown in FIG. 13, and the components 7 to 10 in the facial recognition unit 13 are 2 to 2. 5 Corresponds to
On the other hand, the similarity combining unit 14 receives the similarities from the collation unit 4 of the iris recognition unit 12 and the collation unit 10 of the face recognition unit 13, calculates the overall similarity, and sends it to the comprehensive determination unit 6. The general determination unit 15 is a person whose person to be identified is registered in the collation dictionary unit 5 of the iris recognition unit 12 and the collation dictionary unit 10 of the face recognition unit 13 based on the total similarity sent from the similarity combination unit 14. Is output and the determination result is output.
[0023]
Next, the operation of the apparatus having such a configuration will be described.
This apparatus operates in two modes, a registration mode and an identification mode. FIG. 2 is a flowchart of the registration mode, and FIG. 3 is a flowchart of the identification mode.
First, the registration mode of FIG. 2 will be described according to the steps indicated by S.
[0024]
An image of the upper body of a person to be registered (registrant) is taken by the camera 1. That is, a video is input (S1).
The output of the camera 1 is sent to the camera output distribution unit 1, and images taken by the camera 1 by the camera output distribution unit 1 are distributed to the preprocessing units 2 and 7 of the iris recognition unit 12 and the facial recognition unit 13, respectively. (S2).
[0025]
In the iris recognizing unit 12, each of head segmentation (S3), eye segmentation (S4), iris segmentation (S5), iris feature extraction (S6), normalization (S7), and encoding (S8) The process is performed by the preprocessing unit 2 and the feature extraction unit 3 as in the conventional case, and the iris pattern is registered in the collation dictionary unit 5 (S9).
On the other hand, in the facial recognition unit 13, the preprocessing unit 7 detects the outline of the face from the registrant image sent from the camera output distribution unit 11 (S 10), and the face such as eyes, nose and mouth is detected from the outline. Detection of a region showing a unique feature (S11), and further, a relative relationship between these is detected (S12).
[0026]
The feature extraction unit 8 receives the output of the preprocessing unit 7, normalizes the features of the input face image (S13), encodes them, and generates a facial pattern (S14).
Necessary data such as a registrant name, ID number, and date are added to the facial pattern generated in this way and registered in the collation dictionary unit 10 (S15).
Since the iris pattern and the facial pattern are registered in the collation dictionaries 5 and 10 as described above, both patterns need to be linked to each other. Can be used.
[0027]
Moreover, the process of S3-S9 in the iris recognition part 12 mentioned above and the process of S10-S15 in the face recognition part 13 are performed in parallel.
Next, the identification mode of FIG. 3 will be described according to the steps indicated by S.
In this mode, it is assumed that iris patterns and facial patterns of a plurality of persons are registered in the collation dictionaries 5 and 10 as described above.
[0028]
First, from the video input of the identified person by the camera 1 to the iris coding in the iris recognition unit 12 (S1 to S8) and the facial coding in the facial recognition unit 13 (S1, S2, S10 to S14). Each process is performed in the same manner as in the registration.
The iris recognition unit 12 sends the iris pattern generated by the feature extraction unit 3 to the matching unit 4, and the matching unit 4 registers the iris pattern sent from the feature extraction unit 3 in the matching dictionary unit 5. The matching iris pattern is collated (matching), the similarity is obtained (S 9), and the result is output to the similarity combining unit 14.
[0029]
In this case, the similarity is calculated in the same manner as before.
On the other hand, in the facial recognition unit 13, the facial pattern generated by the feature extraction unit 8 is sent to the collation unit 9, and in the collation unit 9, the facial pattern sent from the feature extraction unit 8 is registered in the collation dictionary unit 10. The similarity is calculated by collating and calculating the facial pattern that is present (S15).
[0030]
A distance scale or the like is used for the collation calculation, and the collation unit 9 outputs the similarity (distance value) of the calculation result to the similarity combination unit 14.
In this way, each of the collation units 4 and 9 of the iris recognition unit 12 and the facial recognition unit 13 performs collation of the iris pattern and the facial pattern. The iris pattern and the facial feature of the collation dictionary unit 5 used for this collation are used. The pattern is controlled so that the pattern of the same person is always used.
[0031]
Next, the similarity combining unit 14 combines the two similarities received from the matching units 4 and 9 of the iris recognition unit 12 and the facial recognition unit 13 by the following equation (1) to calculate the total similarity. (S16)
T = k * R I + (1-k) * R f ・ ・ ・ ・ ・ ・ (1)
Where T: total similarity, R I : Iris similarity, R f : Similarity based on face, k: constant (1> k), and this constant k determines an appropriate value by experiments or statistical methods.
[0032]
The total similarity calculated by the similarity combining unit 14 is sent to the total determination unit 15, and the total determination unit 15 compares the total similarity with one or a plurality of threshold values and is obtained from the input video. It is determined whether the iris pattern and the facial pattern are of the same person as the collated iris pattern and facial pattern in the collation dictionary units 5 and 10 (S17), and the determination result is output.
[0033]
In the verification process in the identification mode of FIG. 3 described above, the following two types are employed.
One of them is that the iris pattern and the facial pattern registered in the collation dictionary units 5 and 10 are respectively identified from the iris pattern and the facial pattern obtained from the image of the identified person. In other words, one-to-one collation is performed, and the other one is that the patterns to be collated among the iris patterns and facial patterns registered in the collation dictionary units 5 and 10 are not known, and a plurality of registered plural patterns are registered. When the most probable iris pattern and facial pattern are selected from the scan patterns, that is, one-to-n matching.
[0034]
In the case of one-to-one matching, the matching units 4 and 9 calculate the similarity using one iris pattern and facial pattern, respectively, and output it to the similarity combining unit 14.
In the case of one-to-n collation, the collation units 4 and 9 perform a collation operation using a plurality of iris patterns and facial patterns in the collation dictionary units 5 and 10, respectively. m is an arbitrary value) and is sent to the similarity combining unit 14.
[0035]
In this case, it is possible that the first or upper m-th similarity received from the matching units 4 and 9 is not the same person, but in that case, the similarity combining unit 14 is not sufficiently accurate. As a result, it is possible to determine that the iris pattern and facial pattern obtained from the image of the identified person are not the same person as the iris pattern and facial pattern used for the collation.
[0036]
According to the first embodiment described above, facial recognition is performed in addition to iris recognition, and individual identification is performed by using the similarity of both recognitions. Without being forced, or severely restricting ambient lighting conditions, and without using a camera with a large number of pixels, reliable identification can be performed and a high identification rate can be obtained.
[0037]
FIG. 4 is a block diagram showing the configuration of the second embodiment.
In the second embodiment, the comprehensive determination unit 15 is connected to each of the matching units 4 and 9 of the iris recognition unit 12 and the facial recognition unit 13, and the similarity combining unit 14 is connected to the comprehensive determination unit 15. The other configurations are the same as those in the first embodiment.
The second embodiment also operates in two types of modes, a registration mode and an identification mode. Since the registration mode is the same as that of the first embodiment, only the identification mode will be described here as an action.
[0038]
FIG. 5 is a flowchart showing the identification mode of the second embodiment, which will be described according to the steps indicated by S.
In this identification mode, the processing from S1 to S15 is performed in the same manner as in the first embodiment, so that the description thereof will be omitted. Of the patterns and facial patterns, the pattern to be collated is not known, and the most probable pattern is selected from a plurality of patterns, that is, one-to-n collation is applied.
[0039]
The difference in operation between the second embodiment and the first embodiment is a difference in determination method between the comprehensive determination unit 15 and the similarity combining unit 14.
That is, when the comprehensive determination unit 15 receives the similarity to the top n ranks of the iris pattern and the facial pattern from the matching units 4 and 9 of the iris recognition unit 12 and the facial recognition unit 13, respectively, Each difference of the similarity is calculated (S16).
[0040]
Next, the difference is determined based on a threshold value a determined in advance using experiments or statistical methods (S17). If the difference is greater than or equal to the threshold value a, a comprehensive determination is made using only the similarity of the iris pattern. The difference is the threshold a Less than In this case, the process proceeds to the next step of calculating the total similarity.
For example, when the similarity up to the second place is input from the collation unit 4 of the iris recognition unit 12 to the comprehensive determination unit 15, the comprehensive determination unit 15 determines the similarity between the input first and second ranks. The difference is obtained, and this difference is a preset threshold value a. Same as If it is larger, it is determined that the iris pattern indicating the first similarity is sufficiently certain, and the process proceeds to comprehensive determination.
[0041]
Also, if the difference is smaller than a, it can be said that what has risen as the first place is not sure enough, so the iris recognition unit 12 Lano Not judged only by similarity, General Degree of similarity To calculation Proceed with
When the difference between the top n ranks of the iris pattern is smaller than the threshold value a, the comprehensive determination unit 15 transfers the top n rank similarity of the iris pattern and the facial pattern to the similarity combining unit 14, In response, the similarity combining unit 14 combines both similarities using the equation (1) described in the first embodiment, calculates the overall similarity, and sends the calculation result to the overall determination unit 15. Transfer (S18).
[0042]
When the overall determination unit 15 receives the overall similarity from the similarity combining unit 14, the overall determination unit 15 determines the total similarity by comparing it with one or more threshold values (S19), and outputs the determination result.
That is, it is determined whether or not the iris pattern and facial pattern obtained from the image of the identified person belong to the same person as the collated iris pattern and facial pattern in the collation dictionary units 5 and 10. Output.
[0043]
In the second embodiment described above, it is possible to obtain a stable and high recognition rate as in the first embodiment, and in the second embodiment, it is determined that the iris pattern is sufficiently likely. In such a case, since the person to be identified is identified without using the similarity of the facial pattern, the processing speed can be increased.
FIG. 6 is a block diagram showing the configuration of the third embodiment.
[0044]
In this embodiment, the iris recognition unit 12 But The pre-processing unit 2 and the feature extraction unit 3 are configured, and the facial recognition unit 13 is also configured by the pre-processing unit 7 and the feature extraction unit 8, and both the feature extraction units 2 and 8 are connected to the feature coupling unit 14. Yes.
A collation unit 16 is provided between the feature combination unit 14 and the comprehensive determination unit 15, and a collation dictionary unit 17 is provided in the collation unit 16 and the feature combination unit 14.
[0045]
It should be noted that images taken by the camera 1 are pre-processed by the camera output distribution unit 11 in the respective pre-processing units 2 and 7 of the iris recognition unit 12 and the facial recognition unit 13. In Sending is the same as in the first and second embodiments.
The third embodiment also operates in two types of modes, a registration mode and an identification mode. FIG. 7 is a flowchart of the registration mode, and FIG. 8 is a flowchart of the identification mode.
[0046]
In both modes, there are features after the feature extraction of the iris recognition unit 12 and the facial recognition unit 13, respectively.
First, the registration mode will be explained And Each process from the video input of the person to be identified by the camera 1 to the iris coding in the iris recognition unit 12 (S1 to S8) and the facial coding in the facial recognition unit 13 (S1, S2, S9 to S13) Is performed in the same manner as in the first and second embodiments.
[0047]
The iris pattern and the facial pattern encoded by the feature extraction unit 3 of the iris recognition unit 12 and the feature extraction unit 8 of the facial recognition unit 13 are sent to the feature combination unit 14 and are combined by the feature combination unit 5 to form the feature pattern. It is made (S14).
As a coupling method in this case, a one-dimensional vector arrangement is adopted.
Necessary data such as a registrant name, ID number, date, and the like are added to the combined feature pattern and registered in the collation dictionary unit 17 (S15).
[0048]
Next, the identification mode will be described.
Also in this mode, it is assumed that a plurality of person feature patterns are registered in the collation dictionary unit 17.
Further, in this identification mode, the processing from the video input of S1 to the encoding of S13 is performed in the same manner as in the first and second embodiments and the registration mode of FIG. 7, and the characteristic combination of S14 is also shown. Since this is performed in the same manner as in the case of the registration mode in FIG.
[0049]
The feature pattern of the iris pattern and the facial pattern combined by the feature combining unit 14 is sent to the collation unit 16, and the collation unit 16 collates and calculates the feature pattern registered in the collation dictionary unit 17. A similarity is calculated (S15).
In this case, a distance measure such as a Hamming distance is also used for the collation calculation.
The similarity (distance value) calculated by the collation unit 16 is sent to the comprehensive determination unit 15, and the comprehensive determination unit 15 obtains the similarity obtained by the collation unit 16 in advance by experiments or statistical methods. Alternatively, it is compared with a plurality of threshold values, and it is determined whether or not the feature pattern obtained from the input video is the same person as the feature pattern collated in the collation dictionary unit 17 (S16). Is output.
[0050]
The following two types of forms are also adopted in the verification processing in the identification mode of FIG. 8 described above.
One of them is a case where a feature pattern to be collated is known among the feature patterns registered in the collation dictionary unit 17, that is, one-to-one collation. The other one is that the feature pattern to be collated is Of course, the most probable feature pattern is selected from the registered feature patterns of a plurality of persons, that is, one-to-n matching.
[0051]
In the case of one-to-one collation, the collation unit 16 calculates the similarity using one feature pattern registered in the collation dictionary unit 17 and outputs it to the comprehensive determination unit 15.
In the determination by the comprehensive determination unit 15, the similarity is compared with one or a plurality of thresholds, and it is determined whether the feature pattern obtained from the input video is the same person as the collated feature pattern, that is, individual identification And output the result.
[0052]
In the case of one-to-n collation, the collation unit 16 performs collation calculation using a plurality of feature patterns registered in the collation dictionary unit 17, and the first rank or the upper m rank (m is an arbitrary value). Are output to the overall determination unit 15.
In this case, the determination by the comprehensive determination unit 15 compares the similarity degree of the first rank or the top m rank with one or a plurality of threshold values, and collates the feature pattern obtained from the image of the identified person. Depending on which feature pattern is most similar or not sufficiently similar, it is determined whether the feature pattern belongs to the same person, that is, individual identification is performed, and the result is output.
[0053]
According to the third embodiment described above, a stable and high recognition rate can be obtained in the same manner as in the first example. In addition, in this third embodiment, the collation unit and the collation dictionary unit are respectively Since only one is required, there is an advantage that the configuration is simplified.
FIG. 9 is a block diagram showing a configuration of the fourth embodiment.
In this embodiment, instead of the camera 1 and the camera output distribution unit 11 in the first embodiment, an iris camera 18 and a facial camera 19 are used, and the iris camera 18 is preprocessed by the iris recognition unit 12. Further, the facial camera 19 is connected to the preprocessing unit 7 of the facial recognition unit 13 and the other configuration is the same as that of the first embodiment.
[0054]
Therefore, in this embodiment, in the registration mode and the identification mode, the image of the person to be identified is photographed by the iris camera 18 and the facial camera 19, respectively, and sent separately to the preprocessing units 2 and 7. Is performed in the same manner as in the first embodiment.
In the fourth embodiment as described above, the same effect as that of the first embodiment can be obtained, and the camera for image input is divided into two for iris recognition and for facial recognition. A camera adapted for recognition can be used.
[0055]
For example, a high-resolution and narrow-angle camera can be used for iris recognition, and a low-resolution and wide-angle camera can be used for facial recognition. Therefore, compared to the case of using one expensive and large camera, The cost and size can be reduced without degrading the identification performance of the device.
FIG. 10 is a block diagram showing the configuration of the fifth embodiment, and FIG. 11 is a block diagram showing the configuration of the sixth embodiment.
[0056]
In both of these embodiments, instead of the camera 1 and the camera output distribution unit 11 in the second and third embodiments, an iris camera 18 and a facial camera 19 are used, and the iris camera 18 is replaced with an iris recognition unit 12. The facial processing camera 19 is connected to the preprocessing unit 7 of the facial recognition unit 13, and other configurations are the same as those of the second and third embodiments.
[0057]
Accordingly, in both the embodiments, the image of the person to be identified is captured by the iris camera 18 and the facial camera 19 in the registration mode and the identification mode, respectively, and sent separately to the preprocessing units 2 and 7, but thereafter Processing is performed in the same manner as in the second and third embodiments.
In the fifth and sixth embodiments as described above, the same effects as those of the second and third embodiments can be obtained, and the video input camera can be used for iris recognition as in the fourth embodiment. By dividing the camera into two for facial recognition, a camera suitable for each recognition can be used, so that the price and size can be reduced without degrading the identification performance of the apparatus.
[0058]
【The invention's effect】
As described above, according to the present invention, the iris pattern and facial pattern obtained by photographing the identified person and extracting features from the image are collated with the previously registered iris pattern and facial pattern. Each similarity is obtained, and the similarity of the iris pattern and the similarity of the facial pattern are combined, and the iris pattern and facial pattern obtained from the image of the person to be identified based on the combination result. It is determined whether or not the screen belongs to the same person as the iris pattern and facial pattern used for collation.
[0059]
Therefore, according to this, facial recognition is performed in addition to iris recognition, and individual identification is performed by using the similarity of both recognitions. Without any strict restrictions and without using a camera with a large number of pixels, it is possible to perform reliable identification and obtain an effect of obtaining a high identification rate.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a first embodiment of a personal identification device according to the present invention.
FIG. 2 is a flowchart showing the operation of the first embodiment.
FIG. 3 is a flowchart showing the operation of the first embodiment.
FIG. 4 is a block diagram showing a second embodiment of a personal identification device according to the present invention.
FIG. 5 is a flowchart showing the operation of the second exemplary embodiment.
FIG. 6 is a block diagram showing a third embodiment of the personal identification device according to the present invention.
FIG. 7 is a flowchart showing the operation of the third exemplary embodiment.
FIG. 8 is a flowchart showing the operation of the third exemplary embodiment.
FIG. 9 is a block diagram showing a fourth embodiment of a personal identification device according to the present invention.
FIG. 10 is a block diagram showing a fifth embodiment of a personal identification device according to the present invention.
FIG. 11 is a block diagram showing a sixth embodiment of a personal identification device according to the present invention.
FIG. 12 is a block diagram showing a conventional technique.
FIG. 13 is a flowchart showing the operation of the prior art.
FIG. 14 is a flowchart showing the operation of the prior art.
[Explanation of symbols]
1 Camera
2 Pre-processing section
3 Feature extraction unit
4 verification part
5 collation dictionary
7 Pre-processing section
8 Feature extraction unit
9 Verification part
10 collation dictionary
11 Camera output distributor
12 Iris recognition unit
13 Facial recognition part
14 Similarity coupling part
15 Comprehensive judgment part
16 Verification part
17 collation dictionary
18 Iris camera
19 Facial camera

Claims (10)

カメラが撮影した被識別者画像からアイリス認識部及び顔貌認識部が特徴抽出してアイリスパタ−ン及び顔貌パタ−ンを取得すると共に、そのアイリスパタ−ン及び顔貌パタ−ンを予め登録されているアイリスパタ−ン及び顔貌パタ−ンと照合してそれぞれの類似度を求め、
類似度結合部によりこのアイリスパタ−ンの類似度と顔貌パタ−ンの類似度を結合して、その結合結果に基づいて被識別者の画像から得たアイリスパタ−ン及び顔貌パタ−ンが照合に用いたアイリスパタ−ン及び顔貌パタ−ンと同一人物のものか否かを総合判定部で判定することを特徴とする個人識別装置。
The iris recognition unit and the facial recognition unit extract features from the image of the identified person photographed by the camera to acquire the iris pattern and facial pattern, and the iris pattern and facial pattern are registered in advance. Check the similarity with each of the iris pattern and facial pattern,
The similarity combiner combines the similarity of the iris pattern and the similarity of the facial pattern, and the iris pattern and facial pattern obtained from the image of the identified person based on the combination result are used for collation. A personal identification device characterized in that the comprehensive judgment unit judges whether or not the same iris pattern and facial pattern are used.
請求項1記載の個人識別装置において、
人物を撮影するカメラと、
このカメラが撮影した画像からアイリスを切り出す前処理部、この前処理部によって切り出されたアイリスの特徴を抽出してアイリスパターンを得る特徴抽出部、登録時にこの特徴抽出部により得られたアイリスパターンを登録する照合辞書部、及び識別時に特徴抽出部により得られたアイリスパターンを前記照合辞書部に登録されているアイリスパターンと照合して類似度を求める照合部を有するアイリス認識部と、
前記カメラが撮影した画像から顔の輪郭及び特徴を示す領域とその相対関係等を検出する前処理部、この前処理部検出された顔貌の特徴を抽出して顔貌パタ−ンを得る特徴抽出部、登録時にこの特徴抽出部により得られた顔貌パターンを登録する照合辞書部、及び識別時に特徴抽出部により得られた顔貌パターンを前記照合辞書部に登録されている顔貌と照合して類似度を求める照合部を有する顔貌認識部と、
前記アイリス認識部及び顔貌認識部のそれぞれの照合部から送られてくるアイリスパターンの類似度と顔貌パタ−ンの類似度を結合する類似度結合部と、
この類似度結合部から送られてくる結合結果に基づいて被識別者の画像から得たアイリスパタ−ン及び顔貌パタ−ンが照合に用いたアイリスパタ−ン及び顔貌パタ−ンと同一人物のものか否かを判定する総合判定部を備えたことを特徴とする個人識別装置。
The personal identification device according to claim 1,
A camera to shoot people,
A pre-processing unit that extracts an iris from an image captured by the camera, a feature extraction unit that extracts an iris feature extracted by the pre-processing unit to obtain an iris pattern, and an iris pattern obtained by the feature extraction unit at the time of registration An iris recognition unit having a collation dictionary unit to be registered, and a collation unit that collates an iris pattern obtained by the feature extraction unit at the time of identification with an iris pattern registered in the collation dictionary unit to obtain a similarity;
Feature extraction to obtain a down - the camera processing unit before detecting the like thereof relative relationship between the indicated area of contours and features of the face from the photographed image, facial pattern by extracting a feature of the facial detected by the preprocessing unit A collation dictionary unit for registering the facial pattern obtained by the feature extraction unit at the time of registration, and a similarity degree obtained by collating the facial pattern obtained by the feature extraction unit at the time of identification with the facial feature registered in the collation dictionary unit A facial recognition unit having a matching unit for obtaining
A similarity combining unit that combines the similarity of the iris pattern and the similarity of the facial pattern sent from the respective matching units of the iris recognition unit and the facial recognition unit;
Whether the iris pattern and facial pattern obtained from the image of the person to be identified based on the result of the combination sent from the similarity combination unit is the same person as the iris pattern and facial pattern used for collation A personal identification device comprising a comprehensive judgment unit for judging whether or not.
カメラが撮影した被識別者画像からアイリス認識部及び顔貌認識部が特徴抽出してアイリスパタ−ン及び顔貌パタ−ンを取得すると共に、そのアイリスパタ−ン及び顔貌パタ−ンを予め登録されているアイリスパタ−ン及び顔貌パタ−ンと照合してそれぞれの類似度を求め、
アイリスパタ−ンの類似度により被識別者の画像から得たアイリスパタ−ンが照合に用いたアイリスパタ−ン同一人物のものか否かを総合判定部で判定し、
同一人物のものでない場合、類似度結合部によりアイリスパタ−ンの類似度と顔貌パタ−ンの類似度を結合して、その結合結果に基づいて被識別者の画像から得たアイリスパタ−ン及び顔貌パタ−ンが照合に用いたアイリスパタ−ン及び顔貌パタ−ンと同一人物のものか否かを総合判定部で判定することを特徴とする個人識別装置。
The iris recognition unit and the facial recognition unit extract features from the image of the identified person photographed by the camera to acquire the iris pattern and facial pattern, and the iris pattern and facial pattern are registered in advance. Check the similarity with each of the iris pattern and facial pattern,
The comprehensive determination unit determines whether the iris pattern obtained from the image of the identified person is the same person as the iris pattern used for the collation based on the similarity of the iris pattern.
If they are not the same person, the similarity combining unit combines the similarity of the iris pattern and the similarity of the facial pattern, and the iris pattern and the face obtained from the image of the person to be identified based on the combination result A personal identification device characterized in that a comprehensive judgment unit judges whether or not the pattern is the same person as the iris pattern and facial pattern used for collation.
請求項3記載の個人識別装置において、
人物を撮影するカメラと、
このカメラが撮影した画像からアイリスを切り出す前処理部、この前処理部によって切り出されたアイリスの特徴を抽出してアイリスパターンを得る特徴抽出部、登録時にこの特徴抽出部により得られたアイリスパターンを登録する照合辞書部、及び識別時に特徴抽出部により得られたアイリスパターンを前記照合辞書部に登録されているアイリスパターンと照合して類似度を求める照合部を有するアイリス認識部と、
前記カメラが撮影した画像から顔の輪郭及び特徴を示す領域とその相対関係等を検出する前処理部、この前処理部検出された顔貌の特徴を抽出して顔貌パタ−ンを得る特徴抽出部、登録時にこの特徴抽出部により得られた顔貌パターンを登録する照合辞書部、及び識別時に特徴抽出部により得られた顔貌パターンを前記照合辞書部に登録されている顔貌パターンと照合して類似度を求める照合部を有する顔貌認識部と、
前記アイリス認識部及び顔貌認識部のそれぞれの照合部から総合判定部を介して送られてくるアイリスパターンの類似度と顔貌パタ−ンの類似度を結合する類似度結合部と、
前記アイリス認識部の照合部から送られてくるアイリスパタ−ンの類似度により被識別者の画像から得たアイリスパタ−ンが照合に用いたアイリスパタ−ン同一人物のものか否かを判定し、
同一人物のものでない場合、前記アイリスパタ−ンの類似度と前記顔貌認識部の照合部から送られてくる顔貌パタ−ンの類似度を前記類似度結合部により結合させ、その結合結果に基づいて被識別者の画像から得たアイリスパタ−ン及び顔貌パタ−ンが照合に用いたアイリスパタ−ン及び顔貌パタ−ンと同一人物のものか否かを判定する総合判定部を備えたことを特徴とする個人識別装置。
The personal identification device according to claim 3,
A camera to shoot people,
A pre-processing unit that extracts an iris from an image captured by the camera, a feature extraction unit that extracts an iris feature extracted by the pre-processing unit to obtain an iris pattern, and an iris pattern obtained by the feature extraction unit at the time of registration An iris recognition unit having a collation dictionary unit to be registered, and a collation unit that collates an iris pattern obtained by the feature extraction unit at the time of identification with an iris pattern registered in the collation dictionary unit to obtain a similarity;
Feature extraction to obtain a down - the camera processing unit before detecting the like thereof relative relationship between the indicated area of contours and features of the face from the photographed image, facial pattern by extracting a feature of the facial detected by the preprocessing unit A collation dictionary unit for registering a facial pattern obtained by the feature extraction unit at the time of registration, and a facial pattern obtained by the feature extraction unit at the time of identification with a facial pattern registered in the collation dictionary unit A facial recognition unit having a matching unit for obtaining a degree;
A similarity combining unit that combines the similarity of the iris pattern and the similarity of the facial pattern sent from the matching unit of each of the iris recognition unit and the facial recognition unit,
It is determined whether or not the iris pattern obtained from the image of the identified person is the same person as the iris pattern used for matching, based on the similarity of the iris pattern sent from the matching unit of the iris recognition unit,
If they are not of the same person, the similarity of the iris pattern and the similarity of the facial pattern sent from the collation unit of the facial recognition unit are combined by the similarity combining unit, and based on the combination result And a comprehensive judgment unit for judging whether or not the iris pattern and facial pattern obtained from the image of the identified person belong to the same person as the iris pattern and facial pattern used for collation. Personal identification device.
請求項1または請求項3記載の個人識別装置において、
アイリスパターンの類似度と顔貌パターンの類似度とを、
T=k*R+(1−k)*R
T:総合類似度
:アイリスによる類似度
:顔貌による類似度
k:定数(1>k)
という式により、結合することを特徴とする個人識別装置。
In the personal identification device according to claim 1 or 3,
Iris pattern similarity and facial pattern similarity
T = k * R I + (1−k) * R f
T: Overall similarity R I : Iris similarity R f : Facial similarity k: Constant (1> k)
The personal identification device characterized by combining by the formula.
カメラが撮影した被識別者画像からアイリス認識部及び顔貌認識部が特徴抽出して得たアイリスパタ−ン及び顔貌パタ−ンを特徴結合部が結合して特徴パタ−ンを作り、
この特徴パタ−ンを照合部が予め登録されている特徴パタ−ンと照合して類似度を求め、
その類似度に基づいて被識別者の画像から得た特徴パタ−ンが照合に用いた特徴パタ−ンと同一人物のものか否かを総合判定部で判定することを特徴とする個人識別装置。
The feature combining unit combines the iris pattern and the facial pattern obtained by extracting the features of the iris recognition unit and the facial recognition unit from the image of the identified person photographed by the camera to create a characteristic pattern,
This feature pattern is collated with the feature pattern registered in advance by the collation unit to obtain the similarity,
A personal identification device characterized in that a comprehensive judgment unit judges whether or not a feature pattern obtained from an image of a person to be identified is the same person as the feature pattern used for collation based on the similarity .
請求項6記載の個人識別装置において、
人物を撮影するカメラと、
このカメラが撮影した画像からアイリスを切り出す前処理部、及びこの前処理部によって切り出されたアイリスの特徴を抽出してアイリスパターンを得る特徴抽出部を有するアイリス認識部と、
前記カメラが撮影した画像から顔の輪郭及び特徴を示す領域とその相対関係等を検出する前処理部、及びこの前処理部検出された顔貌の特徴を抽出して顔貌パタ−ンを得る特徴抽出部を有する顔貌認識部と、
前記アイリス認識部及び顔貌認識部のそれぞれの特徴抽出部から送られてくるアイリスパターンと顔貌パタ−ンを結合して特徴パタ−ンを作る特徴結合部と、
登録時のこの特徴結合部で作られた特徴パタ−ンを登録する照合辞書部と、
識別時に前記特徴結合部から送られてくる特徴パタ−ンを前記照合辞書部に登録されている特徴パタ−ンと結合してと照合して類似度を求める照合部と、
この照合部から送られてくる類似度に基づいて被識別者の画像から得た特徴パタ−ンが照合に用いた特徴パタ−ンと同一人物のものか否かを判定する総合判定部を備えたことを特徴とする個人識別装置。
The personal identification device according to claim 6,
A camera to shoot people,
An iris recognition unit having a pre-processing unit that extracts an iris from an image captured by the camera, and a feature extraction unit that extracts an iris feature extracted by the pre-processing unit to obtain an iris pattern;
Processing unit prior to detection of the relative relationship among the region indicating the contours and features of the face from the image the camera is taken, and extracted with facial pattern features of facial detected by the preprocessing section - characterized to obtain a down A facial recognition unit having an extraction unit;
A feature combining unit that combines the iris pattern and the facial pattern sent from the feature extraction unit of each of the iris recognition unit and the facial recognition unit, and creates a characteristic pattern;
A collation dictionary part for registering the feature pattern created by this feature combination part at the time of registration;
A collation unit for collating the feature pattern sent from the feature coupling unit at the time of identification with the feature pattern registered in the collation dictionary unit to obtain a similarity;
A comprehensive determination unit for determining whether or not the feature pattern obtained from the image of the identified person is the same person as the feature pattern used for verification based on the similarity sent from the verification unit; A personal identification device characterized by that.
請求項6記載の個人識別装置において、
特徴結合部はアイリスパターンと顔貌パタ−ンベクトルで結合することを特徴とする個人識別装置。
The personal identification device according to claim 6,
A feature identification unit is a personal identification device that combines an iris pattern and a facial pattern with a vector.
請求項2、請求項4、または請求項7記載の個人識別装置において、
人物を撮影するカメラを1台とし、このカメラの出力を、アイリス認識部と顔貌認識部の両方に分配するカメラ出力分配部を備えたことを特徴とする個人識別装置。
In the personal identification device according to claim 2, claim 4, or claim 7,
A personal identification apparatus comprising a camera for photographing a person and a camera output distribution unit for distributing the output of the camera to both an iris recognition unit and a facial recognition unit.
請求項2、請求項4、または請求項7記載の個人識別装置において、
アイリス用カメラと顔貌用カメラを備え
アイリス用カメラで撮影した画像をアイリス認識部に送り、
貌用カメラで撮影した画像を顔貌認識部に送ることを特徴とする個人識別装置。
In the personal identification device according to claim 2, claim 4, or claim 7,
Equipped with an iris camera and facial camera, the image taken with the iris camera is sent to the iris recognition unit,
Personal identification device characterized by sending the facial recognition unit an image captured by the face 貌用 camera.
JP30446696A 1996-11-15 1996-11-15 Personal identification device Expired - Fee Related JP3620938B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP30446696A JP3620938B2 (en) 1996-11-15 1996-11-15 Personal identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP30446696A JP3620938B2 (en) 1996-11-15 1996-11-15 Personal identification device

Publications (2)

Publication Number Publication Date
JPH10137221A JPH10137221A (en) 1998-05-26
JP3620938B2 true JP3620938B2 (en) 2005-02-16

Family

ID=17933365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP30446696A Expired - Fee Related JP3620938B2 (en) 1996-11-15 1996-11-15 Personal identification device

Country Status (1)

Country Link
JP (1) JP3620938B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222379A (en) * 1999-02-01 2000-08-11 Tadamitsu Ryu Input signal recognizing system having growing function by feedback
JP3825222B2 (en) * 2000-03-24 2006-09-27 松下電器産業株式会社 Personal authentication device, personal authentication system, and electronic payment system
JP3668175B2 (en) 2001-10-24 2005-07-06 株式会社東芝 Personal authentication method, personal authentication device, and personal authentication system
US8085993B2 (en) * 2006-03-03 2011-12-27 Honeywell International Inc. Modular biometrics collection system architecture
JP2006004294A (en) * 2004-06-18 2006-01-05 Oki Electric Ind Co Ltd Individual identifying device and individual identifying method
KR102257287B1 (en) * 2014-08-07 2021-05-27 삼성전자주식회사 Method and apparatus for authenticating user using fingerprint and ecg signal
JP7293644B2 (en) * 2018-12-20 2023-06-20 カシオ計算機株式会社 Image identification device, classifier learning method, image identification method and program

Also Published As

Publication number Publication date
JPH10137221A (en) 1998-05-26

Similar Documents

Publication Publication Date Title
Delac et al. A survey of biometric recognition methods
US7412081B2 (en) Personal authentication apparatus and personal authentication method
US7006671B2 (en) Personal identification apparatus and method
US8265347B2 (en) Method and system for personal identification using 3D palmprint imaging
JP2003346149A (en) Face collating device and bioinformation collating device
Kukharev et al. Visitor identification-elaborating real time face recognition system
JP2003141541A (en) Individual recognition device and passage control device
WO2007108225A1 (en) Face recognition system
US11756338B2 (en) Authentication device, authentication method, and recording medium
KR20010074059A (en) Personal Verification Method and Apparatus Based on Facial Images for Mobile Systems
WO2018061786A1 (en) Living body authentication device
JP3620938B2 (en) Personal identification device
Syambas et al. Image processing and face detection analysis on face verification based on the age stages
JP3500461B2 (en) Personal recognition device
JPH10137222A (en) Individual identification system
Bourlai et al. Face verification system architecture using smart cards
Kumari et al. A novel approach for secure multimodal biometric system using multiple biometric traits
Zheng et al. Joint Multiple-type Features Encoding for Palmprint Recognition
Triantafyllou et al. Iris authentication utilizing co-occurrence matrices and textile features
Ribarić et al. A biometric identification system based on the fusion of hand and palm features
CN110110623A (en) A kind of face identification system and design method based on Android platform
JP2974857B2 (en) Fingerprint dictionary registration processing method
JP7248348B2 (en) Face authentication device, face authentication method, and program
KR20070097629A (en) Embedded system for recognizing face
Kumar et al. Analysis of Bipartite Rankboost Approach for Score Level Fusion of Face and Palmprint Biometrics

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040823

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041116

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081126

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091126

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091126

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101126

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101126

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111126

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111126

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121126

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121126

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131126

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees