JP2004288221A - Iris identification system - Google Patents
Iris identification system Download PDFInfo
- Publication number
- JP2004288221A JP2004288221A JP2004205266A JP2004205266A JP2004288221A JP 2004288221 A JP2004288221 A JP 2004288221A JP 2004205266 A JP2004205266 A JP 2004205266A JP 2004205266 A JP2004205266 A JP 2004205266A JP 2004288221 A JP2004288221 A JP 2004288221A
- Authority
- JP
- Japan
- Prior art keywords
- iris
- pupil
- shape
- depression
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 210000001747 pupil Anatomy 0.000 claims abstract description 107
- 238000000034 method Methods 0.000 claims abstract description 62
- 238000006243 chemical reaction Methods 0.000 claims abstract description 25
- 238000012545 processing Methods 0.000 claims abstract description 22
- 241001465754 Metazoa Species 0.000 claims abstract description 14
- 239000000835 fiber Substances 0.000 claims description 16
- 230000002567 autonomic effect Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 9
- 238000013500 data storage Methods 0.000 claims description 7
- 238000010191 image analysis Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 35
- 210000000467 autonomic pathway Anatomy 0.000 abstract description 10
- 230000004439 pupillary reactions Effects 0.000 abstract 1
- 210000000554 iris Anatomy 0.000 description 169
- 230000006870 function Effects 0.000 description 19
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 17
- 238000012790 confirmation Methods 0.000 description 17
- 230000004044 response Effects 0.000 description 15
- 230000008602 contraction Effects 0.000 description 14
- 238000010586 diagram Methods 0.000 description 14
- 239000003814 drug Substances 0.000 description 14
- 229940079593 drug Drugs 0.000 description 14
- 238000004458 analytical method Methods 0.000 description 13
- 210000000744 eyelid Anatomy 0.000 description 10
- 238000007373 indentation Methods 0.000 description 10
- 241000282412 Homo Species 0.000 description 7
- 230000010339 dilation Effects 0.000 description 7
- 238000010183 spectrum analysis Methods 0.000 description 7
- 210000000720 eyelash Anatomy 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000003708 edge detection Methods 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 206010012335 Dependence Diseases 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000004313 glare Effects 0.000 description 2
- 230000008855 peristalsis Effects 0.000 description 2
- 230000010344 pupil dilation Effects 0.000 description 2
- 238000010845 search algorithm Methods 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 208000003443 Unconsciousness Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000000994 depressogenic effect Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000002269 spontaneous effect Effects 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
- Image Input (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、虹彩同定システム、及び虹彩イメージを用いることによって生体の同一性を確認する方法に関する。より詳しくは、本発明は、虹彩繊維構造、自律神経環(ANW)及び瞳孔の形状並びに光に対するその自発反応、並びに虹彩イメージからのくぼみの存在、形状及び位置に関する1以上の同定パラメータを測定することによる虹彩同定法に関する。 The present invention relates to an iris identification system and a method for confirming the identity of a living body by using an iris image. More specifically, the present invention measures the iris fiber structure, the shape of the autonomic nerve ring (ANW) and the pupil and its spontaneous response to light, and one or more identifying parameters relating to the presence, shape and location of indentations from the iris image. Iris identification method.
特定の人間を同定するための公知の虹彩同定システムは、比較の結果にしたがって特定の人間を許容又は拒絶するために、人間の眼からとった虹彩部分のイメージ信号からの虹彩コードを、データベースから検索した対応する虹彩情報と比較する。この従来の虹彩同定システムは、しかしながら、許容し得る高レベルの同定の正確性には達していない(特許文献1参照)。
更に、種々の虹彩同定システムは、生存する人間の真の虹彩を観察しているかどうかを識別する点で制限を有しているので、捏造された虹彩イメージを誤って同定する高いリスクのために、バンキングシステム、電子決算システムなどのようなシステムと共に安全に用いることはできない。 In addition, because various iris identification systems have limitations in identifying whether or not a living human is observing the true iris, the high risk of falsely identifying a forged iris image may result. It cannot be used safely with systems such as banking systems, electronic settlement systems, and the like.
本発明の目的は、高レベルの正確性を有する虹彩認識システムを用いて個人の同一性を確認することである。他の目的は、虹彩に関連する多数の特性の分析によって、高いレベルの同定の正確性を達成することである。 It is an object of the present invention to identify individuals using an iris recognition system having a high level of accuracy. Another object is to achieve a high level of identification accuracy by analyzing a number of properties associated with the iris.
したがつて、本発明の一つの目的は、虹彩イメージ、光によって生起する瞳孔及び自律神経環の反応、自律神経環及び瞳孔の形状、並びにくぼみの存在、位置及び形状から得ることのできる虹彩繊維構造にしたがった複数の虹彩同定パラメータを測定することによって、生体の虹彩を迅速且つ明確に同定することである。 Thus, one object of the present invention is to provide an iris image, the response of the pupil and the autonomic nerve ring caused by light, the shape of the autonomic nerve ring and the pupil, and the iris fibers obtainable from the presence, location and shape of the depression. It is to quickly and unambiguously identify a living iris by measuring a plurality of iris identification parameters according to the structure.
本発明にしたがって虹彩走査により生存動物の同一性を確認するためのシステムは、生存動物を同定する同定情報を受容するための制御ユニット、及び、同定情報と比較するための同定可能な生体に関係する予め定められた個人情報を包含するための、制御ユニットによってアクセスされるデータベースを含むデータ蓄積ユニットを含む。カメラを含む虹彩イメージピックアップユニットは、同定情報が予め定められた情報に対応する場合に、まず虹彩イメージを取り込んで入力イメージ信号を生成させるために制御ユニットによって操作される。データ処理ユニットは、入力イメージ信号を処理データに予備処理する。蓄積ユニットは、それぞれの同定可能な生体に関して、(1)周波数変換法を用いた虹彩繊維構造の密度及びテキスチャー形態、(2)瞳孔反応、(3)瞳孔の形状、(4)自律神経環反応、(5)自律神経環の形状、(6)くぼみの存在、(7)くぼみの位置、及び(8)くぼみの形状、からなる群から選択される、予め蓄積された虹彩同定のための複数のパラメータのうちの少なくとも一つを含む。制御ユニットは、処理されたデータとパラメータとを比較して、同一性が確認されたことを示す一致性があるかどうかを測定するように操作することができる。 A system for confirming the identity of a living animal by iris scanning according to the present invention relates to a control unit for receiving identification information identifying a living animal, and an identifiable organism for comparison with the identification information. A data storage unit including a database accessed by the control unit for containing predetermined personal information. An iris image pickup unit including a camera is operated by a control unit to first capture an iris image and generate an input image signal when the identification information corresponds to predetermined information. The data processing unit pre-processes the input image signal into processed data. For each identifiable living body, the storage unit comprises: (1) density and texture morphology of the iris fiber structure using the frequency conversion method; (2) pupil response; (3) pupil shape; , (5) the shape of the autonomic nerve ring, (6) the presence of the depression, (7) the position of the depression, and (8) the shape of the depression. At least one of the following parameters: The control unit may be operable to compare the processed data with the parameters to determine whether there is a match indicating that the identity has been confirmed.
本発明の好ましい態様によれば、カメラは、生存動物の両方の眼を撮影するように形成されている。データ処理ユニットは、イメージ入力信号を、それぞれの眼を表す処理データに別々に処理する。この方法においては、虹彩走査によって生存動物の同一性を確認するためのより高いレベルの同定正確性が得られる。 According to a preferred aspect of the present invention, the camera is configured to image both eyes of a living animal. The data processing unit separately processes the image input signal into processing data representing each eye. In this way, a higher level of identification accuracy is obtained by iris scanning to confirm the identity of the surviving animal.
同定システムにアクセスするためには、まず同定される生体が同定情報をシステム中入力する。ある態様においては、同定情報データは、PIN(個人同定番号)又は幾つかの他の独特の同定情報を用いてシステムにアクセスする、カード読み取りユニット、キー入力ユニットなどを用いて入力することができる。また、音声始動システムを用いることもできる。 To access the identification system, the organism to be identified first enters identification information into the system. In some embodiments, the identification information data can be entered using a card reading unit, key entry unit, etc., that accesses the system using a PIN (Personal Identification Number) or some other unique identification information. . Also, a voice activation system can be used.
虹彩イメージピックアップユニットは、好ましくは、カメラと連動して制御ユニットによって操作され、連続して複数の虹彩イメージを取り込んで入力イメージ信号を生成させるための光源を含む。眼を照射することによって、虹彩が収縮することが認められ、したがって、連続イメージによって、システムが虹彩の収縮、及び所望の場合には引き続く虹彩の膨張を取り込むことが可能になる。光源は、好ましくは赤外光源である。 The iris image pickup unit is preferably operated by the control unit in conjunction with the camera and includes a light source for capturing a plurality of iris images in succession and generating an input image signal. By illuminating the eye, it is noted that the iris contracts, and therefore, a continuous image allows the system to capture the iris contraction and, if desired, the subsequent iris dilation. The light source is preferably an infrared light source.
本発明の他の独特の特徴によれば、システムは、位置決めデータに翻訳されたユーザーの体格の特性を含むデータベース中の予め定められた個人情報にアクセスすることに基づいて、カメラをユーザーの眼と自動的に整列させることを可能にするための、虹彩イメージピックアップユニットと制御ユニットとのインターフェースを有することを特徴とする。 In accordance with another unique feature of the present invention, a system is provided for controlling a camera based on accessing predetermined personal information in a database including characteristics of a user's physique translated into positioning data. And an interface between the iris image pickup unit and the control unit to enable automatic alignment.
上記に記載したように、システムは、好ましくは、虹彩特性に帰することのできる異なるパラメータを分析する能力を有する。しかしながら、本発明は、上記記載のプロセスパラメータ又は全パラメータセット以下のプロセスパラメータのサブセットの一つのみをスクリーニング及び分析することによって、ユーザーの同一性を確認するように操作することができる。 As described above, the system preferably has the ability to analyze different parameters that can be attributed to iris characteristics. However, the present invention can be operated to confirm the identity of the user by screening and analyzing only one of the above described process parameters or a subset of the process parameters below the entire parameter set.
虹彩繊維構造の密度及びテキスチャー形態を分析するために用いられる独特の方法は、好ましくは、Haar変換を用いる周波数変換法を含む。現在のところ好ましい態様によれば、本発明は、Haar変換関数を用いてスペクトル変換の可変マルチセクターシステムを与える。この独特の方法によれば、虹彩イメージの選択された一つを、複数のセクターに分割し、それぞれのセクターに関して多数のHaar関数係数を算出する。このスペクトル分析のマルチセクターシステムによって、有利に、例えば、瞼、睫などによる欠陥又は干渉の存在によって引き起こされる干渉によって歪曲される虹彩のあるセクターを排除することが可能になる。これらの欠陥は、高い周波数係数の生成及び隣接するセクターの係数との間の予め定められた鋭利な変動によって明確にされる。したがって、隣接するセクターごとの分析によって、Haar変換を虹彩認識技術に適用することが可能になる。 The unique methods used to analyze the density and texture morphology of the iris fiber structure preferably include frequency conversion methods using the Haar transform. According to a presently preferred aspect, the present invention provides a variable multi-sector system for spectral transformation using a Haar transform function. According to this unique method, a selected one of the iris images is divided into a plurality of sectors and a number of Haar function coefficients are calculated for each sector. This multi-sector system of spectral analysis advantageously makes it possible to eliminate sectors with irises that are distorted by interference caused by the presence of defects or interferences, for example by eyelids, eyelashes and the like. These deficiencies are clarified by the generation of high frequency coefficients and predetermined sharp variations between adjacent sector coefficients. Therefore, the analysis for each adjacent sector makes it possible to apply the Haar transform to the iris recognition technology.
Haar変換を用いると、選択された低周波数ゾーンを表すHaar係数を選択することと好ましく組み合わせて、先例のない高いレベルの認識正確性を有する虹彩参照記録を生成することが可能である。 Using the Haar transform, it is possible to produce an iris reference record with an unprecedented high level of recognition accuracy, preferably in combination with selecting Haar coefficients representing the selected low frequency zone.
本発明は、一態様においては、連続した一連の虹彩イメージを用いて、時間当たりの虹彩の収縮及び膨張を示す曲線によって表される瞳孔ヒストグラム又はピュピログラム(pupillogram)を生成する。本発明は、同定正確性を向上させるための更なる手段としてその勾配変化を分析することにより、ピュピログラムを分析するための新規な技術を提供する。本発明は、また、同定正確性を向上させるための更なる手段として瞳孔の境界、形状及び位置を分析することを特徴とする。 The present invention, in one aspect, uses a series of iris images to generate a pupil histogram or pupilogram represented by curves representing iris contraction and dilation over time. The present invention provides a novel technique for analyzing pupilograms by analyzing the gradient change as a further means to improve identification accuracy. The invention is also characterized by analyzing the pupil boundary, shape and position as a further means for improving identification accuracy.
本発明は、また、自律神経環の形状及び反応、並びに存在する場合には、同定正確性を向上させるための更なる手段として、くぼみの存在、位置及び形状に関する情報を処理する。 The present invention also processes information about the presence, location and shape of the indentation as a further means to improve the shape and response of the autonomic nervous ring and, if present, the identification accuracy.
本発明は、また、システムのための上述の虹彩同定パラメータを分析することを意図し且つそれを可能にし、これを虹彩同定以外に用いる。例えば、ドラッグ又はアルコールの存在又は使用に関して個人を試験するためのシステムを形成することも本発明の範囲内である。すなわち、本発明は、以下の態様を含む。
1.人間内のドラッグ又はアルコールの存在に関して試験するためのシステムであって、以下の要素:
(a)生存動物を同定する同定情報を受容するための制御ユニット;
(b)虹彩イメージを取り込んで入力イメージ信号を生成させるための、制御ユニットによって操作されるカメラを含む虹彩イメージピックアップユニット;
(c)入力イメージ信号を処理データに予備処理するためのデータ処理ユニット;を含み、前記制御ユニットが、前記入力イメージ信号の処理の結果として得られた処理データを、時間当たりの光刺激に応答する虹彩瞳孔の平均収縮及び膨張を表すように計算して、それによって、人間がアルコール又はドラッグに中毒している場合と人間がアルコール又はドラッグを含んでいない場合とを比較して、ピュピログラムの曲線の形状が異なっているために、処理データが現在又は過去の中毒の指標となるかどうかを決定するように操作し得る前記システム。
2.人間の体内におけるドラッグ又はアルコールの少なくとも一つの存在に関して試験するための方法であって、
(a)人間の虹彩及び瞳孔の実質的に同じ部分の複数のイメージを異なる時間において得て;
(b)前記複数のイメージを瞳孔ヒストグラムに処理し;
(c)ステップ(b)において処理された前記瞳孔ヒストグラムの特性を算出し;そして
(d)前記比較ステップ(c)に基づいて、ドラッグ又はアルコールの少なくとも一つの存在を確認する;ステップを含むことを特徴とする前記方法。
3.前記瞳孔ヒストグラムに関連する曲線の平坦度特性が、ドラッグ及びアルコールの少なくとも一つの存在を表す上記第2項に記載の方法。このタイプのシステムにおいては、生存動物を同定する同定情報を受容するための制御ユニット、及び同定情報と比較するために同定可能な生体に関連する予め定められた個人情報を包含するための、制御ユニットによってアクセスされるデータベースを含むデータ蓄積ユニットが与えられる。虹彩イメージピックアップユニットは、虹彩イメージを取り込み、入力イメージ信号を生成させるための、制御ユニットによって走査されるカメラを含む。データ処理ユニットは、入力イメージ信号を処理データに予備処理する。制御ユニットは、時間当たりの光刺激に応答する虹彩瞳孔の平均収縮及び膨張を表す入力イメージ信号の処理の結果として得られるデータを処理して、処理データが現在又は過去の中毒を示すかどうかを測定する。このシステムは、ピュピログラムの曲線の形状が、人間がアルコール又はドラッグに中毒している場合に、人間がアルコール又はドラッグを含んでいない場合の曲線の形状と比較して異なるという発見に基づいている。
The present invention also contemplates and enables the analysis of the iris identification parameters described above for the system, using it for other than iris identification. For example, it is within the scope of the present invention to form a system for testing an individual for the presence or use of a drug or alcohol. That is, the present invention includes the following aspects.
1. A system for testing for the presence of a drug or alcohol in humans, comprising:
(A) a control unit for receiving identification information identifying living animals;
(B) an iris image pickup unit including a camera operated by a control unit for capturing an iris image and generating an input image signal;
(C) a data processing unit for pre-processing the input image signal into processed data, the control unit responding the processed data obtained as a result of processing the input image signal to a light stimulus per time. The pupilogram curve is calculated to represent the mean contraction and dilation of the iris pupil, thereby comparing a person who is addicted to alcohol or drugs with a person who does not contain alcohol or drugs. Said system operable to determine whether the processed data is indicative of present or past addiction due to the different shape of the.
2. A method for testing for the presence of at least one drug or alcohol in the human body, comprising:
(A) obtaining a plurality of images of substantially the same portion of the human iris and pupil at different times;
(B) processing the plurality of images into a pupil histogram;
(C) calculating characteristics of the pupil histogram processed in step (b); and (d) confirming the presence of at least one of a drug or alcohol based on the comparing step (c). The method as described above.
3. The method of
生存動物の同一性を確認するか、又は人間の体内のドラッグ及びアルコールの少なくとも一つの存在を試験するための方法もまた、上記に記載したような虹彩同定パラメータを特別に選択することに基づいて、本発明により提供される。本発明の更に他の目的及び有利性は、以下の詳細な説明から当業者には明らかとなるであろう。以下の説明においては、本発明の好ましい態様のみが、発明の実施が意図されるベストモードを単に示すものとして示され記載されている。認識されるように、本発明は、他の異なる態様が可能であり、その幾つかの詳細は、発明から逸脱することなく、種々の明らかな特徴において修正を加えることが可能である。したがって、図面及び説明は、例示のものとしてみなされるべきであり、制限するものではない。 Methods for confirming the identity of living animals or testing for the presence of at least one of drugs and alcohol in the human body are also based on the particular selection of iris identification parameters as described above. , Provided by the present invention. Still other objects and advantages of the present invention will become apparent to those skilled in the art from the following detailed description. In the following description, only the preferred embodiments of the invention are shown and described merely to show the best mode intended for practicing the invention. As will be realized, the invention is capable of other different aspects, and its several details are capable of modifications in various obvious features, all without departing from the invention. Accordingly, the drawings and description should be regarded as illustrative and not restrictive.
図1Aは、本発明による生体の虹彩を同定するためのシステム14のブロックダイヤグラムである。生体は、人間及び動物を含む、同定のための虹彩を有する生存動物を包含する。システム14は、好ましくは、カードの情報記録メディアにアクセスすることによって、個人カード番号を蓄積しているカード上に記録された情報を読み取り且つ同定するカード読み取りユニット40を含む。PINを入力するための複数のキーを有するキー入力ユニット50は、それぞれのキー入力に対応した電気信号を生成する。虹彩イメージピックアップユニット20は、特定の制御信号の予め定められた順番に従って自動的に連続して点滅して、オートフォーカス機能を有するカメラが、数秒の間、(例えば、1秒間に25フレーム以上を生成する速度で)虹彩の動的イメージを取り込むことを可能にする複数の光源を有する。駆動ユニット30は、モニタを用いて特定の制御信号を供給することによって、虹彩イメージピックアップユニット20に、カメラ位置の照明及び調節のための電力を供給する。
FIG. 1A is a block diagram of a
データ処理ユニット60は、虹彩イメージピックアップユニット20によって取り込まれた入力イメージ信号を予備処理する。データ蓄積ユニット80は、それぞれの人間の個人カード番号又はPINにそれぞれ関連した、(1)個々の虹彩のイメージ信号から抽出し得る虹彩繊維構造の密度及びテキスチャー形態;(2)光に応答する自律神経環(ANW)の動き;(3)光に応答する瞳孔の動き;(4)ANWの形状;(5)瞳孔の形状;(6)くぼみの存在、位置及び形状;を含む、複数の同定パラメータを蓄積するためのデータベースを形成する。制御ユニット70は、カード読み取りユニット又はキー入力ユニットによって入力されたか又は読み取られたカード番号又はPINに関してデータベースを検索し、動的虹彩イメージを獲得し、カメラの位置を個人情報に基づいて自動的に調節し、イメージ信号からユーザーの同一性を確認するために複数の虹彩同定パラメータを測定することによって、ユーザーの同一性を確認することにより、特定の人間に関する虹彩を識別する。この場合においては、特定の人間に関する虹彩情報だけでなく、それぞれの人間に関する更なる情報(例えば、虹彩イメージを取り込む際のカメラ高さ、或いはそれぞれの人間に対する最も適切なカメラ高さに直接関係する個人の身長の情報)をデータ蓄積ユニット80に蓄積して、ユニット80が、更なる情報を読み取ることによってカメラ高さを自動的に調節することを可能にすることができる。
The
図1Bは、図1Aの虹彩イメージピックアップユニット20の例示を示す双眼カメラ及び照明システムの一部の側面斜視図である。虹彩イメージピックアップユニット20は、カメラ16、及び、虹彩のイメージを取り込むために要求される位置の複数の第1及び第2のレンズ11及び12を有する。オートフォーカスのための可変取り込みゾーン(フレックスゾーン)を有するカメラ16を用いることが好ましい。更に、ユーザーの瞼、睫の動き及び瞬きの結果としてオートフォーカス機能の低下を防ぐために、5mmよりも大きな焦点深さを有する第2のレンズ12を用いることが好ましい。第1及び第2のレンズ11,12は、好ましくは、それぞれの眼に関して与えられる。
FIG. 1B is a side perspective view of a binocular camera and a portion of an illumination system showing an example of the iris
虹彩イメージピックアップユニット20は、更に、図1Bの虹彩イメージピックアップユニット20と関連してユーザーの眼をカメラの中心部分に固定することによって、虹彩が一つの側に偏るのを防ぐための視野誘導ユニット18(図2〜図4を参照)を有する。更に、ある態様においては、初期オートフォーカス及び輝度の調節のための側部光源を用いることができる。図2は、視野ポインターを示すための図1Bからの参照図であり、図3は、図2の視野ポインターを詳細に示すものである。図4は、視野誘導光源L4からの光をユーザーの眼に反射するという図2における視野ポインターの操作を説明するための参照図である。
The iris
図2〜4において示されるように、視野誘導ユニットは、ユーザーの視野を誘導するための淡い青色又は赤色の光を発光する誘導光源L4(参照番号17でも示される)から構成することができる。反射ユニット18bは、光源17からの光をカメラ16の中心部分から反射し、支持ユニット18aは、反射ユニットをレンズの中心に整列させて支持する。この場合、支持ユニット18aは、好ましくは、レンズの中心に配置された場合であっても虹彩イメージに影響を与えることを防ぐように、透明なガラス様の材料で構成される。反射ユニット18bは、視野誘導光源L4からの光をユーザーの眼に反射するように、一定の傾斜を有する反射面を有する。
As shown in FIGS. 2-4, the field-of-view guidance unit can be comprised of a guidance light source L4 (also indicated by reference numeral 17) that emits light blue or red light to guide the user's field of view. The
図5は、図1Bの第2のレンズ12の正面図である。第2のレンズの正面12のある配置においては、瞳孔及びANWの動き(即ち収縮及び膨張)を刺激するフラッシュ光源L3(12b)が与えられる。複数の赤外光源L2(12a)が、レンズ12の周縁にそって環状又は輪状の配列で配置されており、ソフトウェアによって、カメラ16が虹彩イメージ及び明澄な瞳孔イメージを取り込むことができるように制御されている。フラッシュ光源12bは、好ましくは、ソフトウェアによって短いサイクルで自動的に発光するように制御された青色のダイオードである。
FIG. 5 is a front view of the
図6は、コンピュータ制御によって行なわれる虹彩イメージピックアップユニット20によるイメージ信号の取り込みの例のフローチャートである。調節ステップS61においては、カード番号又はPINに基づいてデータベースから検索される個人情報を用いることによってカメラ位置(高さ)が調節され、複数の光源(12a及び17)が、オートフォーカスのために同時にONに切り替えられて、ユーザーの眼を対物レンズに引き付ける。ステップS62においては、発光する光源17を用いることによって、ユーザーの眼が対物レンズに誘導される。カメラのオートフォーカスがステップS63において行なわれる。ステップS67においては、動いているANW及び瞳孔の動的イメージが、虹彩の瞳孔及びANWの動きを誘導する短いサイクルでの光源12bの発光(S66)によって数秒間獲得される。ステップS68においては、上述のステップS61〜S68の後に、全ての発光している光源が消される。
FIG. 6 is a flowchart of an example of capturing an image signal by the iris
図7は、図6のステップS61におけるカメラ高さの調節の詳細のフローチャートである。フローチャートは、以下のステップを包含する:カード番号又はPINを入力する(S71);入力されたカード番号又はPINについてデータベースを検索することによって、対応する個人のカメラ高さに関する情報を獲得する(S72);カメラ高さの獲得された情報をカメラの現在の高さの情報と比較した後に、モータを前進又は逆進方向に回転させる(S73)ことによって対応する個人に好適なカメラ高さを調節する。 FIG. 7 is a detailed flowchart of the adjustment of the camera height in step S61 of FIG. The flowchart includes the following steps: inputting a card number or PIN (S71); acquiring information on the camera height of the corresponding individual by searching a database for the input card number or PIN (S72). ); After comparing the acquired information of the camera height with the information of the current height of the camera, adjust the camera height suitable for the corresponding individual by rotating the motor forward or backward (S73). I do.
図8は、本発明の一態様に従って虹彩分析を行なうために必要な入力虹彩信号の選択ゾーン(x)を説明するための虹彩イメージの例示である。虹彩を分析するために選択されるべきゾーンは、ANW10bの少なくとも一部及び全瞳孔10aを含んでいなければならない。更に、選択ゾーン(x)は、好ましくは、明確に視認され、瞼、睫等によって影響されない部分であり、虹彩直径の1/3よりも大きく1/2よりも小さい範囲内に設定される。
FIG. 8 is an example of an iris image to illustrate selected zones (x) of input iris signals required to perform iris analysis according to one aspect of the present invention. The zone to be selected for analyzing the iris must include at least a portion of the
図16は、以下により詳細に説明するような、本発明の好ましい態様におけるスペクトル分析の可変マルチセクターシステムを用いた虹彩イメージ分析の例示である。スペクトル分析の可変マルチセクターシステムによって、虹彩の視認部分の選択を、分析のために、干渉によって歪曲されないようにして、同定プロセスの信頼性を向上させることが可能になる。眼の口径の解剖学的特徴及び瞼の膨らみを、同定及び排除することが可能である。殆ど事前には不可能である端縁による欠陥又は干渉、即ちグレアを、同定及び排除することが可能である。 FIG. 16 is an illustration of iris image analysis using a variable multi-sector system of spectral analysis in a preferred embodiment of the present invention, as described in more detail below. The variable multi-sector system of spectral analysis allows the selection of the visible portion of the iris to be distorted by interference for analysis, thereby improving the reliability of the identification process. Anatomical features of the eye caliber and eyelid bulge can be identified and eliminated. Edge defects or interferences, or glare, which are almost impossible in advance, can be identified and eliminated.
図9は、本発明の全虹彩同定法を説明するための高レベルフローチャートであり、図10A〜10Cは、図9の高レベルフローチャートのステップの詳細な一連のフローチャートである。 FIG. 9 is a high-level flowchart for explaining the whole iris identification method of the present invention, and FIGS. 10A to 10C are detailed series of flowcharts of the steps of the high-level flowchart of FIG.
図10A〜10Cにおいて示されるように、本発明による虹彩同定法においては、以下のプロセスの一つ以上を包含させることによって種々の態様を認識することができる。第1に、カード番号又はPIN確認プロセスS101〜S103によって、データベースから対応する番号に従う個人情報を検索し取得することによって、ユーザーの同一性が確かめられる。カード番号又はPINを入力した後、イメージ獲得プロセスS104〜S105により、確認プロセス中に得られたユーザーの個人情報に従ってカメラ位置を調節し、複数の光源を制御することによって、動的虹彩イメージが獲得される。 As shown in FIGS. 10A-10C, in the iris identification method according to the present invention, various aspects can be recognized by including one or more of the following processes. First, the identity of a user is confirmed by searching and acquiring personal information according to a corresponding number from a database by a card number or PIN confirmation process S101 to S103. After inputting the card number or PIN, the dynamic iris image is acquired by adjusting the camera position according to the user's personal information obtained during the confirmation process and controlling a plurality of light sources by the image acquisition processes S104 to S105. Is done.
本発明によって取得し且つ分析することができる異なる同定パラメータについて、以下に説明する。 The different identification parameters that can be obtained and analyzed according to the invention are described below.
虹彩繊維構造確認プロセスS106〜S110を用いて、上述のプロセス中に獲得された選択された静止虹彩イメージのWavelet変換によって虹彩分析に適したゾーンのイメージ信号を変換することによって同定パラメータを測定した後に、対応する同定パラメータによってユーザーの同一性が確かめられる。スペクトル分析の可変マルチセクターシステムに関して以下に説明するように、変換は、図8のゾーン又は図16の個々のセクターに適用することができる。 After measuring the identification parameters using the iris fiber structure confirmation process S106-S110 by transforming the image signal of the zone suitable for iris analysis by Wavelet transform of the selected still iris image acquired during the above process The identity of the user is ascertained by the corresponding identification parameters. The transformation can be applied to the zones of FIG. 8 or to the individual sectors of FIG. 16, as described below with respect to the variable multi-sector system of spectral analysis.
本発明の一態様においては、虹彩構造確認プロセスは、ステップS106、S107(図10A)において、虹彩イメージの動的信号を予備処理することによって、虹彩イメージ分析に適したゾーン(選択ゾーンx;実質的にANWの一部及び全瞳孔を含み、虹彩直径の1/3よりも大きく1/2よりも小さい範囲内)を選択し;ステップS108において、二次元Wavelet変換(例えば、Haar変換のようなWavelet変換)によって選択されたゾーンの選択された静止イメージ信号を変換した後に虹彩繊維構造密度及びテキスチャー形態に関する特殊化された情報を表すWavelet変換係数同定パラメータを測定し;ステップS109、S110によって、データベースから対応するパラメータを検索することによってユーザーの同一性を確認する;工程から構成することができる。 In one aspect of the present invention, the iris structure confirmation process includes pre-processing the dynamic signal of the iris image in steps S106 and S107 (FIG. 10A), thereby forming a zone suitable for iris image analysis (selection zone x; substantially (Including a part of the ANW and the entire pupil and within a range of more than 1/3 and less than 1/2 of the iris diameter); in step S108, a two-dimensional Wavelet transform (for example, such as a Haar transform) is performed. After transforming the selected still image signal of the zone selected by the Wavelet transform), the Wavelet transform coefficient identification parameters representing specialized information on iris fiber structure density and texture morphology are measured; By searching for the corresponding parameter from To confirm the identity of the Za; it can be comprised of steps.
概して、虹彩繊維構造の密度及びテキスチャー形態は人間毎に異なる。主として低周波数ゾーンにおける密度に関する情報を含むWavelet変換(特に、Haar変換のようなWavelet変換)を行なうと、特に、二次元Haar変換係数の低周波数成分は、虹彩繊維密度及びテキスチャー形態の殆どの情報を有する。 In general, the density and texture morphology of the iris fiber structure varies from person to person. When a Wavelet transform (particularly, a Wavelet transform such as a Haar transform) mainly including information on a density in a low-frequency zone is performed, particularly, a low-frequency component of a two-dimensional Haar transform coefficient includes most information of an iris fiber density and a texture form. Having.
低周波数成分は、上記したように選択された虹彩イメージ信号に関してWavelet変換を行ない、周波数特性を測定し、周波数特性を示す二次元Haar変換の選択された低周波数係数を同定パラメータとして決定することによって、虹彩繊維密度及びテキスチャー形態の殆どの情報を有するように選択される。本発明においてこのように適用されるHaar変換は、対称で、分離可能で、単一であり、寸法(スケール)及び位置によって変動する以下のHaar関数を用いる。 The low frequency component is obtained by performing Wavelet transform on the iris image signal selected as described above, measuring the frequency characteristic, and determining the selected low frequency coefficient of the two-dimensional Haar transform indicating the frequency characteristic as an identification parameter. , Iris fiber density and texture morphology. The Haar transform so applied in the present invention uses the following Haar function, which is symmetric, separable, unitary and varies with size (scale) and position.
更なるHaar関数は、以下のように定義される。 A further Haar function is defined as:
シグナムHaar関数による迅速なスペクトル変換アルゴリズムをグラフで示したものを図15に示す(ここではn=18である)。このグラフは、変換フローグラフのバタフライ構造を表す。グラフの縦軸に沿って、P0〜P7は、変換されるピクセル値を示す。 FIG. 15 shows a graph of a rapid spectrum conversion algorithm using the Signum Haar function (here, n = 18). This graph represents the butterfly structure of the conversion flow graph. Along the vertical axis of the graph, P0 to P7 indicate pixel values to be converted.
このフローグラフにおいて、右に向かって進行するそれぞれの連続レベルに関する値は、以下の式に基づく先の値による。 In this flow graph, the value for each successive level that progresses to the right depends on the previous value based on the following equation:
変換フローグラフのバタフライ構造を用いる結果として、Haar関数によるスペクトル変換プログラムは、従来の方法よりも200倍早く操作される。 As a result of using the butterfly structure of the conversion flow graph, the spectrum conversion program with the Haar function operates 200 times faster than the conventional method.
可変マルチセクター分析Haar関数を用いたスペクトル分析の可変マルチセクターシステムを以下に説明する。可変マルチセクターシステムは、好ましくは図8に関して上記したゾーン選択法の全体に亙って行なわれる。時折、グレアの形成、瞼及び睫における干渉が虹彩のセクション内で起こるか、或いは虹彩の大きな可視部分が分析のために利用できない場合がある。虹彩の部分が干渉を受けたり利用できないことにより、比較のために利用できるセクターの数が減少し、それによって人間同定の信頼性が低下する。 Variable Multi-Sector Analysis A variable multi-sector system for spectral analysis using the Haar function is described below. The variable multi-sector system is preferably implemented throughout the zone selection method described above with respect to FIG. Occasionally, glare formation, interference at the eyelids and eyelashes may occur within the section of the iris, or a large visible portion of the iris may not be available for analysis. The interference or unavailability of the iris portion reduces the number of sectors available for comparison, thereby reducing the reliability of human identification.
イメージ分析は、虹彩イメージを、図16に示すように、外側環100及び瞳孔120を含む内側環状ゾーンも分割することによって開始される。環状ゾーンから外側内部及び外部環100を分割する境界は、虹彩の基点から50ピクセルの距離に設定される。50ピクセルよりも大きいか又は小さい値は、更なる態様において用いることができる。外側環の外側境界は、ほぼ鞏膜と虹彩の境界において始まる。外側環の直径は、個人間で異なる虹彩寸法、虹彩イメージを得る異なる範囲などのような多くのファクターのために変化する可能性がある。外側環100に対応する虹彩の部分と、瞳孔120と外側環100との間の領域110とは、異なる速度で収縮及び膨張するので、内側及び外側環に関して異なる標準化ファクターが用いられる。
Image analysis begins by dividing the iris image also into an inner annular zone that includes
現在好ましい態様においては、それぞれの領域100、110を、次に、好ましくは等しい寸法の16のセクターに、即ち、合計で参照記号I0〜I31によって示される全部で32のセクターに更に分割する。32セクターI0〜I31のそれぞれに関して、上記記載のようにWavelet変換を用いて1,024Haar関数係数を算出して、32×32のマトリクスを形成する。しかしながら、すべてのゾーンにおけるセクターの全数(n+p)、それぞれの個々のゾーンにおけるセクターの数(n,p)、セクターの寸法及びHaar関数係数の数を変化させてもよいことは、本発明の範囲内である。即ち、それぞれのゾーンは、異なる数のセクター(n,p)を有していてよく、即ち、領域110は、放射状に10のセクターに分割することができ(p=10)、一方外側環100は、放射状に16のセクターに分割される(n=16)。
In a currently preferred embodiment, each
次に、概して、それぞれ下瞼及び上瞼に関して参照記号13A及び13Bによって示される瞼又は睫によって邪魔されるか又は干渉されるセクターは、隣接セクター係数比較によって拒絶される。隣接するセクター係数を比較することによって、高周波数係数の鋭利な変動が観察された場合には、そのセクターは欠陥として拒絶される。図16を参照すると、セクター比較は、セクター0を15から、及びセクター7を8から分割する水平線において始まる四つのセクターの群について行なわれ、時計方向又は時計の逆方向に、隣接するセクターについて進行する。この方法においては、セクターI0〜I3,I7〜I4,I8〜I11及びI15〜I12が比較される。
Then, generally, sectors that are obstructed or interfered by eyelids or eyelashes, indicated by
例えば、セクターI0及びI1における高周波数係数が比較され、差が、予め定められたセクター高周波数係数しきい値を超えない場合には、セクターI1は良好として認識される。セクターI0は、良好として認識されるか、或いは、瞼によって閉じられた場合には瞳孔の分析中に拒絶される。次に、セクターI1及びI2の係数が比較され、図16において示されるように、瞼の境界はセクターI2に位置している。セクターI2における境界は、セクター高周波数係数しきい値を超える差を引き起こし、セクターI2は拒絶される。セクターI2を拒絶した後、セクターI3も同様に拒絶される。同様のプロセスを、残りの四分円のセクターに関して繰り返す。 For example, the high frequency coefficients in sectors I0 and I1 are compared, and if the difference does not exceed a predetermined sector high frequency coefficient threshold, sector I1 is recognized as good. Sector I0 is recognized as good or rejected during pupil analysis if closed by eyelids. Next, the coefficients of sectors I1 and I2 are compared, and the border of the eyelid is located at sector I2, as shown in FIG. A boundary in sector I2 causes a difference that exceeds the sector high frequency coefficient threshold, and sector I2 is rejected. After rejecting sector I2, sector I3 is similarly rejected. A similar process is repeated for the remaining quadrant sectors.
分析から拒絶されたセクターを除去した後、完全な1,024Haar係数のサブセットを選択する。選択される係数の数は、種々のファクターによって決定される。係数が不必要に多すぎると、データベースのサイズが増大し、係数が少なすぎると、認識の質が低下する。更に、幾つかの係数は、イメージの輝度の変化と共に変化しており、また幾つかの高周波数係数は多すぎるノイズを含んでいるので、選択しない。実験の結果、好ましい態様は、1,024Haar係数の32×32マトリクスから選択された31の係数を用いる。選択された係数の特定のマトリクス位置は、次のものである:(0,1),(1,0),(1,1),(0,2),(0,3),(2,0),(3,0),(1,2),(1,3),(2,1),(3,1),(0,4),(0,5),(0,6),(0,7),(4,0),(5,0),(6,0),(7,0),(1,4),(1,5),(1,6),(1,7),(4,1),(5,1),(6,1),(7,1),(2,2),(3,2),(2,3)及び(3,3)。異なる態様においてはより多いか又はより少ない数の係数を用いることができる。 After removing the rejected sectors from the analysis, a subset of the complete 1,024 Haar coefficients is selected. The number of coefficients selected is determined by various factors. If the coefficients are unnecessarily large, the size of the database increases, and if the coefficients are too small, the quality of recognition decreases. In addition, some coefficients are not selected because they change with changes in image brightness, and some high frequency coefficients contain too much noise. As a result of experiments, the preferred embodiment uses 31 coefficients selected from a 32 × 32 matrix of 1,024 Haar coefficients. The specific matrix positions of the selected coefficients are: (0,1), (1,0), (1,1), (0,2), (0,3), (2, 0), (3,0), (1,2), (1,3), (2,1), (3,1), (0,4), (0,5), (0,6) , (0,7), (4,0), (5,0), (6,0), (7,0), (1,4), (1,5), (1,6), ( (1,7), (4,1), (5,1), (6,1), (7,1), (2,2), (3,2), (2,3) and (3,1) 3). More or less coefficients may be used in different embodiments.
32のセクターI0〜I31のそれぞれから31の係数を選択することによって、大きさが約1キロバイトの虹彩参照記録を生成することができる。記録の最初の32ビットは、セクター拒絶分析結果を含む。 By selecting 31 coefficients from each of the 32 sectors I0-I31, an iris reference record approximately 1 kilobyte in size can be generated. The first 32 bits of the record contain the result of the sector rejection analysis.
同定される新しい虹彩イメージを、上記の参照イメージと同様の方法で処理する。得られる特性記録を、データベース中に記録されているすべての虹彩参照記録と比較する。入力と参照虹彩係数との間の差の合計を、セクター毎に算出する。合計の値は、係数標準化のために、0〜2の範囲内である。1の合計値は絶対的にグレーなイメージを表し、0はセクタースペクトルの完全な一致を示し、2は同等のモジュールであるが反対の符号のスペクトルを表す。 The new iris image that is identified is processed in a manner similar to the reference image above. The resulting characteristic record is compared to all iris reference records recorded in the database. The sum of the difference between the input and the reference iris coefficient is calculated for each sector. The value of the sum is in the range of 0 to 2 for coefficient normalization. A total value of 1 represents an absolutely gray image, 0 represents a perfect match of the sector spectrum, and 2 represents a spectrum of equivalent modules but of opposite sign.
直接的な実験の結果、幾つかのセクターは、虹彩の蠕動(虹彩の幾つかの領域の迅速な無意識の動き)のために参照セクターと異なることが分かった。したがって、合計値が1未満のセクターのみが虹彩イメージ分析において好ましく用いられる。この方法においては、蠕動によって害されたセクターは、拒絶されたセクターに加えられ、認識作業からは排除される。虹彩イメージ分析において用いられるセクターの最小数は、それぞれの眼に関して10である。認識の質を対応して低下させれば、これよりも少ないセクターを用いることができる。差を強調するために、セクター係数の比較の結果を掛け合わせる。したがって、同定するイメージが参照イメージと一致する場合には、得られる値は0に近くなる。これに対して、異なるイメージが導く値は数百〜数千の範囲内である。 Direct experimentation has shown that some sectors differ from the reference sector due to iris peristalsis (rapid unconscious movement of some areas of the iris). Therefore, only sectors with a total value less than 1 are preferably used in iris image analysis. In this way, the sectors perturbed by peristalsis are added to the rejected sectors and are excluded from the recognition task. The minimum number of sectors used in iris image analysis is 10 for each eye. Fewer sectors can be used if the quality of perception is correspondingly reduced. Multiply the results of the sector coefficient comparisons to emphasize the differences. Therefore, if the image to be identified matches the reference image, the value obtained will be close to zero. In contrast, the values derived by different images are in the range of hundreds to thousands.
低周波数スペクトル係数は、虹彩繊維構造の密度及びテキスチャー形態に関する多くの情報を含んでいるので、Haar変換の結果から実験的に選択された低周波数ゾーンの係数を同定のために利用する。 Since the low frequency spectral coefficients contain much information about the density and texture morphology of the iris fiber structure, the coefficients of the low frequency zones experimentally selected from the results of the Haar transform are used for identification.
図10Bの瞳孔及びANW反応確認プロセスS111〜S116により、獲得された虹彩の動的イメージから瞳孔及びANWを検出することによって、対応する同定パラメータによってユーザーの同一性が確かめられる。次に、検出された動的イメージ信号からの瞳孔及びANWの動的反応(収縮及び膨張)を用いて同定パラメータを測定する。 By detecting the pupil and the ANW from the acquired dynamic image of the iris by the pupil and ANW reaction confirmation processes S111 to S116 of FIG. 10B, the identity of the user is confirmed by the corresponding identification parameters. Next, the identification parameters are measured using the dynamic response (contraction and dilation) of the pupil and the ANW from the detected dynamic image signal.
更に、本発明の一態様においては、瞳孔及びANW反応確認プロセスは、以下の工程から構成することができる:虹彩の獲得された動的イメージの中心部分をコンピュータ処理することによって瞳孔ゾーンを検出し(図10BのS111、S112);ANWのゾーンをコンピュータ処理し(S113);検出されたゾーンにおける動く瞳孔及びANWの反応(膨張又は収縮)時間をコンピュータ算出した後に、生存瞳孔及びANWをそれぞれ認識するための同定パラメータを測定し(S114);データベースから対応するパラメータを検索することによってユーザーの同一性を確かめる。 Further, in one aspect of the present invention, the pupil and ANW response confirmation process may comprise the following steps: detecting the pupil zone by computer processing a central portion of the acquired dynamic image of the iris. (S111, S112 in FIG. 10B); Computer processing of the ANW zone (S113); Recognition of the surviving pupil and the ANW, respectively, after calculating the reaction (expansion or contraction) time of the moving pupil and the ANW in the detected zone. An identification parameter for the user is measured (S114); the identity of the user is confirmed by searching a corresponding parameter from a database.
図11は、一定の角度θにおける瞳孔10a及びANW10bの動きを説明するための虹彩10cの例示イメージであり、図12は、時間変動に伴う一次元データにおいて変換された、平均瞳孔半径R1、一定の角度θにおける瞳孔半径R2、及び一定の角度θにおけるANWの半径R3を示すグラフである。グラフにおいて、第1の時間「t1」はフラッシュ光源の操作時間を表し、第2の時間「t2」はR1の収縮の開始時間を表し、第3の時間「t3」は平均瞳孔半径が最小の時間を表し、第4の時間「t4」は瞳孔半径が一定の角度θにおいて最小の時間を表し、第5の時間「t5」はANWの半径が一定の角度θにおいて最小の時間を表す。したがって、これらの動的イメージを比較した結果として、光に対して無意識に反応する瞳孔及びANWの反応を通して、それぞれの同定パラメータを得ることができる。
FIG. 11 is an exemplary image of the
上記の目的のために、本発明は、瞳孔が収縮する際に瞳孔半径の動きが一定の割合(例えば5%以上)を超えた場合には生体を表すと考えられる予め定められた参照値を用いる。瞳孔端もまた、瞳孔の動きを観察するために、取り込まれた虹彩動的イメージから検出されなければならない。現在のところ、対称中心検索アルゴリズムを用いることによって、虹彩のほぼ中心を決定した後に瞳孔端を検出することが可能である。 For this purpose, the present invention provides a predetermined reference value that is considered to represent a living body if the movement of the pupil radius exceeds a certain percentage (for example, 5% or more) when the pupil contracts. Used. Pupil edges must also be detected from the captured iris dynamic image in order to observe pupil movement. At present, it is possible to detect the pupil edge after determining the approximate center of the iris by using a symmetric center search algorithm.
この方法によれば、虹彩イメージをその中心で取り込むことができずに、ある程度右又は左に偏っている場合であっても、エラーを起こすことなく虹彩を同定することが可能である。 According to this method, it is possible to identify the iris without causing an error even if the iris image cannot be captured at the center thereof and is somewhat shifted right or left.
虹彩イメージが同定するためには偏り過ぎている場合には、再度取り込むことができる。また、虹彩イメージではなく他のイメージを取り込んだ場合には、多くの場合において、真のイメージと偽のイメージとを識別することができる。 If the iris image is too biased for identification, it can be captured again. In addition, when another image is captured instead of the iris image, a true image and a false image can be distinguished in many cases.
上記記載の対称中心検索アルゴリズムにおいては、以下の関数F(i)を、イメージの水平線及び垂直線に関して得る。 In the symmetry center search algorithm described above, the following function F (i) is obtained for the horizontal and vertical lines of the image.
かかる場合においては、関数F(i)の絶対値を最小にする定義のドメイン(i)は、対称の中心に存在する。これらの方法を水平線及び垂直線に提供すると、関数F(i)の絶対値を最小にする定義のドメイン(i)が横切る点が対称の中心として設定される。水平線及び垂直線の定義のドメイン(i)が横切らずに散乱する場合、特にこれらが予め定められた範囲から偏向する場合には、これは、取り込まれたイメージが虹彩イメージではないか又は虹彩イメージが右又は左に過度に偏っていることを示し、したがって、この虹彩イメージは、更なる同定を行なう前に再び取り込まなければならない。 In such a case, the definition domain (i) that minimizes the absolute value of the function F (i) exists at the center of symmetry. Applying these methods to the horizontal and vertical lines, the point of intersection of the definition domain (i) that minimizes the absolute value of the function F (i) is set as the center of symmetry. If the domain (i) of the definition of horizontal and vertical lines scatters without traversing, especially if they deviate from a predetermined range, this means that the captured image is not an iris image or an iris image Indicates that the iris image is excessively biased to the right or left, and this iris image must be recaptured before further identification can be performed.
動的イメージが上記の虹彩について取り込まれた場合には、瞳孔及びANWが、フラッシュ光源12bによって収縮及び膨張せしめられる。瞳孔及びANWの動きは同時には起こらず、それぞれの人間によって異なるタイプを示す。このような同時に起こらない動きから得られる瞳孔及びANW反応(図11及び12)からのパラメータが同定のために用いられる。
If a dynamic image is captured for the iris, the pupil and the ANW are contracted and expanded by the
図17を参照すると、ピュピログラム又は瞳孔ヒストグラムによって、時間T0における光のフラッシュに応答する瞳孔の平均収縮及び膨張が示される。縦軸は瞳孔の大きさ又は半径を示し、横軸はT0又は光のフラッシュの時間によって始まる時間を示す。TLは、瞳孔が光のフラッシュに応答して収縮し始める時間であり;TL−T0は瞳孔の応答の潜在時間である。ALは光のフラッシュの前の瞳孔の平均半径である。Tmは瞳孔が最小半径Amに収縮した時間である。瞳孔が収縮するための時間から潜在時間を引いた値がTm−TL又はTPである。T1及びT2は、それぞれ、動的虹彩イメージの40番目及び70番目の時間であり、A1及びA2は、時間T1及びT2における瞳孔の対応する半径である。SPは、TLとTmとの間の瞳孔収縮の速度である。DABは、TLとTmとの間の瞳孔収縮曲線にそった直線距離である。%A1は、T1における瞳孔膨張距離又はA1−Amと、平均瞳孔収縮距離又はAL−Amとの比である。%A2は、T2における瞳孔膨張距離又はA2−Amと、平均瞳孔収縮距離又はAL−Amとの比である。 Referring to FIG. 17, the pupilogram or pupil histogram shows the average pupil contraction and dilation in response to a flash of light at time T0. The vertical axis indicates the size or radius of the pupil, and the horizontal axis indicates the time beginning with T0 or the time of the light flash. TL is the time at which the pupil begins to contract in response to a flash of light; TL-TO is the latency time of the pupil response. AL is the average radius of the pupil before the flash of light. Tm is the time when the pupil contracts to the minimum radius Am. The value obtained by subtracting the latent time from the time for the pupil to contract is Tm-TL or TP. T1 and T2 are the 40th and 70th times of the dynamic iris image, respectively, and A1 and A2 are the corresponding pupil radii at times T1 and T2. SP is the rate of pupil contraction between TL and Tm. DAB is the linear distance along the pupil contraction curve between TL and Tm. % A1 is the ratio of the pupil dilation distance or A1-Am at T1 to the average pupil contraction distance or AL-Am. % A2 is the ratio of the pupil dilation distance or A2-Am at T2 to the average pupil contraction distance or AL-Am.
ドラッグ又はアルコールを用いている人間のピュピログラムは、ドラッグ又はアルコールを使用していない人間のピュピログラムとは異なっているので、ピュピログラムは、個人によるドラッグ及び/又はアルコールの使用を検出するのに用いることができる。ドラッグを用いている人間のピュピログラムは、瞳孔が最小半径に収縮する時間Tmが、標準時間よりもゆっくりになる。アルコールを用いている人間のピュピログラムは、アルコールを用いていない人間と比較して、より平坦になる、即ちDABがアルコールユーザーに関してはより小さくなる。また、%A1及び%A2は、アルコールユーザーに関してはより小さくなる。 Pupilograms can be used to detect drug and / or alcohol use by individuals, as human pupylograms using drugs or alcohol are different from human pupylograms without drugs or alcohol. it can. In a human pupilogram using a drug, the time Tm at which the pupil contracts to the minimum radius becomes slower than the standard time. Pupilograms for humans using alcohol are flatter, ie, the DAB is smaller for alcohol users, compared to humans who do not use alcohol. Also,% A1 and% A2 are smaller for alcohol users.
次に、ANW及び瞳孔形状確認プロセスS117〜S119により、選択された虹彩イメージからANW及び瞳孔を検出し、ANW及び瞳孔の検出された形状に従って同定パラメータを測定することによって、ユーザーの同一性を確かめる。ANW形状は、本発明において、中央軸変換を選択された虹彩イメージ信号に適用して用いることによって、独特に測定される。瞳孔形状は、本発明において、当該技術において公知のように、端検出及び曲線合致アルゴリズムを用いることによって、独特に測定される。 Next, the ANW and pupil shape confirmation processes S117 to S119 detect the ANW and the pupil from the selected iris image, and measure the identification parameters according to the detected shapes of the ANW and the pupil to confirm the identity of the user. . The ANW shape is uniquely measured in the present invention by using a central axis transform applied to the selected iris image signal. Pupil shape is uniquely measured in the present invention by using edge detection and curve matching algorithms, as is known in the art.
更に、本発明のそれぞれの態様においては、ANW及び瞳孔確認プロセスは、以下の工程から構成することができる:ステップA117(図10B及び10C)により、選択された虹彩イメージ信号からANW及び瞳孔を検出し;ステップS118により、検出されたANWの二次元イメージ信号を中央軸変換によって変換し、瞳孔の形状を上記記載のように端検出及び曲線合致アルゴリズムによって変換することによってANWの形状に基づいて同定パラメータをコンピュータ算出し;ステップS119及びS120により、データベースから対応する同定パラメータを検索することによってユーザーの同一性を確かめる。 Furthermore, in each aspect of the present invention, the ANW and pupil identification process may comprise the following steps: Step A117 (FIGS. 10B and 10C) detects ANW and pupil from the selected iris image signal. In step S118, the detected ANW two-dimensional image signal is converted by the center axis conversion, and the pupil shape is converted by the edge detection and curve matching algorithm as described above, thereby identifying based on the shape of the ANW. The parameters are computed by computer; steps S119 and S120 confirm the identity of the user by searching the database for the corresponding identification parameters.
図13は、虹彩イメージから検出された端を表すANW10b及びくぼみ10dの例示図であり、図14は、中央軸変換によって変換された一次元データでの、図13において示されるANW10b及びくぼみ10dの例示図である。特定の形状を有する対象の中央軸変換は、例えば、二点以上において対象の境界に接する円の中心の位置である。言い換えれば、これは、対象の境界から最も近接する点の位置である。したがって、二次元対象を中央軸変換によって一次元データに変換することが可能であるので、これを、ANW形状及び瞳孔の形状及び位置を同定するために適用することができる。
FIG. 13 is a view showing an example of the
図18は、形状、位置及び同定パラメータを示す瞳孔及び虹彩の例示図である。瞳孔の形状は、本発明において、当該技術において公知の端検出アルゴリズムを用いて、独特に測定される。瞳孔端は、概して、図18において参照記号10aによって示される。更に、図18において参照記号10i及び10hによってそれぞれ示される虹彩及び瞳孔の中心は、ジオメトリーによって測定され、同定パラメータとして用いられる。概して参照記号10jによって示される虹彩中心と瞳孔中心との間の分離方向及び距離は、同定パラメータとして用いられる。
FIG. 18 is an exemplary diagram of a pupil and an iris showing a shape, a position, and identification parameters. Pupil shape is uniquely measured in the present invention using edge detection algorithms known in the art. The pupil end is generally indicated by
更に、多くの瞳孔は完全には円形の形状ではなく、多くは、楕円長軸の方向に偏差する楕円である。好ましい態様においては、瞳孔の楕円度の配向及び大きさは、本発明において、当該技術において公知の曲線及び形状合致アルゴリズムを用いて、独特に測定される。図18を参照すると、瞳孔楕円の長軸及び短軸は、それぞれ、参照記号10m及び10nによって示される。瞳孔の楕円度は、短軸10nと長軸10mとの比として表される。図18において概して参照記号10fによって示される瞳孔の周縁に沿った平坦部分、並びにそれぞれ10g及び10eによって示される瞳孔が凹んだり膨らんだりしている領域を認識及び特徴付けて、更なる同定パラメータとして認識の質を向上させることができる。
Furthermore, many pupils are not perfectly circular in shape, but many are ellipses that deviate in the direction of the major axis of the ellipse. In a preferred embodiment, the orientation and magnitude of the pupil ellipticity is uniquely measured in the present invention using curve and shape matching algorithms known in the art. Referring to FIG. 18, the major and minor axes of the pupil ellipse are indicated by
また、くぼみ確認プロセスS121〜S127を用いて、くぼみが存在しているか否かを判断し、くぼみが存在している場合にはそのゾーンを検出し、次に、検出されたくぼみの位置及び形状に基づいて同定パラメータを測定することによって、ユーザーの同一性を確かめる。 Further, it is determined whether or not a dent exists using the dent confirmation processes S121 to S127. If the dent exists, the zone is detected. Then, the position and shape of the detected dent are determined. The identity of the user is ascertained by measuring the identification parameters based on
更に、本発明による虹彩同定法においては、図10Cに示される以下の複数の工程の少なくとも一つを含ませることによって、くぼみ確認プロセスを上記の態様に適用することができる。即ち、第1のくぼみ確認プロセスS121を行ない、次に、ステップS125〜S129により、獲得された虹彩の選択された静止イメージに基づいてくぼみが存在しているかどうかを判断することによってユーザーの同一性を確かめ、次に、くぼみが存在している場合にはくぼみのイメージ信号を中央軸変換によって変換し、変換結果からのくぼみの位置及び形状に基づいて同定パラメータを測定する。第2のくぼみ確認プロセスS122〜S124は、第1のくぼみ確認プロセスの結果としてくぼみが存在していない場合に行なわれ、参照虹彩中にくぼみが存在しているかどうかを再び判断した後に参照虹彩中にくぼみがない場合にはユーザーは許可され、逆に参照虹彩中にくぼみが存在する場合にはユーザーは拒絶される。 Further, in the iris identification method according to the present invention, the indentation confirmation process can be applied to the above-described embodiment by including at least one of the following multiple steps shown in FIG. 10C. That is, a first dimple confirmation process S121 is performed, and then, according to steps S125 to S129, the identity of the user is determined by determining whether a dimple exists based on the selected still image of the acquired iris. Then, if a dent exists, the image signal of the dent is converted by central axis conversion, and the identification parameter is measured based on the position and shape of the dent from the conversion result. The second indentation confirmation processes S122 to S124 are performed when no indentation exists as a result of the first indentation confirmation process. After it is determined again whether or not the indentation exists in the reference iris, the second indentation confirmation process S122 to S124 is performed. If there are no depressions, the user is allowed; conversely, if there is a depression in the reference iris, the user is rejected.
更に、本発明のそれぞれの態様においては、第1のくぼみ確認プロセスは、以下の工程から構成することができる:ステップS121(図10C)により、獲得された虹彩の静止イメージ信号から虹彩イメージの端を検出することによってくぼみが存在しているか否かを判断し;判断ステップの結果としてくぼみが存在している場合には、ステップS125によりくぼみゾーンを検出し;ステップS126により、検出されたくぼみゾーンの二次元イメージ信号を中央軸変換によって変換した後にくぼみの形状及び位置に基づいて同定パラメータをコンピュータ算出し;ステップS127〜S129により、データベースから対応するパラメータを検索することによってユーザーの同一性を確かめる。 Further, in each aspect of the present invention, the first dip identification process may comprise the following steps: Step S121 (FIG. 10C), from the acquired iris still image signal, obtains the edge of the iris image. Is detected to determine whether or not a dent exists; if a dent is present as a result of the determination step, the dent zone is detected in step S125; and the detected dent zone is determined in step S126. After the two-dimensional image signal is converted by the central axis conversion, the identification parameters are computer-calculated based on the shape and position of the hollow; in steps S127 to S129, the identity of the user is confirmed by searching the database for the corresponding parameters. .
更に、本発明のそれぞれの態様においては、第2のくぼみ確認プロセスは、以下の工程から構成することができる:ステップS121により、入力イメージ中にくぼみが存在しているかどうかを判断し;ステップS122により、入力イメージ中にくぼみが存在していない場合には参照虹彩中にくぼみが存在しているかどうかを再び判断し;ステップS123により、くぼみが参照虹彩中に存在していない場合には許可し、ステップS124により、参照虹彩中にくぼみが存在している場合には拒絶する。 Further, in each aspect of the present invention, the second indentation confirmation process may comprise the following steps: Step S121 determines whether an indentation is present in the input image; Step S122. Then, if there is no depression in the input image, it is determined again whether or not there is a depression in the reference iris; in step S123, if the depression is not present in the reference iris, permission is given. If there is a depression in the reference iris in step S124, the rejection is made.
上記のように構成された本発明の操作及び本発明によって達成される効果について、実施例を用いることによって以下に説明する。 The operation of the present invention configured as described above and the effects achieved by the present invention will be described below using examples.
まず、カード読み取りユニット40又はキー入力ユニット50により、カード番号を読み取るか、或いはユーザーのPINをキー打ちによって入力する。カード番号及びPIN確認プロセスを行なって、制御ユニット70中のデータ蓄積ユニット80においてカード番号及びPINを検索することによって対応する番号が存在するかどうかを測定する。
First, the card number is read by the
対応する番号がない場合には、ユーザーは同定できないユーザーとして拒絶される。対応する番号が見出された場合には、次に制御ユニット70によリユーザーが同定できるユーザーとして許可され、次に、カード番号又はPINに対応する更なる個人情報を読み取った後に、制御信号をモータ駆動ユニット30に送って、カメラ高さをユーザーに適するように調節する。この時点において、制御信号は、現在のカメラ位置とユーザーに適したカメラ位置との間の高さの差を比較して、次にモータを前進又は逆進方向に駆動することによってカメラ高さを自動的に調節する。更に、二つの目の間の幅もまた、それぞれのユーザーに関して調節することができる。
If there is no corresponding number, the user is rejected as an unidentified user. If a corresponding number is found, then the
次に、制御ユニット70により、虹彩イメージピックアップユニット20を制御することによって赤外光源12aを点灯することにより、最初のオートフォーカスの調節が行なわれる。ユーザーは、視野誘導光源17を点灯することによって視野ポインター18に導かれて、虹彩イメージが位置方向に偏ることが防止される。したがって、虹彩イメージを取り込む際には、取り込まれる人間の虹彩イメージの視野が、誘導光源17(即ち淡青色の光源)によってレンズの中心部分に固定される。
Next, the
虹彩動的イメージは、短いサイクルでフラッシュ光源12bを操作しながら数秒間とられる。次に全ての光源が消される。虹彩イメージは、所定のソフトウェアによって短時間に制御されたフラッシュ光源12bによって瞳孔及びANWの変化する形状を示すようにとられなければならない。この目的のために、本発明においては1秒当たり25フレームを超える虹彩イメージがとられる。
The iris dynamic image is taken for a few seconds while operating the
上記記載のように取り込まれた虹彩の連続イメージは、データ処理ユニット60において予備処理される。次に、虹彩分析に適したゾーンが選択された後に、対応するゾーンのイメージ信号が選択される。好ましい態様においては、分析は、上記に詳細に説明したスペクトル変換の可変マルチセクターシステムにしたがって、セクター毎に行なわれる。他の態様においては、虹彩を分析するために用いられるゾーンは、図8において示される全瞳孔を含む水平方向のストリップ状の領域、即ち明確に視認される部分である。なぜならば、これは、同定される人間の睫、瞼などによって影響されないからである。
The continuous image of the iris captured as described above is pre-processed in the
制御ユニット70は、虹彩繊維構造確認プロセスを行なって、上記に詳細に説明したように、選択された低周波数成分のみを用いることによって、ユーザーの同一性を確かめる。
The
次に、制御ユニット70において、瞳孔及びANW反応確認プロセスが行なわれ、瞳孔動的イメージから瞳孔及びANWの反応を分析した後に、瞳孔及びANWの収縮及び膨張がフラッシュ光源12bによって引き起こされた場合には生体を表すものとして取り込まれたイメージが許可され、動きがない場合には生体を表さないものとして取り込まれたイメージが拒絶される。
Next, in the
続いて、ANW及び瞳孔形状確認プロセスが制御ユニット70により行なわれ、選択された静止虹彩イメージからのそれぞれの人間において異なる特性を有するANWゾーンの二次元イメージ信号を上記記載の中央軸変換(又はガラスファイヤ法)によって一次元データに変換することによって、ANW及び瞳孔形状に基づいて個人の同一性を確かめる。上記記載のような瞳孔の特定の特徴もまた、同定され比較される。
Subsequently, an ANW and pupil shape confirmation process is performed by the
次に、第1及び第2のくぼみ確認プロセスが制御ユニット70により行なわれ、くぼみが存在するか否か、並びにくぼみが存在する場合にはその位置及び形状を同定する同定法によってユーザーの同一性が最終的に確かめられる。ANWの中央軸変換の結果において示されるように、くぼみは、イメージ処理プロセスにより図13及び図14の選択された虹彩静止イメージから抽出され、くぼみ形状が端検出により明確に認められた場合には中央軸変換により一次元データの形状及び位置を表すことによって、くぼみの形状及び位置が同定パラメータとして用いられる。
Next, the first and second depression confirmation processes are performed by the
したがって、本発明は、虹彩繊維構造及びテキスチャー形態、光に応答する瞳孔及びANW反応、ANW及び瞳孔の形状、虹彩動的イメージから獲得されたくぼみの存在、形状及び位置を用いて多数の虹彩同定のためのパラメータを測定することによって、生存人間の虹彩を、偽造を防ぎ迅速に且つ正確に同定することにより、特定の人間を識別する方法を提供するので、バンキングシステム及び電子処理/決算システムに適用した場合には金銭的な事故を防ぎ、アクセス制御システムに適用した場合にはセキュリティーに関連する事故を排除することができるという、数多くの有利性を有する。 Accordingly, the present invention provides a method for identifying multiple irises using iris fiber structure and texture morphology, pupil and ANW response to light, ANW and pupil shape, the presence, shape and location of dimples obtained from iris dynamic images. Banking and electronic processing / closing systems by providing a method of identifying specific humans by measuring the parameters for the identification of surviving human irises quickly and accurately by preventing counterfeiting. It has a number of advantages in that it can prevent financial accidents when applied and can eliminate security-related incidents when applied to access control systems.
Claims (2)
(a)生存動物を同定する同定情報を受容するための制御ユニット、及び、同定情報と比較するための同定可能な生体に関係する予め定められた個人情報を包含するための、制御ユニットによってアクセスされるデータベースを含むデータ蓄積ユニット;
(b)同定情報が予め定められた情報に対応する場合に、虹彩イメージを取り込んで入力イメージ信号を生成させるために制御ユニットによって操作されるカメラを含む虹彩イメージピックアップユニット;及び
(c)入力イメージ信号を処理データに予備処理するためのデータ処理ユニット;を含み、
前記蓄積ユニットが、(1)周波数変換法を用いた虹彩繊維構造の密度及びテキスチャー形態、(2)瞳孔反応、(3)瞳孔の形状、(4)自律神経環反応、(5)自律神経環の形状、(6)くぼみの存在、(7)くぼみの位置、及び(8)くぼみの形状、からなる群から選択される、同定可能な生体に関する、予め蓄積された虹彩同定のための複数のパラメータのうちの少なくとも瞳孔の形状に関するパラメータを含み、
前記制御ユニットが、処理されたデータと前記パラメータとを比較して、同一性が確認されたことを示す一致性を有するかどうかを決定するように操作し得、また、
データ処理ユニットは、瞳孔の形状に関するパラメータの処理データを生成するに際して、虹彩のほぼ中心を決定した後に瞳孔端を検出するアルゴリズムを用いて測定することを特徴とする虹彩同定システム。 A system for confirming the identity of living animals by iris scanning, comprising the following elements:
(A) a control unit for receiving identification information identifying a living animal, and access by the control unit for including predetermined personal information relating to an identifiable organism for comparison with the identification information; Data storage unit containing the database to be created;
(B) an iris image pickup unit including a camera operated by a control unit to capture an iris image and generate an input image signal when the identification information corresponds to predetermined information; and (c) the input image A data processing unit for pre-processing the signal into processed data;
The storage unit comprises: (1) density and texture of the iris fiber structure using a frequency conversion method, (2) pupil reaction, (3) pupil shape, (4) autonomic nervous ring reaction, (5) autonomic nervous ring. A plurality of pre-stored iris identifications for an identifiable organism selected from the group consisting of: (6) the presence of a depression, (7) the position of the depression, and (8) the shape of the depression. Including at least one of the parameters related to the shape of the pupil,
The control unit may be operable to compare the processed data to the parameter to determine if there is a match indicating that identity has been confirmed; and
The iris identification system, wherein the data processing unit generates the processing data of the parameters related to the shape of the pupil, and determines the approximate center of the iris and then measures the iris using an algorithm for detecting the pupil end.
(a)生存動物を同定する同定情報を受容するための制御ユニット、及び、同定情報と比較するための同定可能な生体に関係する予め定められた個人情報を包含するための、制御ユニットによってアクセスされるデータベースを含むデータ蓄積ユニット;
(b)同定情報が予め定められた情報に対応する場合に、虹彩イメージを取り込んで入力イメージ信号を生成させるために制御ユニットによって操作されるカメラを含む虹彩イメージピックアップユニット;及び
(c)入力イメージ信号を処理データに予備処理するためのデータ処理ユニット;を含み、
前記蓄積ユニットが、(1)周波数変換法を用いた虹彩繊維構造の密度及びテキスチャー形態、(2)瞳孔反応、(3)瞳孔の形状、(4)自律神経環反応、(5)自律神経環の形状、(6)くぼみの存在、(7)くぼみの位置、及び(8)くぼみの形状、からなる群から選択される、同定可能な生体に関する、予め蓄積された虹彩同定のための複数のパラメータのうちの少なくとも一つを含み、
前記制御ユニットが、処理されたデータと前記パラメータとを比較して、同一性が確認されたことを示す一致性を有するかどうかを決定するように操作し得、また、
データ処理ユニットは、前記パラメータに関する処理データを生成するに際して、
前記周波数変換法を用いた虹彩繊維構造の密度及びテキスチャー形態についてのパラメータに関しては、虹彩イメージ分析に適したゾーンを選択し、二次元Wavelet変換によって選択されたゾーンの選択された静止イメージ信号を変換して測定し、
前記瞳孔反応および自律神経環反応についてのパラメータに関しては、光を瞳孔に当てたときの時間変動に伴う瞳孔の径および自律神経環の径を測定し、
瞳孔の形状についてのパラメータに関しては、虹彩のほぼ中心を決定した後に瞳孔端を検出するアルゴリズムを用いて測定し、
自律神経環の形状についてのパラメータに関しては、検出された自律神経環の二次元イメージ信号を中央軸変換によって変換して測定し、
くぼみの存在およびくぼみの位置についてのパラメータに関しては、くぼみが存在しているゾーンを検出し
くぼみの形状についてのパラメータに関しては、検出されたくぼみゾーンの二次元イメージ信号を中央軸変換によって変換して測定することを特徴とする虹彩同定システム。 A system for confirming the identity of living animals by iris scanning, comprising the following elements:
(A) a control unit for receiving identification information identifying a living animal, and access by the control unit for including predetermined personal information relating to an identifiable organism for comparison with the identification information; Data storage unit containing the database to be created;
(B) an iris image pickup unit including a camera operated by a control unit to capture an iris image and generate an input image signal when the identification information corresponds to predetermined information; and (c) the input image A data processing unit for pre-processing the signal into processed data;
The storage unit comprises: (1) density and texture of the iris fiber structure using a frequency conversion method, (2) pupil reaction, (3) pupil shape, (4) autonomic nervous ring reaction, (5) autonomic nervous ring. A plurality of pre-stored iris identifications for an identifiable organism selected from the group consisting of: (6) the presence of a depression, (7) the position of the depression, and (8) the shape of the depression. Including at least one of the parameters,
The control unit may be operable to compare the processed data to the parameter to determine if there is a match indicating that identity has been confirmed; and
The data processing unit generates processing data related to the parameter,
Regarding the parameters regarding the density and texture form of the iris fiber structure using the frequency conversion method, a zone suitable for iris image analysis is selected, and a selected still image signal of the selected zone is converted by a two-dimensional Wavelet transform. And measure,
For the parameters of the pupil reaction and the autonomic nervous ring reaction, the diameter of the pupil and the diameter of the autonomic nervous ring with time variation when light is applied to the pupil,
For parameters about the shape of the pupil, measured using an algorithm that detects the pupil edge after determining the approximate center of the iris,
For the parameters about the shape of the autonomic nervous ring, the two-dimensional image signal of the detected autonomic nervous ring is converted and measured by central axis conversion,
Regarding the parameters for the presence of the depression and the position of the depression, the zone in which the depression is present is detected.For the parameter for the shape of the depression, the two-dimensional image signal of the detected depression zone is transformed by central axis transformation. An iris identification system characterized by measuring.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004205266A JP2004288221A (en) | 1999-04-09 | 2004-07-12 | Iris identification system |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR19990012439 | 1999-04-09 | ||
KR19990012440 | 1999-04-09 | ||
KR1019990012438A KR100356600B1 (en) | 1999-04-09 | 1999-04-09 | A Method For Identifying The Iris Of Persons Based On The Shape Of Lacuna And/Or Autonomous Nervous Wreath |
JP35061299 | 1999-11-05 | ||
JP2004205266A JP2004288221A (en) | 1999-04-09 | 2004-07-12 | Iris identification system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001146516A Division JP4006192B2 (en) | 1999-04-09 | 2001-05-16 | Iris recognition system and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004288221A true JP2004288221A (en) | 2004-10-14 |
Family
ID=33304145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004205266A Pending JP2004288221A (en) | 1999-04-09 | 2004-07-12 | Iris identification system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004288221A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101344913B (en) * | 2007-07-10 | 2011-11-09 | 电子科技大学中山学院 | Method for carrying out identity recognition by extracting iris texture features |
US8189879B2 (en) | 2008-02-14 | 2012-05-29 | Iristrac, Llc | System and method for animal identification using IRIS images |
-
2004
- 2004-07-12 JP JP2004205266A patent/JP2004288221A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101344913B (en) * | 2007-07-10 | 2011-11-09 | 电子科技大学中山学院 | Method for carrying out identity recognition by extracting iris texture features |
US8189879B2 (en) | 2008-02-14 | 2012-05-29 | Iristrac, Llc | System and method for animal identification using IRIS images |
US8315440B2 (en) | 2008-02-14 | 2012-11-20 | Iristrac, Llc | System and method for animal identification using iris images |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1093633B1 (en) | Iris identification system and method of identifying a person through iris recognition | |
US8644562B2 (en) | Multimodal ocular biometric system and methods | |
EP0215818B1 (en) | Iris recognition system | |
CN100403981C (en) | Positive patient identification | |
JP2008529164A (en) | Iris recognition system and method | |
CN110929570B (en) | Iris rapid positioning device and positioning method thereof | |
JP4006192B2 (en) | Iris recognition system and method | |
JP2001195594A (en) | Iris identifying system and method of identifying person by iris recognition | |
KR20030034258A (en) | Identification system and method using iris and retina, and media that can record computer program sources thereof | |
KR20010006975A (en) | A method for identifying the iris of persons based on the reaction of the pupil and autonomous nervous wreath | |
US7881503B2 (en) | Corneal biometry apparatus and method | |
KR20010006976A (en) | A system for identifying the iris of persons | |
JP4619384B2 (en) | Iris identification system | |
JP2004288221A (en) | Iris identification system | |
KR100356600B1 (en) | A Method For Identifying The Iris Of Persons Based On The Shape Of Lacuna And/Or Autonomous Nervous Wreath | |
KR20060105272A (en) | Interpretation method of eyeball image using adaboost algorithm | |
KR100924271B1 (en) | Identification system and method using a iris, and media that can record computer program sources thereof | |
Wai et al. | Software Implementation of Iris Recognition System using MATLAB | |
JP2008515066A (en) | Corneal biometric authentication | |
CN117860189A (en) | Pupil detection method, pupil detection device, electronic equipment and computer readable storage medium | |
KR20240022161A (en) | Face Information Updating Method for Access Control System Complising Face Recognition Function, and Face Recognition Apparatus therefor | |
Shrimal et al. | IRIS identification based on multilayer feed forward neural network | |
KR20060105273A (en) | Eyeball position finding system using eye image dispersion and method of finding eyeball position |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20040713 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060131 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060620 |