JP2004288221A - Iris identification system - Google Patents

Iris identification system Download PDF

Info

Publication number
JP2004288221A
JP2004288221A JP2004205266A JP2004205266A JP2004288221A JP 2004288221 A JP2004288221 A JP 2004288221A JP 2004205266 A JP2004205266 A JP 2004205266A JP 2004205266 A JP2004205266 A JP 2004205266A JP 2004288221 A JP2004288221 A JP 2004288221A
Authority
JP
Japan
Prior art keywords
iris
pupil
shape
depression
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004205266A
Other languages
Japanese (ja)
Inventor
Dae-Hoon Kim
大勲 金
Ryoo Jang-Soo
チャンソ,リュウ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iritech Inc
Original Assignee
Iritech Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1019990012438A external-priority patent/KR100356600B1/en
Application filed by Iritech Inc filed Critical Iritech Inc
Priority to JP2004205266A priority Critical patent/JP2004288221A/en
Publication of JP2004288221A publication Critical patent/JP2004288221A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an iris identification system and method for identifying the identity of a living animal by iris identification. <P>SOLUTION: The iris identification system comprises a control unit 70 interfaced with a data processing unit 60 for preliminarily processing an input image signal to a process data. The processed data shows one of a plurality of parameters for iris identification selected from a group including (1) density and texture pattern of iris fibrous structure using frequency conversion method, (2) pupillary reaction, (3) shape of pupil, (4) autonomic nerve ring reaction, (5) shape of autonomic nerve ring, (6) presence of recess, (7) position of recess, and (8) shape of recess. The control unit compares the processed data with the parameters preliminarily stored in the database to recognize the identity. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、虹彩同定システム、及び虹彩イメージを用いることによって生体の同一性を確認する方法に関する。より詳しくは、本発明は、虹彩繊維構造、自律神経環(ANW)及び瞳孔の形状並びに光に対するその自発反応、並びに虹彩イメージからのくぼみの存在、形状及び位置に関する1以上の同定パラメータを測定することによる虹彩同定法に関する。   The present invention relates to an iris identification system and a method for confirming the identity of a living body by using an iris image. More specifically, the present invention measures the iris fiber structure, the shape of the autonomic nerve ring (ANW) and the pupil and its spontaneous response to light, and one or more identifying parameters relating to the presence, shape and location of indentations from the iris image. Iris identification method.

特定の人間を同定するための公知の虹彩同定システムは、比較の結果にしたがって特定の人間を許容又は拒絶するために、人間の眼からとった虹彩部分のイメージ信号からの虹彩コードを、データベースから検索した対応する虹彩情報と比較する。この従来の虹彩同定システムは、しかしながら、許容し得る高レベルの同定の正確性には達していない(特許文献1参照)。
特開平11−15972号公報
Known iris identification systems for identifying particular humans use an iris code from a database of iris image signals taken from the human eye to allow or reject particular humans according to the results of the comparison. Compare with the searched corresponding iris information. This conventional iris identification system, however, does not achieve an acceptable high level of identification accuracy (see US Pat. No. 6,037,059).
JP-A-11-15972

更に、種々の虹彩同定システムは、生存する人間の真の虹彩を観察しているかどうかを識別する点で制限を有しているので、捏造された虹彩イメージを誤って同定する高いリスクのために、バンキングシステム、電子決算システムなどのようなシステムと共に安全に用いることはできない。   In addition, because various iris identification systems have limitations in identifying whether or not a living human is observing the true iris, the high risk of falsely identifying a forged iris image may result. It cannot be used safely with systems such as banking systems, electronic settlement systems, and the like.

本発明の目的は、高レベルの正確性を有する虹彩認識システムを用いて個人の同一性を確認することである。他の目的は、虹彩に関連する多数の特性の分析によって、高いレベルの同定の正確性を達成することである。   It is an object of the present invention to identify individuals using an iris recognition system having a high level of accuracy. Another object is to achieve a high level of identification accuracy by analyzing a number of properties associated with the iris.

したがつて、本発明の一つの目的は、虹彩イメージ、光によって生起する瞳孔及び自律神経環の反応、自律神経環及び瞳孔の形状、並びにくぼみの存在、位置及び形状から得ることのできる虹彩繊維構造にしたがった複数の虹彩同定パラメータを測定することによって、生体の虹彩を迅速且つ明確に同定することである。   Thus, one object of the present invention is to provide an iris image, the response of the pupil and the autonomic nerve ring caused by light, the shape of the autonomic nerve ring and the pupil, and the iris fibers obtainable from the presence, location and shape of the depression. It is to quickly and unambiguously identify a living iris by measuring a plurality of iris identification parameters according to the structure.

本発明にしたがって虹彩走査により生存動物の同一性を確認するためのシステムは、生存動物を同定する同定情報を受容するための制御ユニット、及び、同定情報と比較するための同定可能な生体に関係する予め定められた個人情報を包含するための、制御ユニットによってアクセスされるデータベースを含むデータ蓄積ユニットを含む。カメラを含む虹彩イメージピックアップユニットは、同定情報が予め定められた情報に対応する場合に、まず虹彩イメージを取り込んで入力イメージ信号を生成させるために制御ユニットによって操作される。データ処理ユニットは、入力イメージ信号を処理データに予備処理する。蓄積ユニットは、それぞれの同定可能な生体に関して、(1)周波数変換法を用いた虹彩繊維構造の密度及びテキスチャー形態、(2)瞳孔反応、(3)瞳孔の形状、(4)自律神経環反応、(5)自律神経環の形状、(6)くぼみの存在、(7)くぼみの位置、及び(8)くぼみの形状、からなる群から選択される、予め蓄積された虹彩同定のための複数のパラメータのうちの少なくとも一つを含む。制御ユニットは、処理されたデータとパラメータとを比較して、同一性が確認されたことを示す一致性があるかどうかを測定するように操作することができる。   A system for confirming the identity of a living animal by iris scanning according to the present invention relates to a control unit for receiving identification information identifying a living animal, and an identifiable organism for comparison with the identification information. A data storage unit including a database accessed by the control unit for containing predetermined personal information. An iris image pickup unit including a camera is operated by a control unit to first capture an iris image and generate an input image signal when the identification information corresponds to predetermined information. The data processing unit pre-processes the input image signal into processed data. For each identifiable living body, the storage unit comprises: (1) density and texture morphology of the iris fiber structure using the frequency conversion method; (2) pupil response; (3) pupil shape; , (5) the shape of the autonomic nerve ring, (6) the presence of the depression, (7) the position of the depression, and (8) the shape of the depression. At least one of the following parameters: The control unit may be operable to compare the processed data with the parameters to determine whether there is a match indicating that the identity has been confirmed.

本発明の好ましい態様によれば、カメラは、生存動物の両方の眼を撮影するように形成されている。データ処理ユニットは、イメージ入力信号を、それぞれの眼を表す処理データに別々に処理する。この方法においては、虹彩走査によって生存動物の同一性を確認するためのより高いレベルの同定正確性が得られる。   According to a preferred aspect of the present invention, the camera is configured to image both eyes of a living animal. The data processing unit separately processes the image input signal into processing data representing each eye. In this way, a higher level of identification accuracy is obtained by iris scanning to confirm the identity of the surviving animal.

同定システムにアクセスするためには、まず同定される生体が同定情報をシステム中入力する。ある態様においては、同定情報データは、PIN(個人同定番号)又は幾つかの他の独特の同定情報を用いてシステムにアクセスする、カード読み取りユニット、キー入力ユニットなどを用いて入力することができる。また、音声始動システムを用いることもできる。   To access the identification system, the organism to be identified first enters identification information into the system. In some embodiments, the identification information data can be entered using a card reading unit, key entry unit, etc., that accesses the system using a PIN (Personal Identification Number) or some other unique identification information. . Also, a voice activation system can be used.

虹彩イメージピックアップユニットは、好ましくは、カメラと連動して制御ユニットによって操作され、連続して複数の虹彩イメージを取り込んで入力イメージ信号を生成させるための光源を含む。眼を照射することによって、虹彩が収縮することが認められ、したがって、連続イメージによって、システムが虹彩の収縮、及び所望の場合には引き続く虹彩の膨張を取り込むことが可能になる。光源は、好ましくは赤外光源である。   The iris image pickup unit is preferably operated by the control unit in conjunction with the camera and includes a light source for capturing a plurality of iris images in succession and generating an input image signal. By illuminating the eye, it is noted that the iris contracts, and therefore, a continuous image allows the system to capture the iris contraction and, if desired, the subsequent iris dilation. The light source is preferably an infrared light source.

本発明の他の独特の特徴によれば、システムは、位置決めデータに翻訳されたユーザーの体格の特性を含むデータベース中の予め定められた個人情報にアクセスすることに基づいて、カメラをユーザーの眼と自動的に整列させることを可能にするための、虹彩イメージピックアップユニットと制御ユニットとのインターフェースを有することを特徴とする。   In accordance with another unique feature of the present invention, a system is provided for controlling a camera based on accessing predetermined personal information in a database including characteristics of a user's physique translated into positioning data. And an interface between the iris image pickup unit and the control unit to enable automatic alignment.

上記に記載したように、システムは、好ましくは、虹彩特性に帰することのできる異なるパラメータを分析する能力を有する。しかしながら、本発明は、上記記載のプロセスパラメータ又は全パラメータセット以下のプロセスパラメータのサブセットの一つのみをスクリーニング及び分析することによって、ユーザーの同一性を確認するように操作することができる。   As described above, the system preferably has the ability to analyze different parameters that can be attributed to iris characteristics. However, the present invention can be operated to confirm the identity of the user by screening and analyzing only one of the above described process parameters or a subset of the process parameters below the entire parameter set.

虹彩繊維構造の密度及びテキスチャー形態を分析するために用いられる独特の方法は、好ましくは、Haar変換を用いる周波数変換法を含む。現在のところ好ましい態様によれば、本発明は、Haar変換関数を用いてスペクトル変換の可変マルチセクターシステムを与える。この独特の方法によれば、虹彩イメージの選択された一つを、複数のセクターに分割し、それぞれのセクターに関して多数のHaar関数係数を算出する。このスペクトル分析のマルチセクターシステムによって、有利に、例えば、瞼、睫などによる欠陥又は干渉の存在によって引き起こされる干渉によって歪曲される虹彩のあるセクターを排除することが可能になる。これらの欠陥は、高い周波数係数の生成及び隣接するセクターの係数との間の予め定められた鋭利な変動によって明確にされる。したがって、隣接するセクターごとの分析によって、Haar変換を虹彩認識技術に適用することが可能になる。   The unique methods used to analyze the density and texture morphology of the iris fiber structure preferably include frequency conversion methods using the Haar transform. According to a presently preferred aspect, the present invention provides a variable multi-sector system for spectral transformation using a Haar transform function. According to this unique method, a selected one of the iris images is divided into a plurality of sectors and a number of Haar function coefficients are calculated for each sector. This multi-sector system of spectral analysis advantageously makes it possible to eliminate sectors with irises that are distorted by interference caused by the presence of defects or interferences, for example by eyelids, eyelashes and the like. These deficiencies are clarified by the generation of high frequency coefficients and predetermined sharp variations between adjacent sector coefficients. Therefore, the analysis for each adjacent sector makes it possible to apply the Haar transform to the iris recognition technology.

Haar変換を用いると、選択された低周波数ゾーンを表すHaar係数を選択することと好ましく組み合わせて、先例のない高いレベルの認識正確性を有する虹彩参照記録を生成することが可能である。   Using the Haar transform, it is possible to produce an iris reference record with an unprecedented high level of recognition accuracy, preferably in combination with selecting Haar coefficients representing the selected low frequency zone.

本発明は、一態様においては、連続した一連の虹彩イメージを用いて、時間当たりの虹彩の収縮及び膨張を示す曲線によって表される瞳孔ヒストグラム又はピュピログラム(pupillogram)を生成する。本発明は、同定正確性を向上させるための更なる手段としてその勾配変化を分析することにより、ピュピログラムを分析するための新規な技術を提供する。本発明は、また、同定正確性を向上させるための更なる手段として瞳孔の境界、形状及び位置を分析することを特徴とする。   The present invention, in one aspect, uses a series of iris images to generate a pupil histogram or pupilogram represented by curves representing iris contraction and dilation over time. The present invention provides a novel technique for analyzing pupilograms by analyzing the gradient change as a further means to improve identification accuracy. The invention is also characterized by analyzing the pupil boundary, shape and position as a further means for improving identification accuracy.

本発明は、また、自律神経環の形状及び反応、並びに存在する場合には、同定正確性を向上させるための更なる手段として、くぼみの存在、位置及び形状に関する情報を処理する。   The present invention also processes information about the presence, location and shape of the indentation as a further means to improve the shape and response of the autonomic nervous ring and, if present, the identification accuracy.

本発明は、また、システムのための上述の虹彩同定パラメータを分析することを意図し且つそれを可能にし、これを虹彩同定以外に用いる。例えば、ドラッグ又はアルコールの存在又は使用に関して個人を試験するためのシステムを形成することも本発明の範囲内である。すなわち、本発明は、以下の態様を含む。
1.人間内のドラッグ又はアルコールの存在に関して試験するためのシステムであって、以下の要素:
(a)生存動物を同定する同定情報を受容するための制御ユニット;
(b)虹彩イメージを取り込んで入力イメージ信号を生成させるための、制御ユニットによって操作されるカメラを含む虹彩イメージピックアップユニット;
(c)入力イメージ信号を処理データに予備処理するためのデータ処理ユニット;を含み、前記制御ユニットが、前記入力イメージ信号の処理の結果として得られた処理データを、時間当たりの光刺激に応答する虹彩瞳孔の平均収縮及び膨張を表すように計算して、それによって、人間がアルコール又はドラッグに中毒している場合と人間がアルコール又はドラッグを含んでいない場合とを比較して、ピュピログラムの曲線の形状が異なっているために、処理データが現在又は過去の中毒の指標となるかどうかを決定するように操作し得る前記システム。
2.人間の体内におけるドラッグ又はアルコールの少なくとも一つの存在に関して試験するための方法であって、
(a)人間の虹彩及び瞳孔の実質的に同じ部分の複数のイメージを異なる時間において得て;
(b)前記複数のイメージを瞳孔ヒストグラムに処理し;
(c)ステップ(b)において処理された前記瞳孔ヒストグラムの特性を算出し;そして
(d)前記比較ステップ(c)に基づいて、ドラッグ又はアルコールの少なくとも一つの存在を確認する;ステップを含むことを特徴とする前記方法。
3.前記瞳孔ヒストグラムに関連する曲線の平坦度特性が、ドラッグ及びアルコールの少なくとも一つの存在を表す上記第2項に記載の方法。このタイプのシステムにおいては、生存動物を同定する同定情報を受容するための制御ユニット、及び同定情報と比較するために同定可能な生体に関連する予め定められた個人情報を包含するための、制御ユニットによってアクセスされるデータベースを含むデータ蓄積ユニットが与えられる。虹彩イメージピックアップユニットは、虹彩イメージを取り込み、入力イメージ信号を生成させるための、制御ユニットによって走査されるカメラを含む。データ処理ユニットは、入力イメージ信号を処理データに予備処理する。制御ユニットは、時間当たりの光刺激に応答する虹彩瞳孔の平均収縮及び膨張を表す入力イメージ信号の処理の結果として得られるデータを処理して、処理データが現在又は過去の中毒を示すかどうかを測定する。このシステムは、ピュピログラムの曲線の形状が、人間がアルコール又はドラッグに中毒している場合に、人間がアルコール又はドラッグを含んでいない場合の曲線の形状と比較して異なるという発見に基づいている。
The present invention also contemplates and enables the analysis of the iris identification parameters described above for the system, using it for other than iris identification. For example, it is within the scope of the present invention to form a system for testing an individual for the presence or use of a drug or alcohol. That is, the present invention includes the following aspects.
1. A system for testing for the presence of a drug or alcohol in humans, comprising:
(A) a control unit for receiving identification information identifying living animals;
(B) an iris image pickup unit including a camera operated by a control unit for capturing an iris image and generating an input image signal;
(C) a data processing unit for pre-processing the input image signal into processed data, the control unit responding the processed data obtained as a result of processing the input image signal to a light stimulus per time. The pupilogram curve is calculated to represent the mean contraction and dilation of the iris pupil, thereby comparing a person who is addicted to alcohol or drugs with a person who does not contain alcohol or drugs. Said system operable to determine whether the processed data is indicative of present or past addiction due to the different shape of the.
2. A method for testing for the presence of at least one drug or alcohol in the human body, comprising:
(A) obtaining a plurality of images of substantially the same portion of the human iris and pupil at different times;
(B) processing the plurality of images into a pupil histogram;
(C) calculating characteristics of the pupil histogram processed in step (b); and (d) confirming the presence of at least one of a drug or alcohol based on the comparing step (c). The method as described above.
3. The method of claim 2 wherein the flatness characteristic of the curve associated with the pupil histogram is indicative of at least one of a drug and an alcohol. In this type of system, a control unit for receiving identification information identifying a living animal, and a control unit for including predetermined personal information relating to an organism that can be identified for comparison with the identification information. A data storage unit is provided that includes a database accessed by the unit. The iris image pickup unit includes a camera scanned by a control unit for capturing an iris image and generating an input image signal. The data processing unit pre-processes the input image signal into processed data. The control unit processes the data resulting from processing of the input image signal representing the average contraction and dilation of the iris pupil in response to light stimuli per hour to determine whether the processed data indicates current or past addiction. Measure. This system is based on the finding that the shape of the curve of the pupilogram is different when a person is addicted to alcohol or drugs compared to the shape of a curve when a person does not contain alcohol or drugs.

生存動物の同一性を確認するか、又は人間の体内のドラッグ及びアルコールの少なくとも一つの存在を試験するための方法もまた、上記に記載したような虹彩同定パラメータを特別に選択することに基づいて、本発明により提供される。本発明の更に他の目的及び有利性は、以下の詳細な説明から当業者には明らかとなるであろう。以下の説明においては、本発明の好ましい態様のみが、発明の実施が意図されるベストモードを単に示すものとして示され記載されている。認識されるように、本発明は、他の異なる態様が可能であり、その幾つかの詳細は、発明から逸脱することなく、種々の明らかな特徴において修正を加えることが可能である。したがって、図面及び説明は、例示のものとしてみなされるべきであり、制限するものではない。   Methods for confirming the identity of living animals or testing for the presence of at least one of drugs and alcohol in the human body are also based on the particular selection of iris identification parameters as described above. , Provided by the present invention. Still other objects and advantages of the present invention will become apparent to those skilled in the art from the following detailed description. In the following description, only the preferred embodiments of the invention are shown and described merely to show the best mode intended for practicing the invention. As will be realized, the invention is capable of other different aspects, and its several details are capable of modifications in various obvious features, all without departing from the invention. Accordingly, the drawings and description should be regarded as illustrative and not restrictive.

図1Aは、本発明による生体の虹彩を同定するためのシステム14のブロックダイヤグラムである。生体は、人間及び動物を含む、同定のための虹彩を有する生存動物を包含する。システム14は、好ましくは、カードの情報記録メディアにアクセスすることによって、個人カード番号を蓄積しているカード上に記録された情報を読み取り且つ同定するカード読み取りユニット40を含む。PINを入力するための複数のキーを有するキー入力ユニット50は、それぞれのキー入力に対応した電気信号を生成する。虹彩イメージピックアップユニット20は、特定の制御信号の予め定められた順番に従って自動的に連続して点滅して、オートフォーカス機能を有するカメラが、数秒の間、(例えば、1秒間に25フレーム以上を生成する速度で)虹彩の動的イメージを取り込むことを可能にする複数の光源を有する。駆動ユニット30は、モニタを用いて特定の制御信号を供給することによって、虹彩イメージピックアップユニット20に、カメラ位置の照明及び調節のための電力を供給する。   FIG. 1A is a block diagram of a system 14 for identifying a living iris according to the present invention. Living organisms include living animals having an iris for identification, including humans and animals. The system 14 preferably includes a card reading unit 40 for reading and identifying information recorded on the card storing the personal card number by accessing the information recording medium of the card. The key input unit 50 having a plurality of keys for inputting a PIN generates an electric signal corresponding to each key input. The iris image pickup unit 20 automatically and continuously flashes in accordance with a predetermined order of a specific control signal, and the camera having the auto-focus function operates for several seconds (for example, 25 frames or more per second). It has multiple light sources that allow it to capture a dynamic image of the iris (at the rate at which it is generated). The driving unit 30 supplies power for illuminating and adjusting the camera position to the iris image pickup unit 20 by supplying specific control signals using a monitor.

データ処理ユニット60は、虹彩イメージピックアップユニット20によって取り込まれた入力イメージ信号を予備処理する。データ蓄積ユニット80は、それぞれの人間の個人カード番号又はPINにそれぞれ関連した、(1)個々の虹彩のイメージ信号から抽出し得る虹彩繊維構造の密度及びテキスチャー形態;(2)光に応答する自律神経環(ANW)の動き;(3)光に応答する瞳孔の動き;(4)ANWの形状;(5)瞳孔の形状;(6)くぼみの存在、位置及び形状;を含む、複数の同定パラメータを蓄積するためのデータベースを形成する。制御ユニット70は、カード読み取りユニット又はキー入力ユニットによって入力されたか又は読み取られたカード番号又はPINに関してデータベースを検索し、動的虹彩イメージを獲得し、カメラの位置を個人情報に基づいて自動的に調節し、イメージ信号からユーザーの同一性を確認するために複数の虹彩同定パラメータを測定することによって、ユーザーの同一性を確認することにより、特定の人間に関する虹彩を識別する。この場合においては、特定の人間に関する虹彩情報だけでなく、それぞれの人間に関する更なる情報(例えば、虹彩イメージを取り込む際のカメラ高さ、或いはそれぞれの人間に対する最も適切なカメラ高さに直接関係する個人の身長の情報)をデータ蓄積ユニット80に蓄積して、ユニット80が、更なる情報を読み取ることによってカメラ高さを自動的に調節することを可能にすることができる。   The data processing unit 60 pre-processes the input image signal captured by the iris image pickup unit 20. The data storage unit 80 comprises: (1) autonomous responsive to light; (1) the density and texture form of the iris fiber structure that can be extracted from the individual iris image signals, each associated with a respective human personal card number or PIN. (3) pupil movement in response to light; (4) ANW shape; (5) pupil shape; (6) presence, location and shape of depressions. Form a database for storing parameters. The control unit 70 searches the database for the card number or PIN entered or read by the card reading unit or key input unit, obtains a dynamic iris image, and automatically positions the camera based on personal information. Identify an iris for a particular human by adjusting and verifying the identity of the user by measuring a plurality of iris identification parameters to determine the identity of the user from the image signal. In this case, not only the iris information for a particular person, but also additional information about each person (e.g., directly related to the camera height when capturing the iris image or the most appropriate camera height for each person). Individual height information) can be stored in the data storage unit 80, allowing the unit 80 to automatically adjust the camera height by reading additional information.

図1Bは、図1Aの虹彩イメージピックアップユニット20の例示を示す双眼カメラ及び照明システムの一部の側面斜視図である。虹彩イメージピックアップユニット20は、カメラ16、及び、虹彩のイメージを取り込むために要求される位置の複数の第1及び第2のレンズ11及び12を有する。オートフォーカスのための可変取り込みゾーン(フレックスゾーン)を有するカメラ16を用いることが好ましい。更に、ユーザーの瞼、睫の動き及び瞬きの結果としてオートフォーカス機能の低下を防ぐために、5mmよりも大きな焦点深さを有する第2のレンズ12を用いることが好ましい。第1及び第2のレンズ11,12は、好ましくは、それぞれの眼に関して与えられる。   FIG. 1B is a side perspective view of a binocular camera and a portion of an illumination system showing an example of the iris image pickup unit 20 of FIG. 1A. The iris image pickup unit 20 has a camera 16 and a plurality of first and second lenses 11 and 12 at positions required to capture an image of the iris. It is preferable to use a camera 16 having a variable capture zone (flex zone) for autofocus. Further, it is preferable to use a second lens 12 having a depth of focus greater than 5 mm to prevent the autofocus function from deteriorating as a result of user eyelid and eyelash movement and blinking. The first and second lenses 11, 12 are preferably provided for each eye.

虹彩イメージピックアップユニット20は、更に、図1Bの虹彩イメージピックアップユニット20と関連してユーザーの眼をカメラの中心部分に固定することによって、虹彩が一つの側に偏るのを防ぐための視野誘導ユニット18(図2〜図4を参照)を有する。更に、ある態様においては、初期オートフォーカス及び輝度の調節のための側部光源を用いることができる。図2は、視野ポインターを示すための図1Bからの参照図であり、図3は、図2の視野ポインターを詳細に示すものである。図4は、視野誘導光源L4からの光をユーザーの眼に反射するという図2における視野ポインターの操作を説明するための参照図である。   The iris image pickup unit 20 further includes a visual field guidance unit for preventing the iris from being biased to one side by fixing the user's eye to the central portion of the camera in connection with the iris image pickup unit 20 of FIG. 1B. 18 (see FIGS. 2 to 4). Further, in some embodiments, a side light source for initial autofocus and brightness adjustment can be used. FIG. 2 is a reference diagram from FIG. 1B to show the view pointer, and FIG. 3 shows the view pointer of FIG. 2 in detail. FIG. 4 is a reference diagram for explaining the operation of the visual field pointer in FIG. 2 for reflecting light from the visual field guiding light source L4 to the user's eyes.

図2〜4において示されるように、視野誘導ユニットは、ユーザーの視野を誘導するための淡い青色又は赤色の光を発光する誘導光源L4(参照番号17でも示される)から構成することができる。反射ユニット18bは、光源17からの光をカメラ16の中心部分から反射し、支持ユニット18aは、反射ユニットをレンズの中心に整列させて支持する。この場合、支持ユニット18aは、好ましくは、レンズの中心に配置された場合であっても虹彩イメージに影響を与えることを防ぐように、透明なガラス様の材料で構成される。反射ユニット18bは、視野誘導光源L4からの光をユーザーの眼に反射するように、一定の傾斜を有する反射面を有する。   As shown in FIGS. 2-4, the field-of-view guidance unit can be comprised of a guidance light source L4 (also indicated by reference numeral 17) that emits light blue or red light to guide the user's field of view. The reflection unit 18b reflects the light from the light source 17 from the central portion of the camera 16, and the support unit 18a aligns and supports the reflection unit at the center of the lens. In this case, the support unit 18a is preferably made of a transparent glass-like material so as to prevent affecting the iris image even when located at the center of the lens. The reflection unit 18b has a reflection surface having a certain inclination so as to reflect light from the visual field guide light source L4 to the user's eyes.

図5は、図1Bの第2のレンズ12の正面図である。第2のレンズの正面12のある配置においては、瞳孔及びANWの動き(即ち収縮及び膨張)を刺激するフラッシュ光源L3(12b)が与えられる。複数の赤外光源L2(12a)が、レンズ12の周縁にそって環状又は輪状の配列で配置されており、ソフトウェアによって、カメラ16が虹彩イメージ及び明澄な瞳孔イメージを取り込むことができるように制御されている。フラッシュ光源12bは、好ましくは、ソフトウェアによって短いサイクルで自動的に発光するように制御された青色のダイオードである。   FIG. 5 is a front view of the second lens 12 of FIG. 1B. In one arrangement of the front surface 12 of the second lens, a flash light source L3 (12b) is provided that stimulates pupil and ANW movement (ie, contraction and dilation). A plurality of infrared light sources L2 (12a) are arranged in an annular or annular arrangement along the periphery of the lens 12, so that the software allows the camera 16 to capture an iris image and a clear pupil image. Is controlled. Flash light source 12b is preferably a blue diode that is controlled by software to automatically emit light in short cycles.

図6は、コンピュータ制御によって行なわれる虹彩イメージピックアップユニット20によるイメージ信号の取り込みの例のフローチャートである。調節ステップS61においては、カード番号又はPINに基づいてデータベースから検索される個人情報を用いることによってカメラ位置(高さ)が調節され、複数の光源(12a及び17)が、オートフォーカスのために同時にONに切り替えられて、ユーザーの眼を対物レンズに引き付ける。ステップS62においては、発光する光源17を用いることによって、ユーザーの眼が対物レンズに誘導される。カメラのオートフォーカスがステップS63において行なわれる。ステップS67においては、動いているANW及び瞳孔の動的イメージが、虹彩の瞳孔及びANWの動きを誘導する短いサイクルでの光源12bの発光(S66)によって数秒間獲得される。ステップS68においては、上述のステップS61〜S68の後に、全ての発光している光源が消される。   FIG. 6 is a flowchart of an example of capturing an image signal by the iris image pickup unit 20 performed by computer control. In adjustment step S61, the camera position (height) is adjusted by using personal information retrieved from a database based on the card number or PIN, and the plurality of light sources (12a and 17) are simultaneously set for autofocus. Switched to ON, attracts the user's eyes to the objective lens. In step S62, the user's eyes are guided to the objective lens by using the light source 17 that emits light. Automatic focusing of the camera is performed in step S63. In step S67, a dynamic image of the moving ANW and pupil is acquired for a few seconds by the light source 12b emitting light (S66) in a short cycle to induce pupil and ANW movement of the iris. In step S68, after the above-described steps S61 to S68, all light emitting sources are turned off.

図7は、図6のステップS61におけるカメラ高さの調節の詳細のフローチャートである。フローチャートは、以下のステップを包含する:カード番号又はPINを入力する(S71);入力されたカード番号又はPINについてデータベースを検索することによって、対応する個人のカメラ高さに関する情報を獲得する(S72);カメラ高さの獲得された情報をカメラの現在の高さの情報と比較した後に、モータを前進又は逆進方向に回転させる(S73)ことによって対応する個人に好適なカメラ高さを調節する。   FIG. 7 is a detailed flowchart of the adjustment of the camera height in step S61 of FIG. The flowchart includes the following steps: inputting a card number or PIN (S71); acquiring information on the camera height of the corresponding individual by searching a database for the input card number or PIN (S72). ); After comparing the acquired information of the camera height with the information of the current height of the camera, adjust the camera height suitable for the corresponding individual by rotating the motor forward or backward (S73). I do.

図8は、本発明の一態様に従って虹彩分析を行なうために必要な入力虹彩信号の選択ゾーン(x)を説明するための虹彩イメージの例示である。虹彩を分析するために選択されるべきゾーンは、ANW10bの少なくとも一部及び全瞳孔10aを含んでいなければならない。更に、選択ゾーン(x)は、好ましくは、明確に視認され、瞼、睫等によって影響されない部分であり、虹彩直径の1/3よりも大きく1/2よりも小さい範囲内に設定される。   FIG. 8 is an example of an iris image to illustrate selected zones (x) of input iris signals required to perform iris analysis according to one aspect of the present invention. The zone to be selected for analyzing the iris must include at least a portion of the ANW 10b and the entire pupil 10a. Further, the selection zone (x) is preferably a portion that is clearly visible and is not affected by eyelids, eyelashes, and the like, and is set within a range of more than 1 / and less than の of the iris diameter.

図16は、以下により詳細に説明するような、本発明の好ましい態様におけるスペクトル分析の可変マルチセクターシステムを用いた虹彩イメージ分析の例示である。スペクトル分析の可変マルチセクターシステムによって、虹彩の視認部分の選択を、分析のために、干渉によって歪曲されないようにして、同定プロセスの信頼性を向上させることが可能になる。眼の口径の解剖学的特徴及び瞼の膨らみを、同定及び排除することが可能である。殆ど事前には不可能である端縁による欠陥又は干渉、即ちグレアを、同定及び排除することが可能である。   FIG. 16 is an illustration of iris image analysis using a variable multi-sector system of spectral analysis in a preferred embodiment of the present invention, as described in more detail below. The variable multi-sector system of spectral analysis allows the selection of the visible portion of the iris to be distorted by interference for analysis, thereby improving the reliability of the identification process. Anatomical features of the eye caliber and eyelid bulge can be identified and eliminated. Edge defects or interferences, or glare, which are almost impossible in advance, can be identified and eliminated.

図9は、本発明の全虹彩同定法を説明するための高レベルフローチャートであり、図10A〜10Cは、図9の高レベルフローチャートのステップの詳細な一連のフローチャートである。   FIG. 9 is a high-level flowchart for explaining the whole iris identification method of the present invention, and FIGS. 10A to 10C are detailed series of flowcharts of the steps of the high-level flowchart of FIG.

図10A〜10Cにおいて示されるように、本発明による虹彩同定法においては、以下のプロセスの一つ以上を包含させることによって種々の態様を認識することができる。第1に、カード番号又はPIN確認プロセスS101〜S103によって、データベースから対応する番号に従う個人情報を検索し取得することによって、ユーザーの同一性が確かめられる。カード番号又はPINを入力した後、イメージ獲得プロセスS104〜S105により、確認プロセス中に得られたユーザーの個人情報に従ってカメラ位置を調節し、複数の光源を制御することによって、動的虹彩イメージが獲得される。   As shown in FIGS. 10A-10C, in the iris identification method according to the present invention, various aspects can be recognized by including one or more of the following processes. First, the identity of a user is confirmed by searching and acquiring personal information according to a corresponding number from a database by a card number or PIN confirmation process S101 to S103. After inputting the card number or PIN, the dynamic iris image is acquired by adjusting the camera position according to the user's personal information obtained during the confirmation process and controlling a plurality of light sources by the image acquisition processes S104 to S105. Is done.

本発明によって取得し且つ分析することができる異なる同定パラメータについて、以下に説明する。   The different identification parameters that can be obtained and analyzed according to the invention are described below.

虹彩繊維構造確認プロセスS106〜S110を用いて、上述のプロセス中に獲得された選択された静止虹彩イメージのWavelet変換によって虹彩分析に適したゾーンのイメージ信号を変換することによって同定パラメータを測定した後に、対応する同定パラメータによってユーザーの同一性が確かめられる。スペクトル分析の可変マルチセクターシステムに関して以下に説明するように、変換は、図8のゾーン又は図16の個々のセクターに適用することができる。   After measuring the identification parameters using the iris fiber structure confirmation process S106-S110 by transforming the image signal of the zone suitable for iris analysis by Wavelet transform of the selected still iris image acquired during the above process The identity of the user is ascertained by the corresponding identification parameters. The transformation can be applied to the zones of FIG. 8 or to the individual sectors of FIG. 16, as described below with respect to the variable multi-sector system of spectral analysis.

本発明の一態様においては、虹彩構造確認プロセスは、ステップS106、S107(図10A)において、虹彩イメージの動的信号を予備処理することによって、虹彩イメージ分析に適したゾーン(選択ゾーンx;実質的にANWの一部及び全瞳孔を含み、虹彩直径の1/3よりも大きく1/2よりも小さい範囲内)を選択し;ステップS108において、二次元Wavelet変換(例えば、Haar変換のようなWavelet変換)によって選択されたゾーンの選択された静止イメージ信号を変換した後に虹彩繊維構造密度及びテキスチャー形態に関する特殊化された情報を表すWavelet変換係数同定パラメータを測定し;ステップS109、S110によって、データベースから対応するパラメータを検索することによってユーザーの同一性を確認する;工程から構成することができる。   In one aspect of the present invention, the iris structure confirmation process includes pre-processing the dynamic signal of the iris image in steps S106 and S107 (FIG. 10A), thereby forming a zone suitable for iris image analysis (selection zone x; substantially (Including a part of the ANW and the entire pupil and within a range of more than 1/3 and less than 1/2 of the iris diameter); in step S108, a two-dimensional Wavelet transform (for example, such as a Haar transform) is performed. After transforming the selected still image signal of the zone selected by the Wavelet transform), the Wavelet transform coefficient identification parameters representing specialized information on iris fiber structure density and texture morphology are measured; By searching for the corresponding parameter from To confirm the identity of the Za; it can be comprised of steps.

概して、虹彩繊維構造の密度及びテキスチャー形態は人間毎に異なる。主として低周波数ゾーンにおける密度に関する情報を含むWavelet変換(特に、Haar変換のようなWavelet変換)を行なうと、特に、二次元Haar変換係数の低周波数成分は、虹彩繊維密度及びテキスチャー形態の殆どの情報を有する。   In general, the density and texture morphology of the iris fiber structure varies from person to person. When a Wavelet transform (particularly, a Wavelet transform such as a Haar transform) mainly including information on a density in a low-frequency zone is performed, particularly, a low-frequency component of a two-dimensional Haar transform coefficient includes most information of an iris fiber density and a texture form. Having.

低周波数成分は、上記したように選択された虹彩イメージ信号に関してWavelet変換を行ない、周波数特性を測定し、周波数特性を示す二次元Haar変換の選択された低周波数係数を同定パラメータとして決定することによって、虹彩繊維密度及びテキスチャー形態の殆どの情報を有するように選択される。本発明においてこのように適用されるHaar変換は、対称で、分離可能で、単一であり、寸法(スケール)及び位置によって変動する以下のHaar関数を用いる。   The low frequency component is obtained by performing Wavelet transform on the iris image signal selected as described above, measuring the frequency characteristic, and determining the selected low frequency coefficient of the two-dimensional Haar transform indicating the frequency characteristic as an identification parameter. , Iris fiber density and texture morphology. The Haar transform so applied in the present invention uses the following Haar function, which is symmetric, separable, unitary and varies with size (scale) and position.

更なるHaar関数は、以下のように定義される。   A further Haar function is defined as:

Figure 2004288221
スペクトル分析アルゴリズムを簡単にするために、好ましい態様は、標準化ファクター2−m/2を無視する。したがって、上記関数の定義は次のようになる。
Figure 2004288221
To simplify the spectral analysis algorithm, the preferred embodiment ignores the normalization factor 2-m / 2. Therefore, the definition of the above function is as follows.

Figure 2004288221
この関数は、また、シグナムHaar関数と呼ばれる。関数の二進数がリスティングにおける関数の次数を決定する。本発明において、実際のHaar変換を測定する場合には、大きなサイズのイメージのために膨大な計算となる。しかしながら、コンピュータ計算時間は、変換フローグラフのバタフライ構造によって大きく向上する。
Figure 2004288221
This function is also called the Signum Haar function. The binary of the function determines the order of the function in the listing. In the present invention, when measuring the actual Haar transform, an enormous calculation is required for a large-sized image. However, the computation time is greatly improved by the butterfly structure of the transformation flow graph.

シグナムHaar関数による迅速なスペクトル変換アルゴリズムをグラフで示したものを図15に示す(ここではn=18である)。このグラフは、変換フローグラフのバタフライ構造を表す。グラフの縦軸に沿って、P0〜P7は、変換されるピクセル値を示す。   FIG. 15 shows a graph of a rapid spectrum conversion algorithm using the Signum Haar function (here, n = 18). This graph represents the butterfly structure of the conversion flow graph. Along the vertical axis of the graph, P0 to P7 indicate pixel values to be converted.

このフローグラフにおいて、右に向かって進行するそれぞれの連続レベルに関する値は、以下の式に基づく先の値による。   In this flow graph, the value for each successive level that progresses to the right depends on the previous value based on the following equation:

Figure 2004288221
式中、m=n+1であり、X[n]はピクセルnの明度である。
Figure 2004288221
Where m = n + 1 and X [n] is the brightness of pixel n.

変換フローグラフのバタフライ構造を用いる結果として、Haar関数によるスペクトル変換プログラムは、従来の方法よりも200倍早く操作される。   As a result of using the butterfly structure of the conversion flow graph, the spectrum conversion program with the Haar function operates 200 times faster than the conventional method.

可変マルチセクター分析Haar関数を用いたスペクトル分析の可変マルチセクターシステムを以下に説明する。可変マルチセクターシステムは、好ましくは図8に関して上記したゾーン選択法の全体に亙って行なわれる。時折、グレアの形成、瞼及び睫における干渉が虹彩のセクション内で起こるか、或いは虹彩の大きな可視部分が分析のために利用できない場合がある。虹彩の部分が干渉を受けたり利用できないことにより、比較のために利用できるセクターの数が減少し、それによって人間同定の信頼性が低下する。   Variable Multi-Sector Analysis A variable multi-sector system for spectral analysis using the Haar function is described below. The variable multi-sector system is preferably implemented throughout the zone selection method described above with respect to FIG. Occasionally, glare formation, interference at the eyelids and eyelashes may occur within the section of the iris, or a large visible portion of the iris may not be available for analysis. The interference or unavailability of the iris portion reduces the number of sectors available for comparison, thereby reducing the reliability of human identification.

イメージ分析は、虹彩イメージを、図16に示すように、外側環100及び瞳孔120を含む内側環状ゾーンも分割することによって開始される。環状ゾーンから外側内部及び外部環100を分割する境界は、虹彩の基点から50ピクセルの距離に設定される。50ピクセルよりも大きいか又は小さい値は、更なる態様において用いることができる。外側環の外側境界は、ほぼ鞏膜と虹彩の境界において始まる。外側環の直径は、個人間で異なる虹彩寸法、虹彩イメージを得る異なる範囲などのような多くのファクターのために変化する可能性がある。外側環100に対応する虹彩の部分と、瞳孔120と外側環100との間の領域110とは、異なる速度で収縮及び膨張するので、内側及び外側環に関して異なる標準化ファクターが用いられる。   Image analysis begins by dividing the iris image also into an inner annular zone that includes outer ring 100 and pupil 120, as shown in FIG. The boundary dividing the outer inner and outer rings 100 from the annular zone is set at a distance of 50 pixels from the origin of the iris. Values larger or smaller than 50 pixels can be used in further aspects. The outer border of the outer annulus begins approximately at the sclera-iris border. The diameter of the outer annulus can vary due to many factors, such as different iris sizes between individuals, different ranges for obtaining iris images, and the like. Since the portion of the iris corresponding to the outer ring 100 and the region 110 between the pupil 120 and the outer ring 100 contract and expand at different rates, different normalization factors are used for the inner and outer rings.

現在好ましい態様においては、それぞれの領域100、110を、次に、好ましくは等しい寸法の16のセクターに、即ち、合計で参照記号I0〜I31によって示される全部で32のセクターに更に分割する。32セクターI0〜I31のそれぞれに関して、上記記載のようにWavelet変換を用いて1,024Haar関数係数を算出して、32×32のマトリクスを形成する。しかしながら、すべてのゾーンにおけるセクターの全数(n+p)、それぞれの個々のゾーンにおけるセクターの数(n,p)、セクターの寸法及びHaar関数係数の数を変化させてもよいことは、本発明の範囲内である。即ち、それぞれのゾーンは、異なる数のセクター(n,p)を有していてよく、即ち、領域110は、放射状に10のセクターに分割することができ(p=10)、一方外側環100は、放射状に16のセクターに分割される(n=16)。   In a currently preferred embodiment, each region 100, 110 is then further divided into 16 sectors, preferably of equal size, ie, a total of 32 sectors, indicated by the reference signs I0-I31. For each of the 32 sectors I0 to I31, a 1,024 Haar function coefficient is calculated using Wavelet transform as described above to form a 32 × 32 matrix. However, it is within the scope of the invention that the total number of sectors in all zones (n + p), the number of sectors in each individual zone (n, p), the size of the sectors and the number of Haar function coefficients may vary. Is within. That is, each zone may have a different number of sectors (n, p), ie, the region 110 can be radially divided into ten sectors (p = 10), while the outer ring 100 Is radially divided into 16 sectors (n = 16).

次に、概して、それぞれ下瞼及び上瞼に関して参照記号13A及び13Bによって示される瞼又は睫によって邪魔されるか又は干渉されるセクターは、隣接セクター係数比較によって拒絶される。隣接するセクター係数を比較することによって、高周波数係数の鋭利な変動が観察された場合には、そのセクターは欠陥として拒絶される。図16を参照すると、セクター比較は、セクター0を15から、及びセクター7を8から分割する水平線において始まる四つのセクターの群について行なわれ、時計方向又は時計の逆方向に、隣接するセクターについて進行する。この方法においては、セクターI0〜I3,I7〜I4,I8〜I11及びI15〜I12が比較される。   Then, generally, sectors that are obstructed or interfered by eyelids or eyelashes, indicated by reference symbols 13A and 13B with respect to the lower and upper eyelids, respectively, are rejected by adjacent sector coefficient comparison. If a sharp variation in the high frequency coefficient is observed by comparing adjacent sector coefficients, the sector is rejected as a defect. Referring to FIG. 16, the sector comparison is performed on a group of four sectors beginning at the horizontal line dividing sector 0 from 15 and sector 7 from 8, proceeding clockwise or counterclockwise for adjacent sectors. I do. In this method, sectors I0-I3, I7-I4, I8-I11 and I15-I12 are compared.

例えば、セクターI0及びI1における高周波数係数が比較され、差が、予め定められたセクター高周波数係数しきい値を超えない場合には、セクターI1は良好として認識される。セクターI0は、良好として認識されるか、或いは、瞼によって閉じられた場合には瞳孔の分析中に拒絶される。次に、セクターI1及びI2の係数が比較され、図16において示されるように、瞼の境界はセクターI2に位置している。セクターI2における境界は、セクター高周波数係数しきい値を超える差を引き起こし、セクターI2は拒絶される。セクターI2を拒絶した後、セクターI3も同様に拒絶される。同様のプロセスを、残りの四分円のセクターに関して繰り返す。   For example, the high frequency coefficients in sectors I0 and I1 are compared, and if the difference does not exceed a predetermined sector high frequency coefficient threshold, sector I1 is recognized as good. Sector I0 is recognized as good or rejected during pupil analysis if closed by eyelids. Next, the coefficients of sectors I1 and I2 are compared, and the border of the eyelid is located at sector I2, as shown in FIG. A boundary in sector I2 causes a difference that exceeds the sector high frequency coefficient threshold, and sector I2 is rejected. After rejecting sector I2, sector I3 is similarly rejected. A similar process is repeated for the remaining quadrant sectors.

分析から拒絶されたセクターを除去した後、完全な1,024Haar係数のサブセットを選択する。選択される係数の数は、種々のファクターによって決定される。係数が不必要に多すぎると、データベースのサイズが増大し、係数が少なすぎると、認識の質が低下する。更に、幾つかの係数は、イメージの輝度の変化と共に変化しており、また幾つかの高周波数係数は多すぎるノイズを含んでいるので、選択しない。実験の結果、好ましい態様は、1,024Haar係数の32×32マトリクスから選択された31の係数を用いる。選択された係数の特定のマトリクス位置は、次のものである:(0,1),(1,0),(1,1),(0,2),(0,3),(2,0),(3,0),(1,2),(1,3),(2,1),(3,1),(0,4),(0,5),(0,6),(0,7),(4,0),(5,0),(6,0),(7,0),(1,4),(1,5),(1,6),(1,7),(4,1),(5,1),(6,1),(7,1),(2,2),(3,2),(2,3)及び(3,3)。異なる態様においてはより多いか又はより少ない数の係数を用いることができる。   After removing the rejected sectors from the analysis, a subset of the complete 1,024 Haar coefficients is selected. The number of coefficients selected is determined by various factors. If the coefficients are unnecessarily large, the size of the database increases, and if the coefficients are too small, the quality of recognition decreases. In addition, some coefficients are not selected because they change with changes in image brightness, and some high frequency coefficients contain too much noise. As a result of experiments, the preferred embodiment uses 31 coefficients selected from a 32 × 32 matrix of 1,024 Haar coefficients. The specific matrix positions of the selected coefficients are: (0,1), (1,0), (1,1), (0,2), (0,3), (2, 0), (3,0), (1,2), (1,3), (2,1), (3,1), (0,4), (0,5), (0,6) , (0,7), (4,0), (5,0), (6,0), (7,0), (1,4), (1,5), (1,6), ( (1,7), (4,1), (5,1), (6,1), (7,1), (2,2), (3,2), (2,3) and (3,1) 3). More or less coefficients may be used in different embodiments.

32のセクターI0〜I31のそれぞれから31の係数を選択することによって、大きさが約1キロバイトの虹彩参照記録を生成することができる。記録の最初の32ビットは、セクター拒絶分析結果を含む。   By selecting 31 coefficients from each of the 32 sectors I0-I31, an iris reference record approximately 1 kilobyte in size can be generated. The first 32 bits of the record contain the result of the sector rejection analysis.

同定される新しい虹彩イメージを、上記の参照イメージと同様の方法で処理する。得られる特性記録を、データベース中に記録されているすべての虹彩参照記録と比較する。入力と参照虹彩係数との間の差の合計を、セクター毎に算出する。合計の値は、係数標準化のために、0〜2の範囲内である。1の合計値は絶対的にグレーなイメージを表し、0はセクタースペクトルの完全な一致を示し、2は同等のモジュールであるが反対の符号のスペクトルを表す。   The new iris image that is identified is processed in a manner similar to the reference image above. The resulting characteristic record is compared to all iris reference records recorded in the database. The sum of the difference between the input and the reference iris coefficient is calculated for each sector. The value of the sum is in the range of 0 to 2 for coefficient normalization. A total value of 1 represents an absolutely gray image, 0 represents a perfect match of the sector spectrum, and 2 represents a spectrum of equivalent modules but of opposite sign.

直接的な実験の結果、幾つかのセクターは、虹彩の蠕動(虹彩の幾つかの領域の迅速な無意識の動き)のために参照セクターと異なることが分かった。したがって、合計値が1未満のセクターのみが虹彩イメージ分析において好ましく用いられる。この方法においては、蠕動によって害されたセクターは、拒絶されたセクターに加えられ、認識作業からは排除される。虹彩イメージ分析において用いられるセクターの最小数は、それぞれの眼に関して10である。認識の質を対応して低下させれば、これよりも少ないセクターを用いることができる。差を強調するために、セクター係数の比較の結果を掛け合わせる。したがって、同定するイメージが参照イメージと一致する場合には、得られる値は0に近くなる。これに対して、異なるイメージが導く値は数百〜数千の範囲内である。   Direct experimentation has shown that some sectors differ from the reference sector due to iris peristalsis (rapid unconscious movement of some areas of the iris). Therefore, only sectors with a total value less than 1 are preferably used in iris image analysis. In this way, the sectors perturbed by peristalsis are added to the rejected sectors and are excluded from the recognition task. The minimum number of sectors used in iris image analysis is 10 for each eye. Fewer sectors can be used if the quality of perception is correspondingly reduced. Multiply the results of the sector coefficient comparisons to emphasize the differences. Therefore, if the image to be identified matches the reference image, the value obtained will be close to zero. In contrast, the values derived by different images are in the range of hundreds to thousands.

低周波数スペクトル係数は、虹彩繊維構造の密度及びテキスチャー形態に関する多くの情報を含んでいるので、Haar変換の結果から実験的に選択された低周波数ゾーンの係数を同定のために利用する。   Since the low frequency spectral coefficients contain much information about the density and texture morphology of the iris fiber structure, the coefficients of the low frequency zones experimentally selected from the results of the Haar transform are used for identification.

図10Bの瞳孔及びANW反応確認プロセスS111〜S116により、獲得された虹彩の動的イメージから瞳孔及びANWを検出することによって、対応する同定パラメータによってユーザーの同一性が確かめられる。次に、検出された動的イメージ信号からの瞳孔及びANWの動的反応(収縮及び膨張)を用いて同定パラメータを測定する。   By detecting the pupil and the ANW from the acquired dynamic image of the iris by the pupil and ANW reaction confirmation processes S111 to S116 of FIG. 10B, the identity of the user is confirmed by the corresponding identification parameters. Next, the identification parameters are measured using the dynamic response (contraction and dilation) of the pupil and the ANW from the detected dynamic image signal.

更に、本発明の一態様においては、瞳孔及びANW反応確認プロセスは、以下の工程から構成することができる:虹彩の獲得された動的イメージの中心部分をコンピュータ処理することによって瞳孔ゾーンを検出し(図10BのS111、S112);ANWのゾーンをコンピュータ処理し(S113);検出されたゾーンにおける動く瞳孔及びANWの反応(膨張又は収縮)時間をコンピュータ算出した後に、生存瞳孔及びANWをそれぞれ認識するための同定パラメータを測定し(S114);データベースから対応するパラメータを検索することによってユーザーの同一性を確かめる。   Further, in one aspect of the present invention, the pupil and ANW response confirmation process may comprise the following steps: detecting the pupil zone by computer processing a central portion of the acquired dynamic image of the iris. (S111, S112 in FIG. 10B); Computer processing of the ANW zone (S113); Recognition of the surviving pupil and the ANW, respectively, after calculating the reaction (expansion or contraction) time of the moving pupil and the ANW in the detected zone. An identification parameter for the user is measured (S114); the identity of the user is confirmed by searching a corresponding parameter from a database.

図11は、一定の角度θにおける瞳孔10a及びANW10bの動きを説明するための虹彩10cの例示イメージであり、図12は、時間変動に伴う一次元データにおいて変換された、平均瞳孔半径R1、一定の角度θにおける瞳孔半径R2、及び一定の角度θにおけるANWの半径R3を示すグラフである。グラフにおいて、第1の時間「t1」はフラッシュ光源の操作時間を表し、第2の時間「t2」はR1の収縮の開始時間を表し、第3の時間「t3」は平均瞳孔半径が最小の時間を表し、第4の時間「t4」は瞳孔半径が一定の角度θにおいて最小の時間を表し、第5の時間「t5」はANWの半径が一定の角度θにおいて最小の時間を表す。したがって、これらの動的イメージを比較した結果として、光に対して無意識に反応する瞳孔及びANWの反応を通して、それぞれの同定パラメータを得ることができる。   FIG. 11 is an exemplary image of the iris 10c for explaining the movement of the pupil 10a and the ANW 10b at a constant angle θ, and FIG. 12 is a diagram illustrating an average pupil radius R1 converted from one-dimensional data with time variation. Is a graph showing a pupil radius R2 at an angle θ and a ANW radius R3 at a constant angle θ. In the graph, the first time “t1” represents the operation time of the flash light source, the second time “t2” represents the start time of the contraction of R1, and the third time “t3” represents the time when the average pupil radius is the smallest. The fourth time “t4” represents the minimum time at a constant pupil radius θ, and the fifth time “t5” represents the minimum time at a constant ANW radius angle. Therefore, as a result of comparing these dynamic images, it is possible to obtain respective identification parameters through the pupil and the ANW that respond unconsciously to light.

上記の目的のために、本発明は、瞳孔が収縮する際に瞳孔半径の動きが一定の割合(例えば5%以上)を超えた場合には生体を表すと考えられる予め定められた参照値を用いる。瞳孔端もまた、瞳孔の動きを観察するために、取り込まれた虹彩動的イメージから検出されなければならない。現在のところ、対称中心検索アルゴリズムを用いることによって、虹彩のほぼ中心を決定した後に瞳孔端を検出することが可能である。   For this purpose, the present invention provides a predetermined reference value that is considered to represent a living body if the movement of the pupil radius exceeds a certain percentage (for example, 5% or more) when the pupil contracts. Used. Pupil edges must also be detected from the captured iris dynamic image in order to observe pupil movement. At present, it is possible to detect the pupil edge after determining the approximate center of the iris by using a symmetric center search algorithm.

この方法によれば、虹彩イメージをその中心で取り込むことができずに、ある程度右又は左に偏っている場合であっても、エラーを起こすことなく虹彩を同定することが可能である。   According to this method, it is possible to identify the iris without causing an error even if the iris image cannot be captured at the center thereof and is somewhat shifted right or left.

虹彩イメージが同定するためには偏り過ぎている場合には、再度取り込むことができる。また、虹彩イメージではなく他のイメージを取り込んだ場合には、多くの場合において、真のイメージと偽のイメージとを識別することができる。   If the iris image is too biased for identification, it can be captured again. In addition, when another image is captured instead of the iris image, a true image and a false image can be distinguished in many cases.

上記記載の対称中心検索アルゴリズムにおいては、以下の関数F(i)を、イメージの水平線及び垂直線に関して得る。   In the symmetry center search algorithm described above, the following function F (i) is obtained for the horizontal and vertical lines of the image.

Figure 2004288221
ここで、
Figure 2004288221
here,

Figure 2004288221
およびNはイメージ線の長さであり、x(i)は水平線又は垂直線のi番目のピクセルの輝度であり、i≦0の場合にはx(i)=x(0)であり、i≧0の場合にはx(i)=x(N)である。
Figure 2004288221
And N is the length of the image line, x (i) is the luminance of the i-th pixel of the horizontal or vertical line, and if i ≦ 0, x (i) = x (0), i When ≧ 0, x (i) = x (N).

かかる場合においては、関数F(i)の絶対値を最小にする定義のドメイン(i)は、対称の中心に存在する。これらの方法を水平線及び垂直線に提供すると、関数F(i)の絶対値を最小にする定義のドメイン(i)が横切る点が対称の中心として設定される。水平線及び垂直線の定義のドメイン(i)が横切らずに散乱する場合、特にこれらが予め定められた範囲から偏向する場合には、これは、取り込まれたイメージが虹彩イメージではないか又は虹彩イメージが右又は左に過度に偏っていることを示し、したがって、この虹彩イメージは、更なる同定を行なう前に再び取り込まなければならない。   In such a case, the definition domain (i) that minimizes the absolute value of the function F (i) exists at the center of symmetry. Applying these methods to the horizontal and vertical lines, the point of intersection of the definition domain (i) that minimizes the absolute value of the function F (i) is set as the center of symmetry. If the domain (i) of the definition of horizontal and vertical lines scatters without traversing, especially if they deviate from a predetermined range, this means that the captured image is not an iris image or an iris image Indicates that the iris image is excessively biased to the right or left, and this iris image must be recaptured before further identification can be performed.

動的イメージが上記の虹彩について取り込まれた場合には、瞳孔及びANWが、フラッシュ光源12bによって収縮及び膨張せしめられる。瞳孔及びANWの動きは同時には起こらず、それぞれの人間によって異なるタイプを示す。このような同時に起こらない動きから得られる瞳孔及びANW反応(図11及び12)からのパラメータが同定のために用いられる。   If a dynamic image is captured for the iris, the pupil and the ANW are contracted and expanded by the flash light source 12b. Pupil and ANW movements do not occur at the same time, but are of different types for each person. The parameters from the pupil and the ANW response (FIGS. 11 and 12) resulting from such non-simultaneous movements are used for identification.

図17を参照すると、ピュピログラム又は瞳孔ヒストグラムによって、時間T0における光のフラッシュに応答する瞳孔の平均収縮及び膨張が示される。縦軸は瞳孔の大きさ又は半径を示し、横軸はT0又は光のフラッシュの時間によって始まる時間を示す。TLは、瞳孔が光のフラッシュに応答して収縮し始める時間であり;TL−T0は瞳孔の応答の潜在時間である。ALは光のフラッシュの前の瞳孔の平均半径である。Tmは瞳孔が最小半径Amに収縮した時間である。瞳孔が収縮するための時間から潜在時間を引いた値がTm−TL又はTPである。T1及びT2は、それぞれ、動的虹彩イメージの40番目及び70番目の時間であり、A1及びA2は、時間T1及びT2における瞳孔の対応する半径である。SPは、TLとTmとの間の瞳孔収縮の速度である。DABは、TLとTmとの間の瞳孔収縮曲線にそった直線距離である。%A1は、T1における瞳孔膨張距離又はA1−Amと、平均瞳孔収縮距離又はAL−Amとの比である。%A2は、T2における瞳孔膨張距離又はA2−Amと、平均瞳孔収縮距離又はAL−Amとの比である。   Referring to FIG. 17, the pupilogram or pupil histogram shows the average pupil contraction and dilation in response to a flash of light at time T0. The vertical axis indicates the size or radius of the pupil, and the horizontal axis indicates the time beginning with T0 or the time of the light flash. TL is the time at which the pupil begins to contract in response to a flash of light; TL-TO is the latency time of the pupil response. AL is the average radius of the pupil before the flash of light. Tm is the time when the pupil contracts to the minimum radius Am. The value obtained by subtracting the latent time from the time for the pupil to contract is Tm-TL or TP. T1 and T2 are the 40th and 70th times of the dynamic iris image, respectively, and A1 and A2 are the corresponding pupil radii at times T1 and T2. SP is the rate of pupil contraction between TL and Tm. DAB is the linear distance along the pupil contraction curve between TL and Tm. % A1 is the ratio of the pupil dilation distance or A1-Am at T1 to the average pupil contraction distance or AL-Am. % A2 is the ratio of the pupil dilation distance or A2-Am at T2 to the average pupil contraction distance or AL-Am.

ドラッグ又はアルコールを用いている人間のピュピログラムは、ドラッグ又はアルコールを使用していない人間のピュピログラムとは異なっているので、ピュピログラムは、個人によるドラッグ及び/又はアルコールの使用を検出するのに用いることができる。ドラッグを用いている人間のピュピログラムは、瞳孔が最小半径に収縮する時間Tmが、標準時間よりもゆっくりになる。アルコールを用いている人間のピュピログラムは、アルコールを用いていない人間と比較して、より平坦になる、即ちDABがアルコールユーザーに関してはより小さくなる。また、%A1及び%A2は、アルコールユーザーに関してはより小さくなる。   Pupilograms can be used to detect drug and / or alcohol use by individuals, as human pupylograms using drugs or alcohol are different from human pupylograms without drugs or alcohol. it can. In a human pupilogram using a drug, the time Tm at which the pupil contracts to the minimum radius becomes slower than the standard time. Pupilograms for humans using alcohol are flatter, ie, the DAB is smaller for alcohol users, compared to humans who do not use alcohol. Also,% A1 and% A2 are smaller for alcohol users.

次に、ANW及び瞳孔形状確認プロセスS117〜S119により、選択された虹彩イメージからANW及び瞳孔を検出し、ANW及び瞳孔の検出された形状に従って同定パラメータを測定することによって、ユーザーの同一性を確かめる。ANW形状は、本発明において、中央軸変換を選択された虹彩イメージ信号に適用して用いることによって、独特に測定される。瞳孔形状は、本発明において、当該技術において公知のように、端検出及び曲線合致アルゴリズムを用いることによって、独特に測定される。   Next, the ANW and pupil shape confirmation processes S117 to S119 detect the ANW and the pupil from the selected iris image, and measure the identification parameters according to the detected shapes of the ANW and the pupil to confirm the identity of the user. . The ANW shape is uniquely measured in the present invention by using a central axis transform applied to the selected iris image signal. Pupil shape is uniquely measured in the present invention by using edge detection and curve matching algorithms, as is known in the art.

更に、本発明のそれぞれの態様においては、ANW及び瞳孔確認プロセスは、以下の工程から構成することができる:ステップA117(図10B及び10C)により、選択された虹彩イメージ信号からANW及び瞳孔を検出し;ステップS118により、検出されたANWの二次元イメージ信号を中央軸変換によって変換し、瞳孔の形状を上記記載のように端検出及び曲線合致アルゴリズムによって変換することによってANWの形状に基づいて同定パラメータをコンピュータ算出し;ステップS119及びS120により、データベースから対応する同定パラメータを検索することによってユーザーの同一性を確かめる。   Furthermore, in each aspect of the present invention, the ANW and pupil identification process may comprise the following steps: Step A117 (FIGS. 10B and 10C) detects ANW and pupil from the selected iris image signal. In step S118, the detected ANW two-dimensional image signal is converted by the center axis conversion, and the pupil shape is converted by the edge detection and curve matching algorithm as described above, thereby identifying based on the shape of the ANW. The parameters are computed by computer; steps S119 and S120 confirm the identity of the user by searching the database for the corresponding identification parameters.

図13は、虹彩イメージから検出された端を表すANW10b及びくぼみ10dの例示図であり、図14は、中央軸変換によって変換された一次元データでの、図13において示されるANW10b及びくぼみ10dの例示図である。特定の形状を有する対象の中央軸変換は、例えば、二点以上において対象の境界に接する円の中心の位置である。言い換えれば、これは、対象の境界から最も近接する点の位置である。したがって、二次元対象を中央軸変換によって一次元データに変換することが可能であるので、これを、ANW形状及び瞳孔の形状及び位置を同定するために適用することができる。   FIG. 13 is a view showing an example of the ANW 10b and the depression 10d representing the edges detected from the iris image. FIG. 14 is a diagram showing the ANW 10b and the depression 10d shown in FIG. FIG. The central axis transformation of an object having a specific shape is, for example, the position of the center of a circle that touches the boundary of the object at two or more points. In other words, this is the position of the point closest to the target boundary. Therefore, since it is possible to convert a two-dimensional object into one-dimensional data by means of a central axis transformation, this can be applied to identify the ANW shape and the shape and position of the pupil.

図18は、形状、位置及び同定パラメータを示す瞳孔及び虹彩の例示図である。瞳孔の形状は、本発明において、当該技術において公知の端検出アルゴリズムを用いて、独特に測定される。瞳孔端は、概して、図18において参照記号10aによって示される。更に、図18において参照記号10i及び10hによってそれぞれ示される虹彩及び瞳孔の中心は、ジオメトリーによって測定され、同定パラメータとして用いられる。概して参照記号10jによって示される虹彩中心と瞳孔中心との間の分離方向及び距離は、同定パラメータとして用いられる。   FIG. 18 is an exemplary diagram of a pupil and an iris showing a shape, a position, and identification parameters. Pupil shape is uniquely measured in the present invention using edge detection algorithms known in the art. The pupil end is generally indicated by reference numeral 10a in FIG. Further, the centers of the iris and pupil, indicated by reference symbols 10i and 10h, respectively, in FIG. 18, are measured by geometry and used as identification parameters. The separation direction and distance between the center of the iris and the center of the pupil, generally indicated by reference symbol 10j, are used as identification parameters.

更に、多くの瞳孔は完全には円形の形状ではなく、多くは、楕円長軸の方向に偏差する楕円である。好ましい態様においては、瞳孔の楕円度の配向及び大きさは、本発明において、当該技術において公知の曲線及び形状合致アルゴリズムを用いて、独特に測定される。図18を参照すると、瞳孔楕円の長軸及び短軸は、それぞれ、参照記号10m及び10nによって示される。瞳孔の楕円度は、短軸10nと長軸10mとの比として表される。図18において概して参照記号10fによって示される瞳孔の周縁に沿った平坦部分、並びにそれぞれ10g及び10eによって示される瞳孔が凹んだり膨らんだりしている領域を認識及び特徴付けて、更なる同定パラメータとして認識の質を向上させることができる。   Furthermore, many pupils are not perfectly circular in shape, but many are ellipses that deviate in the direction of the major axis of the ellipse. In a preferred embodiment, the orientation and magnitude of the pupil ellipticity is uniquely measured in the present invention using curve and shape matching algorithms known in the art. Referring to FIG. 18, the major and minor axes of the pupil ellipse are indicated by reference signs 10m and 10n, respectively. The pupil ellipticity is expressed as the ratio between the short axis 10n and the long axis 10m. Recognize and characterize the flat portions along the periphery of the pupil, generally indicated by reference numeral 10f in FIG. 18, and the areas where the pupil is depressed or bulging, indicated by 10g and 10e, respectively, and recognize them as further identification parameters. Quality can be improved.

また、くぼみ確認プロセスS121〜S127を用いて、くぼみが存在しているか否かを判断し、くぼみが存在している場合にはそのゾーンを検出し、次に、検出されたくぼみの位置及び形状に基づいて同定パラメータを測定することによって、ユーザーの同一性を確かめる。   Further, it is determined whether or not a dent exists using the dent confirmation processes S121 to S127. If the dent exists, the zone is detected. Then, the position and shape of the detected dent are determined. The identity of the user is ascertained by measuring the identification parameters based on

更に、本発明による虹彩同定法においては、図10Cに示される以下の複数の工程の少なくとも一つを含ませることによって、くぼみ確認プロセスを上記の態様に適用することができる。即ち、第1のくぼみ確認プロセスS121を行ない、次に、ステップS125〜S129により、獲得された虹彩の選択された静止イメージに基づいてくぼみが存在しているかどうかを判断することによってユーザーの同一性を確かめ、次に、くぼみが存在している場合にはくぼみのイメージ信号を中央軸変換によって変換し、変換結果からのくぼみの位置及び形状に基づいて同定パラメータを測定する。第2のくぼみ確認プロセスS122〜S124は、第1のくぼみ確認プロセスの結果としてくぼみが存在していない場合に行なわれ、参照虹彩中にくぼみが存在しているかどうかを再び判断した後に参照虹彩中にくぼみがない場合にはユーザーは許可され、逆に参照虹彩中にくぼみが存在する場合にはユーザーは拒絶される。   Further, in the iris identification method according to the present invention, the indentation confirmation process can be applied to the above-described embodiment by including at least one of the following multiple steps shown in FIG. 10C. That is, a first dimple confirmation process S121 is performed, and then, according to steps S125 to S129, the identity of the user is determined by determining whether a dimple exists based on the selected still image of the acquired iris. Then, if a dent exists, the image signal of the dent is converted by central axis conversion, and the identification parameter is measured based on the position and shape of the dent from the conversion result. The second indentation confirmation processes S122 to S124 are performed when no indentation exists as a result of the first indentation confirmation process. After it is determined again whether or not the indentation exists in the reference iris, the second indentation confirmation process S122 to S124 is performed. If there are no depressions, the user is allowed; conversely, if there is a depression in the reference iris, the user is rejected.

更に、本発明のそれぞれの態様においては、第1のくぼみ確認プロセスは、以下の工程から構成することができる:ステップS121(図10C)により、獲得された虹彩の静止イメージ信号から虹彩イメージの端を検出することによってくぼみが存在しているか否かを判断し;判断ステップの結果としてくぼみが存在している場合には、ステップS125によりくぼみゾーンを検出し;ステップS126により、検出されたくぼみゾーンの二次元イメージ信号を中央軸変換によって変換した後にくぼみの形状及び位置に基づいて同定パラメータをコンピュータ算出し;ステップS127〜S129により、データベースから対応するパラメータを検索することによってユーザーの同一性を確かめる。   Further, in each aspect of the present invention, the first dip identification process may comprise the following steps: Step S121 (FIG. 10C), from the acquired iris still image signal, obtains the edge of the iris image. Is detected to determine whether or not a dent exists; if a dent is present as a result of the determination step, the dent zone is detected in step S125; and the detected dent zone is determined in step S126. After the two-dimensional image signal is converted by the central axis conversion, the identification parameters are computer-calculated based on the shape and position of the hollow; in steps S127 to S129, the identity of the user is confirmed by searching the database for the corresponding parameters. .

更に、本発明のそれぞれの態様においては、第2のくぼみ確認プロセスは、以下の工程から構成することができる:ステップS121により、入力イメージ中にくぼみが存在しているかどうかを判断し;ステップS122により、入力イメージ中にくぼみが存在していない場合には参照虹彩中にくぼみが存在しているかどうかを再び判断し;ステップS123により、くぼみが参照虹彩中に存在していない場合には許可し、ステップS124により、参照虹彩中にくぼみが存在している場合には拒絶する。   Further, in each aspect of the present invention, the second indentation confirmation process may comprise the following steps: Step S121 determines whether an indentation is present in the input image; Step S122. Then, if there is no depression in the input image, it is determined again whether or not there is a depression in the reference iris; in step S123, if the depression is not present in the reference iris, permission is given. If there is a depression in the reference iris in step S124, the rejection is made.

上記のように構成された本発明の操作及び本発明によって達成される効果について、実施例を用いることによって以下に説明する。   The operation of the present invention configured as described above and the effects achieved by the present invention will be described below using examples.

まず、カード読み取りユニット40又はキー入力ユニット50により、カード番号を読み取るか、或いはユーザーのPINをキー打ちによって入力する。カード番号及びPIN確認プロセスを行なって、制御ユニット70中のデータ蓄積ユニット80においてカード番号及びPINを検索することによって対応する番号が存在するかどうかを測定する。   First, the card number is read by the card reading unit 40 or the key input unit 50, or the user's PIN is input by keying. A card number and PIN verification process is performed to determine whether the corresponding number exists by searching for the card number and PIN in the data storage unit 80 in the control unit 70.

対応する番号がない場合には、ユーザーは同定できないユーザーとして拒絶される。対応する番号が見出された場合には、次に制御ユニット70によリユーザーが同定できるユーザーとして許可され、次に、カード番号又はPINに対応する更なる個人情報を読み取った後に、制御信号をモータ駆動ユニット30に送って、カメラ高さをユーザーに適するように調節する。この時点において、制御信号は、現在のカメラ位置とユーザーに適したカメラ位置との間の高さの差を比較して、次にモータを前進又は逆進方向に駆動することによってカメラ高さを自動的に調節する。更に、二つの目の間の幅もまた、それぞれのユーザーに関して調節することができる。   If there is no corresponding number, the user is rejected as an unidentified user. If a corresponding number is found, then the control unit 70 allows the user to be identified as an identifiable user and then, after reading further personal information corresponding to the card number or PIN, the control signal To the motor drive unit 30 to adjust the camera height to suit the user. At this point, the control signal compares the height difference between the current camera position and the camera position appropriate for the user and then adjusts the camera height by driving the motor forward or backward. Adjust automatically. Further, the width between the two eyes can also be adjusted for each user.

次に、制御ユニット70により、虹彩イメージピックアップユニット20を制御することによって赤外光源12aを点灯することにより、最初のオートフォーカスの調節が行なわれる。ユーザーは、視野誘導光源17を点灯することによって視野ポインター18に導かれて、虹彩イメージが位置方向に偏ることが防止される。したがって、虹彩イメージを取り込む際には、取り込まれる人間の虹彩イメージの視野が、誘導光源17(即ち淡青色の光源)によってレンズの中心部分に固定される。   Next, the control unit 70 controls the iris image pickup unit 20 to turn on the infrared light source 12a, thereby performing the first autofocus adjustment. The user is guided to the visual field pointer 18 by turning on the visual field guiding light source 17, thereby preventing the iris image from being biased in the position direction. Therefore, when capturing the iris image, the field of view of the captured human iris image is fixed to the central portion of the lens by the guide light source 17 (that is, the light blue light source).

虹彩動的イメージは、短いサイクルでフラッシュ光源12bを操作しながら数秒間とられる。次に全ての光源が消される。虹彩イメージは、所定のソフトウェアによって短時間に制御されたフラッシュ光源12bによって瞳孔及びANWの変化する形状を示すようにとられなければならない。この目的のために、本発明においては1秒当たり25フレームを超える虹彩イメージがとられる。   The iris dynamic image is taken for a few seconds while operating the flash light source 12b in a short cycle. Then all light sources are turned off. The iris image must be taken to show the changing shape of the pupil and the ANW by the flash light source 12b, which is controlled in a short time by predetermined software. For this purpose, the present invention takes more than 25 iris images per second.

上記記載のように取り込まれた虹彩の連続イメージは、データ処理ユニット60において予備処理される。次に、虹彩分析に適したゾーンが選択された後に、対応するゾーンのイメージ信号が選択される。好ましい態様においては、分析は、上記に詳細に説明したスペクトル変換の可変マルチセクターシステムにしたがって、セクター毎に行なわれる。他の態様においては、虹彩を分析するために用いられるゾーンは、図8において示される全瞳孔を含む水平方向のストリップ状の領域、即ち明確に視認される部分である。なぜならば、これは、同定される人間の睫、瞼などによって影響されないからである。   The continuous image of the iris captured as described above is pre-processed in the data processing unit 60. Next, after selecting a zone suitable for iris analysis, an image signal of the corresponding zone is selected. In a preferred embodiment, the analysis is performed on a sector-by-sector basis, according to the variable multi-sector system of spectral transformation described in detail above. In another embodiment, the zone used to analyze the iris is a horizontal strip-like area that includes the entire pupil shown in FIG. 8, ie, a clearly visible portion. This is because it is not affected by the identified human eyelashes, eyelids, etc.

制御ユニット70は、虹彩繊維構造確認プロセスを行なって、上記に詳細に説明したように、選択された低周波数成分のみを用いることによって、ユーザーの同一性を確かめる。   The control unit 70 performs an iris fiber structure verification process to verify the identity of the user by using only the selected low frequency components, as described in detail above.

次に、制御ユニット70において、瞳孔及びANW反応確認プロセスが行なわれ、瞳孔動的イメージから瞳孔及びANWの反応を分析した後に、瞳孔及びANWの収縮及び膨張がフラッシュ光源12bによって引き起こされた場合には生体を表すものとして取り込まれたイメージが許可され、動きがない場合には生体を表さないものとして取り込まれたイメージが拒絶される。   Next, in the control unit 70, a pupil and ANW response confirmation process is performed, and after analyzing the pupil and ANW response from the pupil dynamic image, if the pupil and ANW contraction and expansion are caused by the flash light source 12b. The image captured as representing a living body is permitted, and if there is no movement, the image captured as not representing a living body is rejected.

続いて、ANW及び瞳孔形状確認プロセスが制御ユニット70により行なわれ、選択された静止虹彩イメージからのそれぞれの人間において異なる特性を有するANWゾーンの二次元イメージ信号を上記記載の中央軸変換(又はガラスファイヤ法)によって一次元データに変換することによって、ANW及び瞳孔形状に基づいて個人の同一性を確かめる。上記記載のような瞳孔の特定の特徴もまた、同定され比較される。   Subsequently, an ANW and pupil shape confirmation process is performed by the control unit 70 to convert the two-dimensional image signal of the ANW zone having different characteristics in each human from the selected still iris image into the above-described central axis transformation (or glass). By converting the data into one-dimensional data by the fire method, the identity of the individual is confirmed based on the ANW and the pupil shape. Certain features of the pupil as described above are also identified and compared.

次に、第1及び第2のくぼみ確認プロセスが制御ユニット70により行なわれ、くぼみが存在するか否か、並びにくぼみが存在する場合にはその位置及び形状を同定する同定法によってユーザーの同一性が最終的に確かめられる。ANWの中央軸変換の結果において示されるように、くぼみは、イメージ処理プロセスにより図13及び図14の選択された虹彩静止イメージから抽出され、くぼみ形状が端検出により明確に認められた場合には中央軸変換により一次元データの形状及び位置を表すことによって、くぼみの形状及び位置が同定パラメータとして用いられる。   Next, the first and second depression confirmation processes are performed by the control unit 70, and the identity of the user is determined by an identification method that identifies whether the depression is present and, if so, its position and shape. Is finally confirmed. As shown in the result of the median axis transformation of the ANW, the dimples were extracted from the selected iris still images of FIGS. 13 and 14 by an image processing process, and if the dimple shape was clearly recognized by edge detection, By expressing the shape and position of the one-dimensional data by central axis conversion, the shape and position of the depression are used as identification parameters.

したがって、本発明は、虹彩繊維構造及びテキスチャー形態、光に応答する瞳孔及びANW反応、ANW及び瞳孔の形状、虹彩動的イメージから獲得されたくぼみの存在、形状及び位置を用いて多数の虹彩同定のためのパラメータを測定することによって、生存人間の虹彩を、偽造を防ぎ迅速に且つ正確に同定することにより、特定の人間を識別する方法を提供するので、バンキングシステム及び電子処理/決算システムに適用した場合には金銭的な事故を防ぎ、アクセス制御システムに適用した場合にはセキュリティーに関連する事故を排除することができるという、数多くの有利性を有する。   Accordingly, the present invention provides a method for identifying multiple irises using iris fiber structure and texture morphology, pupil and ANW response to light, ANW and pupil shape, the presence, shape and location of dimples obtained from iris dynamic images. Banking and electronic processing / closing systems by providing a method of identifying specific humans by measuring the parameters for the identification of surviving human irises quickly and accurately by preventing counterfeiting. It has a number of advantages in that it can prevent financial accidents when applied and can eliminate security-related incidents when applied to access control systems.

図1Aは、本発明によって、生体の虹彩を同定するための例示システムのブロックダイヤグラムである。図1Bは、図1Aの態様及びその照明システムにおける虹彩イメージピックアップユニットの一態様を示すカメラの側面斜視図である。FIG. 1A is a block diagram of an exemplary system for identifying a living iris according to the present invention. FIG. 1B is a side perspective view of the camera showing the embodiment of FIG. 1A and one embodiment of the iris image pickup unit in the lighting system. 図2は、図1Bの虹彩イメージピックアップユニットのために用いられる視野ポインターを説明するために図1Bから部分的にとられた参照図である。FIG. 2 is a reference diagram partially taken from FIG. 1B to illustrate a field pointer used for the iris image pickup unit of FIG. 1B. 図3は、図2の視野ポインターの詳細図である。FIG. 3 is a detailed view of the field pointer of FIG. 図4は、視野誘導光源をユーザーの目に反射する図2の視野ポインターを説明するための参照図である。FIG. 4 is a reference diagram illustrating the view pointer of FIG. 2 that reflects the view guide light source to the user's eyes. 図5は、図1Bのシステムにおける第2のレンズの正面図である。FIG. 5 is a front view of the second lens in the system of FIG. 1B. 図6は、コンピュータ制御によって行なわれる虹彩イメージピックアップユニットにおいてイメージ信号を取り込む例のフローチャートである。FIG. 6 is a flowchart of an example in which an iris image pickup unit, which is controlled by a computer, takes in an image signal. 図7は、図6におけるカメラの高さ調節の例のフローチャートである。FIG. 7 is a flowchart of an example of camera height adjustment in FIG. 図8は、虹彩分析のために必要な入力イメージ信号の選択された領域(x)を説明するための虹彩イメージの例示図である。FIG. 8 is an exemplary diagram of an iris image illustrating a selected area (x) of an input image signal required for iris analysis. 図9は、本発明の虹彩同定法の全操作を説明する高レベルフローチャートである。FIG. 9 is a high-level flowchart illustrating all operations of the iris identification method of the present invention. 図10A〜10Cは、図9のフローチャートの詳細な連続フローチャートである。10A to 10C are detailed continuous flowcharts of the flowchart of FIG. 図11は、一定角度における虹彩及び自律神経環の動的な動きを説明するための虹彩イメージの例示図である。FIG. 11 is an exemplary diagram of an iris image for explaining dynamic movement of the iris and the autonomic nerve ring at a certain angle. 図12は、図11の瞳孔の半径を瞳孔ヒストグラム又はピュピログラムの形態で表し、時間変動による一次元データに変換された自律神経環を表す対応するグラフである。FIG. 12 is a corresponding graph showing the pupil radius of FIG. 11 in the form of a pupil histogram or pupilogram and showing the autonomic nerve ring converted to one-dimensional data due to time variation. 図13は、虹彩イメージの端が抽出される自律神経環及びくぼみの例示図である。FIG. 13 is an exemplary diagram of an autonomic nerve ring and a hollow from which an edge of an iris image is extracted. 図14は、中央軸変換によって一次元データに変換された図13の自律神経環及びくぼみの例示図である。FIG. 14 is a view showing an example of the autonomic nerve ring and the hollow of FIG. 13 converted into one-dimensional data by central axis conversion. 図15は、Haar変換フローグラフのバタフライ構造のダイヤグラムである。FIG. 15 is a diagram of a butterfly structure of a Haar transform flow graph. 図16は、スペクトル分析の可変マルチセクターシステムを説明するための虹彩イメージの例示図である。FIG. 16 is an exemplary view of an iris image for explaining a variable multi-sector system of spectral analysis. 図17は、時間当たりの瞳孔の平均半径の他のピュピログラムのグラフである。FIG. 17 is a graph of another Pupilogram of the average radius of the pupil per hour. 図18は、抽出される瞳孔特性情報を含む瞳孔の例示図である。FIG. 18 is an exemplary diagram of the pupil including the extracted pupil characteristic information.

Claims (2)

虹彩走査によって生存動物の同一性を確認するためのシステムであって、以下の要素:
(a)生存動物を同定する同定情報を受容するための制御ユニット、及び、同定情報と比較するための同定可能な生体に関係する予め定められた個人情報を包含するための、制御ユニットによってアクセスされるデータベースを含むデータ蓄積ユニット;
(b)同定情報が予め定められた情報に対応する場合に、虹彩イメージを取り込んで入力イメージ信号を生成させるために制御ユニットによって操作されるカメラを含む虹彩イメージピックアップユニット;及び
(c)入力イメージ信号を処理データに予備処理するためのデータ処理ユニット;を含み、
前記蓄積ユニットが、(1)周波数変換法を用いた虹彩繊維構造の密度及びテキスチャー形態、(2)瞳孔反応、(3)瞳孔の形状、(4)自律神経環反応、(5)自律神経環の形状、(6)くぼみの存在、(7)くぼみの位置、及び(8)くぼみの形状、からなる群から選択される、同定可能な生体に関する、予め蓄積された虹彩同定のための複数のパラメータのうちの少なくとも瞳孔の形状に関するパラメータを含み、
前記制御ユニットが、処理されたデータと前記パラメータとを比較して、同一性が確認されたことを示す一致性を有するかどうかを決定するように操作し得、また、
データ処理ユニットは、瞳孔の形状に関するパラメータの処理データを生成するに際して、虹彩のほぼ中心を決定した後に瞳孔端を検出するアルゴリズムを用いて測定することを特徴とする虹彩同定システム。
A system for confirming the identity of living animals by iris scanning, comprising the following elements:
(A) a control unit for receiving identification information identifying a living animal, and access by the control unit for including predetermined personal information relating to an identifiable organism for comparison with the identification information; Data storage unit containing the database to be created;
(B) an iris image pickup unit including a camera operated by a control unit to capture an iris image and generate an input image signal when the identification information corresponds to predetermined information; and (c) the input image A data processing unit for pre-processing the signal into processed data;
The storage unit comprises: (1) density and texture of the iris fiber structure using a frequency conversion method, (2) pupil reaction, (3) pupil shape, (4) autonomic nervous ring reaction, (5) autonomic nervous ring. A plurality of pre-stored iris identifications for an identifiable organism selected from the group consisting of: (6) the presence of a depression, (7) the position of the depression, and (8) the shape of the depression. Including at least one of the parameters related to the shape of the pupil,
The control unit may be operable to compare the processed data to the parameter to determine if there is a match indicating that identity has been confirmed; and
The iris identification system, wherein the data processing unit generates the processing data of the parameters related to the shape of the pupil, and determines the approximate center of the iris and then measures the iris using an algorithm for detecting the pupil end.
虹彩走査によって生存動物の同一性を確認するためのシステムであって、以下の要素:
(a)生存動物を同定する同定情報を受容するための制御ユニット、及び、同定情報と比較するための同定可能な生体に関係する予め定められた個人情報を包含するための、制御ユニットによってアクセスされるデータベースを含むデータ蓄積ユニット;
(b)同定情報が予め定められた情報に対応する場合に、虹彩イメージを取り込んで入力イメージ信号を生成させるために制御ユニットによって操作されるカメラを含む虹彩イメージピックアップユニット;及び
(c)入力イメージ信号を処理データに予備処理するためのデータ処理ユニット;を含み、
前記蓄積ユニットが、(1)周波数変換法を用いた虹彩繊維構造の密度及びテキスチャー形態、(2)瞳孔反応、(3)瞳孔の形状、(4)自律神経環反応、(5)自律神経環の形状、(6)くぼみの存在、(7)くぼみの位置、及び(8)くぼみの形状、からなる群から選択される、同定可能な生体に関する、予め蓄積された虹彩同定のための複数のパラメータのうちの少なくとも一つを含み、
前記制御ユニットが、処理されたデータと前記パラメータとを比較して、同一性が確認されたことを示す一致性を有するかどうかを決定するように操作し得、また、
データ処理ユニットは、前記パラメータに関する処理データを生成するに際して、
前記周波数変換法を用いた虹彩繊維構造の密度及びテキスチャー形態についてのパラメータに関しては、虹彩イメージ分析に適したゾーンを選択し、二次元Wavelet変換によって選択されたゾーンの選択された静止イメージ信号を変換して測定し、
前記瞳孔反応および自律神経環反応についてのパラメータに関しては、光を瞳孔に当てたときの時間変動に伴う瞳孔の径および自律神経環の径を測定し、
瞳孔の形状についてのパラメータに関しては、虹彩のほぼ中心を決定した後に瞳孔端を検出するアルゴリズムを用いて測定し、
自律神経環の形状についてのパラメータに関しては、検出された自律神経環の二次元イメージ信号を中央軸変換によって変換して測定し、
くぼみの存在およびくぼみの位置についてのパラメータに関しては、くぼみが存在しているゾーンを検出し
くぼみの形状についてのパラメータに関しては、検出されたくぼみゾーンの二次元イメージ信号を中央軸変換によって変換して測定することを特徴とする虹彩同定システム。
A system for confirming the identity of living animals by iris scanning, comprising the following elements:
(A) a control unit for receiving identification information identifying a living animal, and access by the control unit for including predetermined personal information relating to an identifiable organism for comparison with the identification information; Data storage unit containing the database to be created;
(B) an iris image pickup unit including a camera operated by a control unit to capture an iris image and generate an input image signal when the identification information corresponds to predetermined information; and (c) the input image A data processing unit for pre-processing the signal into processed data;
The storage unit comprises: (1) density and texture of the iris fiber structure using a frequency conversion method, (2) pupil reaction, (3) pupil shape, (4) autonomic nervous ring reaction, (5) autonomic nervous ring. A plurality of pre-stored iris identifications for an identifiable organism selected from the group consisting of: (6) the presence of a depression, (7) the position of the depression, and (8) the shape of the depression. Including at least one of the parameters,
The control unit may be operable to compare the processed data to the parameter to determine if there is a match indicating that identity has been confirmed; and
The data processing unit generates processing data related to the parameter,
Regarding the parameters regarding the density and texture form of the iris fiber structure using the frequency conversion method, a zone suitable for iris image analysis is selected, and a selected still image signal of the selected zone is converted by a two-dimensional Wavelet transform. And measure,
For the parameters of the pupil reaction and the autonomic nervous ring reaction, the diameter of the pupil and the diameter of the autonomic nervous ring with time variation when light is applied to the pupil,
For parameters about the shape of the pupil, measured using an algorithm that detects the pupil edge after determining the approximate center of the iris,
For the parameters about the shape of the autonomic nervous ring, the two-dimensional image signal of the detected autonomic nervous ring is converted and measured by central axis conversion,
Regarding the parameters for the presence of the depression and the position of the depression, the zone in which the depression is present is detected.For the parameter for the shape of the depression, the two-dimensional image signal of the detected depression zone is transformed by central axis transformation. An iris identification system characterized by measuring.
JP2004205266A 1999-04-09 2004-07-12 Iris identification system Pending JP2004288221A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004205266A JP2004288221A (en) 1999-04-09 2004-07-12 Iris identification system

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR19990012439 1999-04-09
KR19990012440 1999-04-09
KR1019990012438A KR100356600B1 (en) 1999-04-09 1999-04-09 A Method For Identifying The Iris Of Persons Based On The Shape Of Lacuna And/Or Autonomous Nervous Wreath
JP35061299 1999-11-05
JP2004205266A JP2004288221A (en) 1999-04-09 2004-07-12 Iris identification system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2001146516A Division JP4006192B2 (en) 1999-04-09 2001-05-16 Iris recognition system and method

Publications (1)

Publication Number Publication Date
JP2004288221A true JP2004288221A (en) 2004-10-14

Family

ID=33304145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004205266A Pending JP2004288221A (en) 1999-04-09 2004-07-12 Iris identification system

Country Status (1)

Country Link
JP (1) JP2004288221A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101344913B (en) * 2007-07-10 2011-11-09 电子科技大学中山学院 Method for carrying out identity recognition by extracting iris texture features
US8189879B2 (en) 2008-02-14 2012-05-29 Iristrac, Llc System and method for animal identification using IRIS images

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101344913B (en) * 2007-07-10 2011-11-09 电子科技大学中山学院 Method for carrying out identity recognition by extracting iris texture features
US8189879B2 (en) 2008-02-14 2012-05-29 Iristrac, Llc System and method for animal identification using IRIS images
US8315440B2 (en) 2008-02-14 2012-11-20 Iristrac, Llc System and method for animal identification using iris images

Similar Documents

Publication Publication Date Title
EP1093633B1 (en) Iris identification system and method of identifying a person through iris recognition
US8644562B2 (en) Multimodal ocular biometric system and methods
EP0215818B1 (en) Iris recognition system
CN100403981C (en) Positive patient identification
JP2008529164A (en) Iris recognition system and method
CN110929570B (en) Iris rapid positioning device and positioning method thereof
JP4006192B2 (en) Iris recognition system and method
JP2001195594A (en) Iris identifying system and method of identifying person by iris recognition
KR20030034258A (en) Identification system and method using iris and retina, and media that can record computer program sources thereof
KR20010006975A (en) A method for identifying the iris of persons based on the reaction of the pupil and autonomous nervous wreath
US7881503B2 (en) Corneal biometry apparatus and method
KR20010006976A (en) A system for identifying the iris of persons
JP4619384B2 (en) Iris identification system
JP2004288221A (en) Iris identification system
KR100356600B1 (en) A Method For Identifying The Iris Of Persons Based On The Shape Of Lacuna And/Or Autonomous Nervous Wreath
KR20060105272A (en) Interpretation method of eyeball image using adaboost algorithm
KR100924271B1 (en) Identification system and method using a iris, and media that can record computer program sources thereof
Wai et al. Software Implementation of Iris Recognition System using MATLAB
JP2008515066A (en) Corneal biometric authentication
CN117860189A (en) Pupil detection method, pupil detection device, electronic equipment and computer readable storage medium
KR20240022161A (en) Face Information Updating Method for Access Control System Complising Face Recognition Function, and Face Recognition Apparatus therefor
Shrimal et al. IRIS identification based on multilayer feed forward neural network
KR20060105273A (en) Eyeball position finding system using eye image dispersion and method of finding eyeball position

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040713

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060620