JPH10505180A - Non intrusive iris recognition system and method for automated - Google Patents

Non intrusive iris recognition system and method for automated

Info

Publication number
JPH10505180A
JPH10505180A JP50955696A JP50955696A JPH10505180A JP H10505180 A JPH10505180 A JP H10505180A JP 50955696 A JP50955696 A JP 50955696A JP 50955696 A JP50955696 A JP 50955696A JP H10505180 A JPH10505180 A JP H10505180A
Authority
JP
Japan
Prior art keywords
iris
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP50955696A
Other languages
Japanese (ja)
Other versions
JP3943591B2 (en
Inventor
ジェーン, サークル アスムス,
レイモンド, ジョセフ コルズィンスキー,
ステファン, チャールズ シュー,
キース, ジェイムス ハンナ,
スターリング, エドワード マックブライド,
ジェイムス, リジス メイティ,
リチャード, パトリック ワイルズ,
Original Assignee
デイヴィッド サーノフ リサーチ センター,インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US08/300,678 priority Critical
Priority to US08/300,678 priority patent/US5572596A/en
Application filed by デイヴィッド サーノフ リサーチ センター,インコーポレイテッド filed Critical デイヴィッド サーノフ リサーチ センター,インコーポレイテッド
Priority to PCT/US1995/010985 priority patent/WO1996007978A1/en
Publication of JPH10505180A publication Critical patent/JPH10505180A/en
Application granted granted Critical
Publication of JP3943591B2 publication Critical patent/JP3943591B2/en
Anticipated expiration legal-status Critical
Application status is Expired - Lifetime legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00597Acquiring or recognising eyes, e.g. iris verification
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual entry or exit registers
    • G07C9/00126Access control not involving the use of a pass
    • G07C9/00134Access control not involving the use of a pass in combination with an identity-check
    • G07C9/00158Access control not involving the use of a pass in combination with an identity-check by means of a personal physical data
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/20Image acquisition
    • G06K9/32Aligning or centering of the image pick-up or image-field
    • G06K9/3216Aligning or centering of the image pick-up or image-field by locating a pattern

Abstract

(57)【要約】 虹彩認識は、如何なる物理的な接触の必要なしにイメージ化器の視野に使用者の眼を使用者が自己目合わせできる虹彩獲得と、虹彩を唯一に定める使用者の目のディジタル化されたビデオ像の部分を定めるデータを、提供される虹彩の如何なる空間の初期条件なしに配置して、空間的に登録されたそれそれの虹彩の区別に役立つ空間的な特徴の各々をお互いに比較するために規格化された空間相関を採用することによって、使用者の眼の虹彩を定める空間的に配置されたデータを、虹彩モデルを定める保存されたデータを用いて複数の空間のスケールの各々においてパターン照合し、その空間スケールでの照合の良さの評価を複数の空間のスケールにおいて定量的に決定して、その後に、使用者の眼の虹彩を唯一に明示するパタ (57) [summary] iris recognition, the eyes of the user user the eye of the user in the field of view of any physical image encoder without the need for contact is provided for in only the iris acquisition that can be self-eye alignment, the iris each of the digitized data defining the portion of the video image, place without an initial condition of any space of the iris to be provided, the spatial features that help distinguish it its iris spatially registered by adopting the spatial normalized correlation to compare to each other, and the data that are spatially arranged to define the iris of the eye of a user, a plurality of space using the stored data defining the iris model pattern matching in each of the scale, and quantitatively determined in the scale of goodness evaluating multiple spaces matching at that spatial scale, thereafter, manifests an iris of the eye of the user the only pattern of ンが、前記複数の空間のスケールの各々において定量的に決定された照合の良さの評価のある組み合わせのとおりに、モデルの虹彩を唯一に明示するディジタルデータと一致するか否かを判定する、ことによって達成される。 Down and determines, as a combination with the evaluation of the goodness of quantitatively determined matching in each of the scale of the plurality of spaces, whether to match the manifest digital data iris models only, It is achieved by.

Description

【発明の詳細な説明】 自動化された非侵入的な虹彩認識システムおよびその方法 合衆国政府は、政府契約に基づきこの発明に関する権利を有する。 Non intrusive iris recognition system and method United States government that is DETAILED DESCRIPTION OF THE INVENTION Automated, based on government contracts has rights in this invention. 先行技術は、人間の眼の内側あるいは眼の外側のいずれかについての特定の属性の検査に基づいて個々の人間を唯一に識別するための様々な技術を含んでいる。 The prior art includes various techniques to uniquely identify each person based on inspection of the particular attributes of any of the outside of the inner or eye of the human eye. また、先行技術は1991年5月14日にトモノらへ発行された米国特許5,01 6,282号に開示されているような、特徴ある部分からノイズを分離する眼球追跡像ピックアップ(eye tracking image pickup)装置に対する技術を含んでいる。 Further, the prior art as disclosed in 1991 May 14 US 5,01 No. 6,282 issued to Tomono et al., Eye tracking image pickup separating the noise from the distinctive portion (eye tracking image pickup ) includes techniques for device. これらの先行技術の一つは、人間の眼の少なくとも一方の虹彩の外面についての特定の属性の視覚による検査を含んでいる。 One of these prior art includes a visual inspection of the specific attributes of the outer surface of at least one of the iris of the human eye. この点については、1987年2 月3日にフロムらへ発行された米国特許4,641,349号、1994年3月1日にドーグマンへ発行された米国特許4,641,349号、およびドーグマンの著書「統計的な独立のテストによる高信頼性の人間の視覚の認識」(IEEE Transaction on Pa ttern Analysis and Machine Intellogence,15巻,11号,1993年11月の1148頁〜11 61頁)が参考になる。 In this regard, 1987 February 3 U.S. Pat. No. 4,641,349 issued to Fromm et al., 1994 March U.S. Pat. No. 4,641,349 issued to Doguman a day, and Doguman book "Statistical independence high reliability of recognition of the human visual "by the test (IEEE Transaction on Pa ttern Analysis and Machine Intellogence, 15 Vol., No. 11, 1148 pp. to 11 page 61 of 11 May 1993) would be helpful. 前述の特許および著書により明らかにされるように、ある人間と他人とをかなり正確に区別するために人間の虹彩の眼に見える構造(text ure)を使用できる。 As revealed by patents and books mentioned above, the structure visible human iris to distinguish one man and others fairly accurately (text ure) can be used. したがって、虹彩認識を、例として安全な設備(secure fa cility)または現金を支払うための自動処理機(ATM)へのアクセスを制御するような目的に使用してもよい。 Accordingly, the iris recognition may be used to secure equipment (secure fa cility) or automatic processor for paying cash purposes such as controlling access to (ATM) as an example. 虹彩認識システムは、アクセスを試みる各々の人間の虹彩をビデオ像化するイメージ化機(imager)とこの虹彩のビデオ像をデータベースのファイル上にある参照用の虹彩像と比較する計算機による視覚の像処理手段との使用を含む。 Iris recognition system, a visual image by a computer to compare each of the human iris to imager for video image of (Imager) and iris images for reference in the video image of the iris on the database file attempting to access including the use of the processing means. 例えば、アクセスを試みる人間は個人識別番号(PI N)を最初に入力してもよく、それにより、ファイル上にある参照用の虹彩像と関連づけられるその人間の虹彩ビデオ像が取られる。 For example, a human attempting to access may be initially enter a personal identification number (PI N), whereby the human iris video image associated with the iris image of a reference in the file is taken. 加えて、虹彩認識システムは、眼の外側の医学的な検査において医学的な診断をするような目的に有用である。 In addition, the iris recognition system is useful for purposes such as medical diagnostics in medical examination of the outside of the eye. 実用的な視点から、先行技術の虹彩認識システムおよびその方法には問題がある。 From a practical perspective, there are problems with the prior art iris recognition systems and methods thereof. 第1に、眼の虹彩の高品質な像を獲得するための以前のアプローチでは、(i )関心の対象である被験者を知られている標準的な形態にするために役立つ侵入的な(invasive)位置決め装置(例えば、ヘッドレストやバイトバール)、(ii )標準化された照明を眼に当てる制御された光源、(iii)位置決めされると共に、照明された眼をとらえるために役立つイメージ化機を有している。 First, previous approaches for obtaining a high quality image of the iris of the eye, such invasive help to a standard form known to subject a (i) interest of the subject (invasive ) positioning device (e.g., headrest or byte bar), (ii) Yes standardized controlled light source directing illumination into the eye, the imager to help capture with, illuminated eye is positioned (iii) doing. この標準的な配置に伴う多くの限界があり、これには、(a)使用者は位置決めするために必要とされる物理的な接触が魅力的なものではないことを知り、(b)よい品質で高いコントラストの像を取り込むために、これら以前からのアプローチによって必要とされる光の供給レベルが使用者を不愉快な気持ちにさせる、ということがある。 This has the standard number of limitations associated with placement, the this, (a) the user knows it is not attractive physical contact required for positioning, (b) good to capture an image of high contrast in the quality, supply level of light required by the approach from those previously to the user uncomfortable feeling, sometimes referred to. 第2に、眼の像において虹彩の場所を探り当てるための以前のアプローチでは、パラメータ化された虹彩のモデルを採用する。 Second, previous approaches to find out the location of the iris in the image of the eye, to adopt a model parameterized iris. これらのモデルのパラメータは、虹彩の境界に対応する領域を強調するために増強された眼の像へ逐次に適合させられる。 Parameters of these models are then sequentially adapted to enhanced eye image to highlight regions corresponding to the border of the iris. モデルの複雑度は、虹彩の内側と外側との境界を定める中心を共有する円から部分的に瞼を閉じる影響を含むもっと複雑なモデルへ向けて変化する。 The complexity of the model is changed towards more complex models, including a circle partially close the eyelids impact from that share the center to define the boundary between the inside and the outside of the iris. 虹彩の境界を強調するために使用される方法には、形態的にフィルタをかけるだけでなく勾配に基づくエッジ検出も含まれる。 The method used to emphasize the boundaries of the iris, also includes edge detection based on gradient not only morphologically filtering. これらのアプローチの主たる限界は、計算機の高額な出費だけでなく逐次に適合させる処理のために種として役立つよい初期条件を必要とすることにある。 The main limitation of these approaches is to require good initial conditions to serve as seeds for processing to adapt successively not only expensive outlay computer. 第3に、アクセスを試みる人間のビデオ像から導かれ、虹彩の場所が探り当てられる虹彩データ像をデータベース内のファイル上にある参照用の虹彩の位置が探り当てられた1以上の虹彩データ像とパターン照合する以前のアプローチでは、これらの虹彩データ像間の区別は合理的なものであるが、計算機の高額な出費を必要とする。 Third, derived from a human video images attempting to access one or more iris data image and pattern position of the iris for reference in the iris data images location is Saguriate iris on files in the database has been Saguriate in previous approaches to matching, but the distinction between these iris data images are reasonable, requiring expensive spending computer. 本発明は、先行技術の虹彩認識システムおよび方法を用いる前述の3つのアプローチの1以上に関連する不具合への解を提供する改良されたシステムおよび発明へ向けられる。 The present invention is directed to the prior art iris recognition systems and methods using the above three 1 or more to provide a solution to the associated defect improved system and invention approach. 前述の3個のアプローチの第1への解は、イメージ化器のレンズから異なった距離で空間的に間隔を置いて配置されると共に、実質的に中心を合わせて配置される幾何学的に似た形状の大きい方の第1のエッジおよび小さい方の第2のエッジによって非侵害的な目合わせ機構は実現され、眺めによって、小さい方のエッジが実質的にすっかり大きい方のエッジをふさぐ(occlude)空間的な点へ使用者を機動させることによって、システムと如何なる物理的な接触の必要なしにイメージ化器の視野へ使用者が自己目合わせすることを可能とする。 Solution to the first of the three approaches described above, while being spaced spatially intervals different distances from the imaging device lens, geometrically arranged substantially centered similar larger first edge and smaller non-intrusive eye alignment mechanism by a second edge of the shape is realized, the views, the smaller edge close substantially completely larger edges ( by maneuver the user to Occlude) spatial point, the system and the user to the field of view of any physical image encoder without the need of contact makes it possible to fit self eyes. 前述の3個のアプローチの第2への解は、虹彩の周辺の境界、前記虹彩の瞳孔の境界、前記眼の上側および下側の瞼の少なくとも1個の像にフィルタをかけることによって、個々の眼の虹彩を唯一に定める個々の眼のディジタル化された像の部分にディジタルデータの範囲を定め、増強されたその像を得て、その後に投票スキームを具体化する手段によって増強された像をヒストグラム化することを備える。 Solution to the second of the three approaches are described above, the boundary around the iris, pupil boundary of the iris, by filtering the at least one image of the upper and lower eyelid of the eye, each of determining the iris of the eye to only define the scope of the digital data into digitized portion of the image of each eye to give enhanced the image was enhanced by means of subsequent embodies a voting scheme to the image the provided that the histogram. これによって、個々の眼を表すディジタルデータ以外に如何なる初期条件の知識を必要とせずに、虹彩の境界を回復(recover)できる。 This allows, without requiring knowledge of any initial conditions other than the digital data representing individual eye recovery iris boundaries (the recover). 前述の3個のアプローチの第3への解は、安全なアクセスを制御するための自動化された虹彩認識を提供するときに使用するパターン照合手法を備える。 Solution to the third of the three approaches described above is provided with a pattern matching technique for use in providing automated iris recognition for controlling secure access. パターン照合手法はあるアクセスを試みる個人の眼の虹彩のディジタル化された像を唯一に定める第1のディジタルデータと指定された個人の眼の虹彩を唯一に定めるディジタル化された像の第2のディジタルデータとに応答し、この方法は複数の空間スケールの各々において、指定される個々と与えられる個々とのそれぞれの虹彩の区別の目安になると共に、空間的に記録される空間的な特徴の各々をお互いに比較し、複数の空間スケールの各々において、その空間スケールでの照合の良さの評価(value)を定量的に決定する規格化された空間的な相関を採用する。 Pattern matching techniques are individuals attempting to access the eye first defining a digitized image in only the iris of the digital data with the specified personal eye iris of digitized image defined in only the second in response to the digital data, in this method each of the plurality of spatial scales, it becomes a measure of the respective iris distinction between individual given individual specified, the spatial features that are spatially recorded and comparing each to each other, in each of the plurality of spatial scales, adopting spatial normalized correlation determining evaluate goodness of match at that spatial scale (value) quantitatively. 複数の空間スケールの各々において定量的に決定される照合の良さの評価のある組み合わせのとおりに、与えられる個々の前記眼の虹彩を唯一に明示するディジタルデータのパターンが指定される個々の眼の前記虹彩を唯一に明示するディジタルデータと一致するか否かを判断する。 As a combination with the evaluation of the goodness of match to be determined quantitatively in each of a plurality of spatial scales, the individual in which the pattern of only the manifest digital data irises individual the eye given is specified eye determining whether to match the manifest digital data the iris only. 添付の図面と共に引き続く詳細な記述を考慮することによって、本発明の教授するものを容易に理解することができる。 By considering the subsequent detailed description in conjunction with the accompanying drawings, it is possible to easily understand what the teachings of the present invention. 図1は、本発明の原理を含む自動化された非侵害的な(non-invasive)虹彩認識システムの機能ブロック図である。 Figure 1 is a non-intrusive (non-invasive) functional block diagram of an iris recognition system that is automated, including the principles of the present invention. 図2は、本発明の原理を含む虹彩取得手段の具体例である。 Figure 2 is an example of an iris acquisition means including the principles of the present invention. 図2aおよび2bは、共に、図2の具体例を強化するために図2の虹彩取得手段を改良したものを示す。 2a and 2b, both shows an improvement of the iris acquisition means 2 in order to enhance the specific example of FIG. 図3は、虹彩の位置を完全に探知するために、本発明によって採用される虹彩の入力像を自動的に処理するための計算ステップのフローを示す。 3, in order to fully detect the position of the iris, illustrating a flow of a calculation step of automatically processing input image of the iris to be employed by the present invention. 図1においては、自動化された非侵害的な虹彩認識システムは、ある所定の人間としてシステムによって認識されることを試みる人間(今後は”使用者”と記す)の虹彩の入力像、これは典型的にはビデオ像であるが、この像を得るための獲得手段100と、虹彩の入力像を自動的に処理し、獲得手段100から当該手段102へ加えられるビデオ入力像の虹彩の位置を完全に探り当てるための(図3に示される計算機のステップを採用する)虹彩の位置探索手段102と、手段102から当該手段104へ加えられると共に、位置が探索された虹彩情報のパターンをある所定の人間のモデルとなる格納された虹彩106のパターンと比較するパターン照合手段104と、使用者が実際にある所定の人間であるかどうかを高い正確さをもって In Figure 1, a non-invasive iris recognition system that is automated, iris input image of a human (the future referred to as "user") attempting to be recognized by the system as being a predetermined human, which typically is a video image in, the the acquisition means 100 for obtaining the image, automatically processes the input image of the iris, the position of the iris of the video input image applied from the acquisition means 100 to the means 102 completely (employing a step of the computer shown in FIG. 3) and the position searching means 102 of the iris, with applied from unit 102 to the unit 104, a predetermined person in the pattern of the iris information position is searched for find out the with the pattern matching unit 104 for comparing the model to become stored pattern of the iris 106, the user is actually whether the high accuracy which is a predetermined human 論づけることを備える。 Provided that characterize logical. 図2に示されるように、獲得手段100は、ビデオカメラのようなイメージ化機200と、アレイ状の光源202と、デフューザ(diffuser)204と、円偏光器206と、大きい方のスクエアエッジ(square edge)208と、小さい方のスクエアエッジ210と、像フレームグラバ(image frame grabber)212 とを備える。 As shown in FIG. 2, the acquisition unit 100 includes an imager 200 such as a video camera, an array-shaped light source 202, a diffuser (diffuser) 204, a circular polarizer 206, the larger square edge ( It comprises a square edge) 208, the square edge 210 of the smaller, and an image frame grabber (image frame grabber) 212. イメージ化機200は、望遠/マクロレンズ214を備える光学部品を有する典型的には低照明レベルのビデオカメラ、例えばシリコン増感ターゲット(SI T)であって、レンズ214がイメージ化機200を妨害しないようにデフューザ204の中心にある穴(hole)を通して面し、はっきりとした像を得る。 Imager 200 is typically a low light level video camera, for example, silicon sensitized target (SI T), the lens 214 interfere with the imager 200 having optical components including a telephoto / macro lens 214 facing through hole (hole) in the center of the diffuser 204 so as not to obtain a distinct image. レンズ214によって、使用者の眼216の高解像度の像を得ることができ、使用者はある距離を置いてレンズ214の前に位置し、結果として眼216とイメージ化機200との間を特別に近接させる必要がない。 By the lens 214, it is possible to obtain a high resolution image of the user's eye 216, at a certain the user distance located in front of the lens 214, special between the eye 216 and the imager 200 as a result there is no need to be close to. アレイ状の光源202がイメージ化機200を囲み、その光源202からの光がデフューザ204と円偏光器206とを通過し、偏光器206の前に配置される使用者の眼216を照らす。 An array of light sources 202 surrounds the imager 200, the light from the light source 202 passes through the diffuser 204 and the circular polarizer 206 to illuminate the eye 216 of the user is positioned in front of the polarizer 206. デフューザ204は、同じエネルギを単一の点源に集中するならば使用者を不愉快にさせるであろうかなりの光の強度を考慮して使用者の視界にわたって分布させるために、眼216に一様に照明することおよび眼216のところで広範囲にわたって放射されたエネルギを総和することの両方の目的に役立つ第1のフィルタとして作用する拡散パネルである。 Diffuser 204, the same energy in order to distribute over the field of view of the likely will either Nari light intensity user in consideration of that upset the user if you focus on a single point source, uniform to the eye 216 a diffusion panel that acts as a first filter which serves for both purposes of the summing energy emitted over a wide range at the possible and eye 216 to illuminate the. 偏光器20 6がレンズ214の前に位置させられ、この偏光器220は眼216の奥にある(underlying)構造をわかり難くする角膜のところでの鏡面反射の影響を改良する第2のフィルタとして作用する。 Polarizer 20 6 is is positioned in front of the lens 214, the polarizer 220 acts as a second filter to improve the effect of specular reflection at the cornea to obscure the (Underlying) structure at the back of the eye 216 to. 特に、偏光器206から現れる光は、特定の回転方向(sense of rotation)を有する。 In particular, the light emerging from the polarizer 206 has a certain rotational direction (sense of rotation). この光が鏡面反射面(例えば、角膜)にあたるとき、反射して戻る光は偏向しているか、反対の方向を有する。 This light is specular surface (e.g., the cornea) when the hits, or the light reflected back is deflected, they have opposite directions. この反対方向の光は偏光器206を通って戻ってくることはなく、それによってイメージ化機200への視野が遮られる。 Light in the opposite direction is not possible to come back through the polarizer 206, thereby the field of view of the imager 200 is blocked. しかしながら、拡散的に反射する眼の部分(例えば、虹彩)は虹彩にあたる光を散乱して、この光は偏光器206を通過して戻り、引き続いて像の形成に利用できるでしょう。 However, parts of the eye that diffusely reflected (e.g., iris) is scattered light corresponding to the iris, the light passes back through the polarizer 206, it will be available for the formation of an image subsequently. 厳密に言えば、円偏向は1 /4波リターダ(quarter wave retarder)によって得られる直線偏光を経由して達成されることに注目すべきである。 Strictly speaking, circular polarization is noteworthy to be achieved via the linearly polarized light obtained by the 1/4-wave retarder (quarter wave retarder). したがって、リターダは必然的に特定の波長範囲のみに対して調整されている。 Thus, the retarder is adjusted for only inevitably a particular range of wavelengths. 図2に示されるように、大きい方のスクエアエッジ208および小さい方のスクエアエッジ210を共にレンズ214の軸に関して中心に置き、大きい方のスクエアエッジ208を偏光器208の前に相対的に短い距離で位置を移動し、小さい方のスクエアエッジ210を偏光器210の前に相対的に長い距離で位置を移動する。 As shown in FIG. 2, placed in the center with respect to the axis of the larger square edge 208 and smaller square edge 210 together lens 214, a relatively short distance in front of polarizer 208 square edge 208 of the larger in moving the position, the square edge 210 of the smaller moving the position at a relatively long distance in front of the polarizer 210. これらのエッジ208および210は、システムに何らの物理的な接触の必要性なしにイメージ化機200の視野に使用者の眼216を使用者が自己位置合わせできるようにする目的のためのアライメント機構として役立つ。 These edges 208 and 210, an alignment mechanism for the purpose of user to user's eye 216 the field of view of imager 200 without the need for any physical contact with the system to be able to self-align It serves as a. 位置合わせの目標は、イメージ化される対象物(つまり、眼216)の3個の並進自由度を、レンズ214の焦平面のところの距離でイメージ化機200のセンサアレイ(図示せず)の中心にこの対象物が配置されるように制限することである。 The goal of alignment, the object being imaged (that is, the eye 216) three translational degrees of freedom of, (not shown) sensor array imager 200 at a distance of at the focal plane of the lens 214 center is to limit as this object is placed. これは単純な遠近法の幾何学によって達成され、使用者がこれらの条件を満足する空間内の点へ機動するように使用者に合図を提供する。 This is achieved by the geometry of simple perspective, the user provides a cue to the user to maneuver to a point in space that satisfy these conditions. 特に、波線220によって示されるように、遠近法のために、小さい方のスクエアエッジ210の四角の輪郭(outline contour)が大きい方のスクエアエッジ208の四角の輪郭をすっかりふさぐ空間上にある眼216の唯一の位置がある。 In particular, as indicated by the wavy line 220, for perspective, it is the spatial block the square outline of the square contour (outline contour) is larger square edge 208 of the smaller square edge 210 completely eye 216 there is only one position of. この空間上の位置は、偏光器206の前にあって、小さい方のスクエアエッジ208の位置より実質的により長い距離である。 Position on this space, in the front of the polarizer 206, is substantially greater distance from the position of the smaller square edge 208. 相対的なサイズとスクエアエッジ208および210 間の距離は、眼が適切に位置決めされるときそれらの輪郭が重なり、小さい方のスクエアエッジ210と大きい方のスクエアエッジ208との誤った配置によって使用者の現在の目合わせ位置の正しさに関して使用者に対して連続的にフィードバックされるように、選ばれる。 The distance between the relative size and square edges 208 and 210, overlap at the edges when the eye is properly positioned, using the wrong arrangement of the square edge 208 of the larger the square edge 210 of the smaller person of as is continuously fed back to the user with respect to the correctness of the current eye alignment is selected. この目合わせ手順を、密集していない(thin )線や他の小さなターゲットをかなりの正確さで一列に合わせる能力である人間のバーニア感覚の鋭さに類推してバーニア目合わせとして言及してもよい。 The visual alignment procedure may be mentioned by analogy to the dense non (thin) lines and sharpness of human vernier sense is the ability to align in a row other small targets with considerable accuracy as Vernier alignment . 更に、図2の具体例の大きい方および小さい方のエッジ208、210は、四角形の輪郭の形状を有するのに対して、これら大きい方および小さい方のエッジの輪郭は、眼が適切に位置合わせされるときそれらの輪郭が重なり、小さい方のスクエアエッジ210と大きい方のスクエアエッジ208との誤った配置によって使用者の現在の目合わせ位置の正しさに関して使用者に対して連続的にフィードバックされるように、四角形以外の幾何学的に似た形状を有してもよいことを理解すべきである。 Further, specific examples larger and smaller edges 208, 210 of FIG. 2, whereas with a square contour shape, the contour of the larger and smaller edges, eyes properly aligned overlap at the edges when it is being continuously fed back to the user with respect to the correctness of the current pitch alignment position of the user by the incorrect placement of the square edge 208 of the larger the square edge 210 of the smaller in so that it should be understood that may have geometrically similar shapes other than square. 如何なる場合でも、イメージ化機200は正確に焦点が合わさた(鏡面反射ノイズが無視できる程度の)使用者の眼216の光強度像を受け、この眼の像の連続するビデオフレームを導く。 In any case, imager 200 is exactly focused were combined (the degree that specular reflection noise is negligible) receiving the light intensity image of the user's eye 216, leads to successive video frames of the image of the eye. (標準的なディジタルフレームグラバである)フレームグラバ212はビデオフレームの選択された1つによって定義される眼の像を保存する。 (Which is a standard digital frame grabber) Frame grabber 212 stores the image of the eye is defined by a selected one of the video frames. フレームグラバ212からの保存される眼の像は、虹彩の位置決めをするための(図2に示された)手段102へ転送される。 Eye image to be saved from the frame grabber 212 is transferred to the positioning of the iris (shown in FIG. 2) to the unit 102. 例示の目的のために、使用者は安全な設備へアクセスを試みるかまたは現金を支払うための自動処理機(ATM)へのアクセスを試みるかのいずれかであると仮定しなさい。 For illustrative purposes, Suppose the user is either attempting to access the automatic processor (ATM) to pay or cash attempts to access to a secure facility. いずれの場合でも、最初にスクエアエッジ208および210を上記のような方法で利用し、システムとのあらゆる物理的な接触の必要なしにイメージ化機200の視野に眼216を自己位置合わせして、それからボタン(図示せず)を押し、イメージ化機200から導かれる現在起こっているビデオフレームによって定義される眼の像をフレームグラバ212に保存させるようにする。 In any case, first square edges 208 and 210 utilized in the method described above, the eye 216 the field of view of imager 200 without the need for any physical contact with the system by self-aligning, then press the button (not shown), so as to save the image of the eye to be defined by the video frame is going current derived from the imager 200 to the frame grabber 212. したがって、使用者によるボタンを押す操作は、使用者が静止画のカメラのシャッタを押して静止画のカメラのフィルム上に景色のスナップを記録する操作に似ている。 Accordingly, pressing the button by the user is similar to the operation for the user to record a snap views on the film camera still picture by pressing the shutter of the still picture camera. 図2に示される構造および上記の記載は、獲得手段100の基本的な具体例を構成する。 Structure and the above described are shown in Figure 2, constitutes a basic embodiment of the acquiring means 100. しかしながら、異なる使用者は大きさや顔の特徴の点でお互いに変わるので、イメージ化機によって見られると共にフレームグラバによって保存されるあらゆる使用者の眼の像が使用者の特定の大きさや顔の特徴から独立するように獲得手段100の構造を増強することが簡単に使用するために望ましく、隠れた(covert)像の獲得の可能性に備えることが望ましい。 However, different since the user changes to another in terms of features of size and face, an image of the eye of any user that is stored by the frame grabber with seen by imager is user specific size and facial features desirable in order to easily use to enhance the structure of the acquisition unit 100 to independent, it is desirable to provide the possibility of acquisition of hidden (Covert) images. 更に、安全な設備へのアクセスを管理するとき、アクセスを試みる使用者を識別するために使用される視覚的な追加情報を提供するだけでなく、イメージ化機の視野へ眼を自己目合わせするために使用者が利用するビデオカメラを用いて概括的な周辺の地域の監視することが望ましい。 Further, when managing access to a secure facility, as well as providing a visual additional information used to identify the user attempting to access, aligning self th eye to the field of view of the imager it is desirable for the user to monitor the general surroundings of the area using a video camera to be used for. 図2aおよび図2bは、共にこのような増強を提供する手段100の構造の変更を例示している。 Figures 2a and 2b illustrate the both structural changes means 100 for providing such enhancement. 図2aに示すように、獲得手段100の構造の変更では、アクセスを試みる使用者226の少なくとも頭部の像224を導くための相対的に広い視野を有する低解像度のイメージ化機222を有する。 As shown in FIG. 2a, the change of the structure of the acquisition unit 100 has a low resolution imager 222 having a relatively wide field of view for directing at least a head portion of the image 224 of the user 226 attempting to access. また、変更には、使用者226の眼の像232を導くための動く(active)鏡230の位置によって制御される相対的に狭い視野を有する高解像度のイメージ化機228を含んでいる(ここで、イメージ化機228は図2のイメージ化機200に対応する)。 Further, the change includes a high resolution imager 228 having a relatively narrow field of view which is controlled by the position of the moving (active) mirror 230 for guiding the image 232 of the user's eyes 226 (here in, imager 228 corresponds to the imager 200 of FIG. 2). 下に記述されるが、 図2bに示される型の像処理手段は、イメージ化機222の連続するビデオフレームに含まれる情報を使用し、リファレンスとしてこの中に含まれる米国特許4, 692,806号、5,063,603号および5,067,014号の一以上に開示される先行技術の通りに、動く鏡230の位置の調整して制御する。 Although described below, the image processing means of the type shown in Figure 2b, using information contained in successive video frames of imager 222, U.S. Patent 4 contained therein as a reference, No. 692,806, as the prior art disclosed in one or more 5,063,603 and EP 5,067,014, adjusted to control the position of the mirror 230 moving. 特に、獲得手段100の変更では、(操作者の頭の部分である顔の特徴、例えば眼や虹彩たけでなく)操作者の頭部の初期の位置を認識し、引き続いてその追跡するために、活動する像を獲得することおよび人間の頭部、顔および眼を追跡することを含んでいる。 In particular, the change of the acquisition unit 100, (the operator of the head portion at which facial features, such rather than eyes and iris bamboo) recognizes the initial position of the head of the operator, subsequent to the track , and the human head can acquire the image of activities includes tracking the face and eyes. 変更によって利用されるアプローチでは、イメージ化機222によって導かれる像情報を利用しているが、物事を3つの部分に分解する。 The approach utilized by the change, although by using the image information derived by the imager 222, decomposes into three parts things. 第1の部分は、不完全(crude)な位置の探索と頭部およびその部分の特徴の追跡とに関係している。 The first part is related incomplete and tracking features of the search and head and portions thereof (crude) position. 第2の部分は、不完全な位置の探索を使用すると共に、 眼の領域、特に虹彩の位置的および時間的な評価を一段と正確にしズームレンズで画像を拡大するための情報を追跡することに関係する。 The second portion is configured to use the search of incomplete position, region of the eye, to keep track of information for enlarging an image in particular positional and temporal evaluation more accurate zoom lens iris Involved. 第3の部分は、動きの追跡に関係している。 The third part is related to motion tracking. 眼の位置の探索の第1の部分は、潜在的な使用者が存在することをシステムに警告すると共に、使用者がいるかもしれない候補地を選択するための機構である。 The first part of eye localization, as well as warning that a potential user is present in the system, is a mechanism for selecting the candidate site that might have the user. このような警告機構は、(更に詳細に以下に議論されるが)図2に示される変動エネルギピラミッド(change energy pyramid)であり、そこではある時間間隔で記録される像は差がとられ、2乗される。 Such warning mechanism (is further discussed in detail below) is variable energy pyramids shown in FIG. 2 (change energy pyramid), an image to be recorded at a certain time interval in which the difference is taken, It is squared. 異なる解像度における変動エネルギは、差がとられると共に、2乗される像上でガウスのピラミッドを使用することによって生成される。 Variation energy at different resolutions, with the difference is taken, it is generated by using a Gaussian pyramid on an image to be squared. 変動は粗い解像度で解析され、もし潜在的な使用者が存在するならばイメージ化器の視野の中に入りつつあることをシステムに警告する。 Variation is analyzed at a coarse resolution, warning that is being if enters the field of view of the potential imaging device if the user is present in the system. 他の警告機構には立体写真術(stereo)が含まれ、それは使用者の接近が2箇所から記録される2個の像間の不一致を計算することおよび近くに物体があることをシステムに警告する。 Other warning mechanism includes stereoscopic photography (stereo), but it warned that there is an object and that the near calculate the discrepancy between the two images approaching of the user is recorded from two places in the system to. 眼の位置の探索の第2の部分は、使用者の眼および頭部を最初に位置の探索するための機構である。 The second part of eye localization is a mechanism for searching the first position to the eyes and the head of the user. 位置探索は、包括的な(generic)使用者のモデル、例えば粗い解像度における頭部のテンプレート、眼、鼻および口に対するテンプレートを含むパターン木を使用して実行される。 Position search is comprehensive (generic) user models, for example, a coarse head in resolution of the template, the eye is performed using a pattern tree containing template for the nose and mouth. 警告機構は、モデルを用いて像を照合するテンプレート照合プロセスに対して候補者の位置を与える。 Warning mechanism gives the position of candidates for the template matching process for matching the image with a model. 初期においては粗い解像度で照合を行い、粗い特徴、例えば頭部を位置決めし、引き続いて細かい解像度の特徴、例えば眼、鼻および口を粗い解像度の照合からの情報を使用して位置を決定する。 When the comparison at a coarse resolution in the initial, coarse features, positioned, for example the head, followed by a fine resolution of the characteristics, determined for example to the eyes and the position using information from the verification of the coarse resolution nose and mouth. 眼の位置の探索の第2の部分は、一旦視界に入った頭部および眼を追跡することである。 The second part of eye localization is to temporarily track containing the head and eye sight. これは、前の像フレームと現在の像フレームとの間の相関照合を実行する運動追跡器を使用してなされる。 This is done using the motion tracker for performing a correlation matching between the previous image frame and the current image frame. 相関照合は、眼の位置決めのために使用される特徴に基づき行われ、短い時間間隔のわたって追跡するためには便利である髪のような他の特徴に基づき実行されてもよいが、人から人へと変化する。 Correlation matching is performed based on the features used for positioning of the eye, but may be executed based on other characteristics, such as it is convenient hair to track over a short time interval, human It varies from person to. 前述の3個の部分の結果によって、イメージ化機222からの像224の眼の位置と、もし立体写真術を使用するならば眼の概略の範囲とが提供される。 The results of the three parts of the above, the position of the eye image 224 from the imager 222, and scope of summary of the eye are provided if you if using stereoscopic photography. この情報は、イメージ化機228を眼に向けるために動く鏡230によって使用され、像を獲得する。 This information is used by the mirror 230 to move in order to direct the imager 228 to the eye, to acquire an image. 像224内の眼の位置と、概略の範囲と、イメージ化機222 およびイメージ化機228の間の既知の幾何図形的配列とを与えると、イメージ化機228を使用して眼をとらえるための指示方向を簡単に計算できる。 The position of the eyes in the image 224, the range summary, given a known geometry between the imager 222 and imager 228, for capturing the eye using imager 228 the pointing direction can be easily calculated. 眼の範囲が未知ならば、そのときイメージ化機228は期待されるおおよその範囲に対応する位置に向けられ、その位置から期待される範囲の回りの範囲に対応する位置を差し示す。 If the range of the eye unknown, then the imager 228 is directed to a position corresponding to the approximate range expected, indicating pointing a position corresponding to the range of around the range expected from that position. イメージ化機228およびイメージ化機222が光学的に一列に並べられて配置されるならば、そのときのみ像224内の眼の像の位置がイメージ化機228を差し示すために必要である。 If imager 228 and imager 222 are each arranged in an optically single row, the position of the eyes of the image of the observed image 224 at that time is required to indicate pointing the imager 228. 一旦、イメージ化機228が初期的に眼に向けられると、イメージ化機228からの像が視野内に眼を保つために使用される。 Once the imager 228 is directed to initially eye image from imager 228 is used to keep the eye within the field of view. これによって、眼の素早い動きと使用者の通常の動きとが補なわれる。 Thus, the normal movement of the quick motion and the user of the eye is rope complement. このような動きはイメージ化機222からの像、例えば像224では重要でないでしょうが、イメージ化機228からの像、例えば像232では重要でしょう。 Such movement image from imager 222, would not be important in the example image 224, but the image from the imager 228, will be important in for example image 232. 追跡の手順は、使用者の像、例えば像232において使用される特徴が眼の瞳孔、周辺の(limbal)の境界および瞼に対応する構造であることを除いて、頭部または眼を追跡するための記述の手順と同じである。 Procedures for tracking, except the image of the user, for example, the pupil-feature used is the eye in the image 232, that the structure corresponding to the boundary and eyelids near the (limbal), to track the head or eyes procedure is the same as the description of the order. 図2bを参照して、イメージ化機222からの像に応答すると共に、使用者2 26の眼の像がイメージ化機228の視野内にあるように活動する鏡を制御する像プロセッサの機能ブロック図である。 Referring to FIG. 2b, while the response to the image from the imager 222, an image processor for controlling the mirror image of the eye of the user 2 26 activity to be within the field of view of imager 228 function blocks it is a diagram. 特に、イメージ化機222からのビデオ信号出力は像224の連続するフレームを表すが、この出力はディジタル化された後にガウスのピラミッド234へ入力G 0として加えられる。 In particular, the video signal output from the imager 222 represents successive frames of the image 224, the output is applied as an input G 0 to Gaussian pyramid 234 after being digitized. 入力G 0は適当な遅延をもってガウスのピラミッド23 4の出力へ転送され、像224と同じ解像度およびサンプリング密度で像ピラミッドのG 0像236を供給する。 Input G 0 is transferred to the output of the Gaussian pyramid 23 4 with a suitable delay, supply the G 0 image 236 of the image pyramid with the same resolution and sampling density and image 224. さらに、ピラミッドの分野で知られているように、ガウスのピラミッドは、ガウスのピラミッド234からの出力として像ピラミッド像のG 2出力像240および縮小された解像度G 1出力像238を導くための縦列接続されるコンボリュージョン(convolution)および副サンプリング段階を含む。 Further, as is known in the field of the pyramid, the Gaussian pyramid, columns for guiding the G 2 output image 240 and reduced resolution G 1 output image 238 of the image pyramid images as output from a Gaussian pyramid 234 including convolution (convolution) and sub-sampling phase that is connected. 0 、G 1およびG 2出力のそれぞれは、与えられる1以上の数のフレーム期間でフレーム遅延242によって遅延される。 G 0, each of G 1 and G 2 output is delayed by frame delay 242 with one or more the number of frame periods given. サブトラクタ(subtractor)244 は、G 0 、G 1およびG 2各々の現フレームとフレーム遅延がかけられたフレームとに対応するピクセルの偏向された振幅間で、サブトラクタ244からの出力としての差を取り、それによって動く対象の像の振幅に関して静止した像の対象の振幅を最小化する。 Subtractor (Subtractor) 244, the difference as an output from the G 0, G 1 and G 2 each between deflected amplitudes of corresponding pixels in the current frame and the frame that the frame delay has been applied, the sub tractor 244 taken to minimize the amplitude of the target image stationary with respect to the amplitude of the target image moves by it. この最小化したものは拡大され、偏向はサブトラクタ244 からの出力を(ブロック246によって指示されるように)2乗することによって除かれ、(それぞれブロック248、250および252によって指示されるように)G 0 、G 1およびG 2の変動エネルギピラミッドを与える。 The minimized ones is expanded, the deflection is removed by (as indicated by block 246) the square of the output from the subtractor 244, (as indicated by the respective blocks 248, 250 and 252 ) gives the G 0, change the energy pyramid of G 1 and G 2. その分野ではよく知られている粗い調整から細かい調整の(coarse-to-fine)プロセスにおいては、変動エネルギビラミッドの情報を、図2aの動く鏡230の位置を制御するために使用してもよい。 In the coarse adjustment from fine adjustment (coarse-to-fine) processes are well known in the art, the information of the fluctuation energy Vila mid, may be used to control the position of the mirror 230 of movement of FIG. 2a . 加えて、変更には、前述の米国特許5,063,603号で教授されるように、対象の認識のためにテンプレート照合を採用してもよい。 In addition, the change, as taught in U.S. Pat. No. 5,063,603 mentioned above, the template matching may be employed for object recognition. 代わって、不完全な位置探索あるいは追跡は、テンプレート照合よりも前述の米国特許4,692,806号に開示されているような特徴に基づく(feature-based)アルゴリズムを基礎にし、似たような情報を供給するであろう。 Alternatively, incomplete position searching or tracking, and than template matching based on the feature as disclosed in U.S. Pat. No. 4,692,806 mentioned above the (feature-based) algorithm basis, supplies similar information Will. さらに、変更は、引き続く操作に適当な品質を持つものが達成されるまで、像のシーケンスを獲得することによって、日和見的な(oppotunistic)形式で操作されるであろう。 Furthermore, changes to those with appropriate quality subsequent operation is achieved by acquiring a sequence of images, it will be operated by opportunistic (oppotunistic) format. 代わって、そのようなシーケンスから関心のある領域の部分がフレームにわたって獲得され、引き続いて共にモザイクにされ、適切な品質の単一の像を生成する。 Alternatively, such a portion of the region of interest from the sequence is acquired over a frame, it is in both subsequent mosaic, to generate a single image with an appropriate quality. また、これらの変更のあらゆるアプローチは、ズームレンズで画像を拡大すると共に、眼あるいは虹彩以外の顔面の特徴の高解像度の像を獲得するするために使用されるであろう。 Also, any approaches of these changes, as well as to enlarge the zoom lens, will be used to acquire a high resolution image of the features of the face other than the eyes or the iris. 例えば、 操作者の唇の高解像度の像が似たような方法によって得られるであろう。 For example, it will be obtained by a method such as a high resolution image of the operator's lips similar. 図2に示されるシステムは、図2aおよび図2bの変更によって与えられる増強を伴ってあるいはこれらの増強なしに、多くの方法で一般化されるであろう。 The system shown in Figure 2, without enhancing with it or enhancement thereof, given by a change in Figures 2a and 2b, will be generalized in many ways. 第1に、システムは可視範囲以外のスペクトル帯、例えば赤外線で動作するあろう。 First, the system spectral bands other than the visible range, for example, will operate in the infrared. したがって、ここで使用される”光”という言葉は可視のスペクトル帯と非可視のスペクトル帯との両方を含む。 Accordingly, the term herein used "light" includes both the spectral band of the spectral band of visible and invisible. これを達成するために、1/4波リターダの波長の調節のみでなく光源のスペクトル分布も、望ましいスペクトル帯へ合わせなくてはならない。 To achieve this, the spectral distribution of the light source not only adjusting of the wavelength of 1/4-wave retarder also must be combined to the desired spectral band. 第2に、もっと強い照明を採用することが必要であるけれども、システムは(低照明レベルのビデオカメラに代わって)標準のビデオカメラを使用するであろう。 Second, although it is necessary to adopt a stronger illumination system will use the (on behalf of low light level video camera) standard video camera. 第3に、レンズ系に対して他の選択が可能であり、それは自動焦点ズームレンズを含むであろう。 Third, is capable of other selected for the lens system, it will include an auto-focus zoom lens. この追加を行うと、使用者がバーニア目合わせ手順をうまく使用することに伴う正確性をほとんど助長しない。 If you do, hardly conducive to accuracy associated with that user to successfully use the Vernier alignment procedure. 第4に、バーニア目合わせ手順の他の具体例が使用されるであろう。 Fourth, would another embodiment of the Vernier alignment procedure is used. 例えば、使用者が正しい場所にいる場合は単一のスポットとして見え、他の場合は2つに見えるような形式で光線対を投光してもよい。 For example, it appears as a single spot when the user in the right place, in other cases may be projected rays pair in the format as seen in two. 第5に、受動的なバーニア目合わせ手順に代わって(あるいは、これに加えて)、システムを、自動的に使用者の眼の位置を発見しこれを追跡する(図2aおよび図2bと関連する上の記述のような)活動的な追跡イメージ化機およびそれに関連するソフトウエアと結合するようにしてもよい。 Fifth, in place of the passive Vernier alignment procedure (or in addition), system to discover the location of the eye automatically user to track it (connection with FIGS. 2a and 2b it may be combined with software such) active tracking imager and its associated as described above that. この一般化をすると、協力的な使用者を有することをほとんど助長しない。 When this generalization, hardly conducive to have a cooperative user.獲得手段100からの出力は、位置探索手段102へ入力として加えられるが、この出力はフレームグラバ212によって保存され特定のビデオフレームへ対応する相対的に高解像度の眼の像を定めるディジタル形式のデータを備える。図3は、位置探索手段102へ入力として加えられる眼の像データに対して手段1 02によって実行される連続するデータ処理ステップの手順を図式で示す。特に、入力像300は、獲得手段100から位置探索手段102へ入力として加えられる相対的に高解像度の眼の像データを表す。第1のデータ処理ステップ302は、入力像300を平均化すると共に縮小することである。このようなことは、空間的に平均化し、これによって高い周波数のノイズを縮小するために役立つローパス型ガウスフィルタを用いて、入力像300を定めるデータを処理すること(convolving)によって達成される。空間的に平均すると空間領域において冗長さが導入されるので、次にフィルタがかけられる像は情報の如何なる追加の損失なしに副サンプル化される。副サンプル化された像は、より小さい寸法およびより低い解像度のため、全サイズである元の入力像300に比べてより少数の計算機の需要となるという利点を伴って、引き続く処理のための基礎として役立つ。虹彩の位置探索に含まれる次のデータ処理ステップは、虹彩の境界の様々な要素の順次的な配置からなる。順番に、ステップ304は虹彩の周辺の(外側の) 境界の位置を示す。ステップ306は虹彩の瞳孔の(内側の)境界の位置を示し、更にステップ308は(虹彩の部分を閉じることがある)瞼の境界の位置を示す。この順序は、追加の要素の配置を制限する配置された要素の能力ばかりでなく、像に含まれる特徴に関して相対的に顕著な点に基づいて選ばれた。各々の要素の位置探索ステップは、2つの副ステップで行われる。第1の副ステップは、 高コントラストの像の配置の期待される形態に合わせて調整されるエッジ検出操作からなる。この調整は、以前に分離された境界要素によって与えられる特定の制限だけでなく(例えば、指向のような)関心ある境界要素の一般的な性質に基づく。第2の副ステップは、関心のある境界要素のパラメータ化されたモデルのための個別の値を示すために、検出されたエッジピクセルが積み重ねられる(vo te)スキームからなる。最も単純には、このステップを、参考文献として含まれる米国特許3,069,654号に開示されるように一般化されたホー(Hough)変換の表現で考えることができる。更に詳細には、ステップ304の周辺の境界に対して、像は方向づけにおいてほぼ垂直の状態を指示するようにして調整される勾配に基づくエッジ検出器を用いてフィルタがかけられる。この方向の選択性は、瞼を閉じている顔においてさえ、縁(limbus)の左の部分と右の部分は、ほぼ垂直線の方向を合わせられ、はっきりと目に見えるようにすべきであるという事実によって動機づけられる。 ( これは、頭がまっすぐ上を向いた位置にあることを仮定する)。周辺の境界は、 2個の中心座標xcおよびycと半径rとによってパラメータ化される円としてモデル化される。検出されたエッジピクセルは間引かれ(thin)、それから、与えられる(x、y)像配置に対して許される(xc、yc、r)値に従い、3次元の(xc、yc、r)空間でヒストグラム化される。ヒストグラム化による投票(vote)の最大値の点(xc、yc、r)がとられ、周辺の境界を代表するものとする。この境界に強制される追加の唯一の制限は、それが眼の与えられた像の範囲内にあることである。さらに詳細には、ステップ306の瞳孔の境界に対して、方向的に調整されない勾配に基づくエッジ検出器を用いてフィルタがかけられる。瞳孔の境界は円としてモデル化され、周辺の境界と類似している。円のパラメータは、エッジピクセルが間引かれ、それから許される(xc、yc、r)値へヒストグラム化されるに従い、受ける投票の最大数の表現を用いて、さらにまた例示される。瞳孔の場合に対して、許されるパラメータ値は、周辺の境界を記述する円の範囲内にあるように制限される。さらに詳細には、ステップ308の瞼の境界に対して、像は方向づけにおいて水平線を指示するように調整される勾配に基づくエッジ検出器を用いてフィルタがかけられる。この方向の選択性は、周辺の境界の範囲内にある(もしあるならば)瞼の部分はほぼ水平であるべきであるという事実によって動機づけられる。 (再び、これは、頭がまっすぐ上を向いた位置にあることを仮定する)。上側および下側の瞼は(2個の分離された)双曲線、つまり2次の曲線としてモデル化される。検出されたエッジピクセルは間引かれ、それからそれらの許される値に従いヒストグラム化されるとき、パラメータ化のための個別の値が示される。瞼の場合に対して、検出された境界は、周辺の境界を特徴づける円の範囲内にあり、且つ上側と下側の瞼に対して瞳孔の上と下にあるように追加される制限がある。最終的に、分離された虹彩の境界の様々な要素を用いて、最終の処理ステップ310は、自ら、虹彩の境界を定めるようにこれらの要素を組み合わせることからなる。これは、瞳孔の境界の外側、周辺の境界内側、上側の瞼の下および下側の瞼の上にある像の部分として虹彩をとることによって達成される。虹彩の位置探索の上記のアプローチは、多くの方法に一般化されるであろう。第1に、配向づけた勾配に基づくエッジ検出以外の像の表示は、虹彩の境界を増強するために使用されるでしょう。第2に、虹彩の境界に対する代わりのパラメータ化が採用されるでしょう。第3に、虹彩の境界の様々な要素(周辺、瞳孔および瞼の境界)の位置探索は、異なる順序で、つまり並列に行われるでしょう。第4に、代わりの制限、これは制限が存在しないことを含んでいるが、これは虹彩の境界の要素の形態を特徴づけるときに、強制されるでしょう。第5に、虹彩の境界のパラメータ化されたモデルに合わせることが、多重の解像度にわたって、例えば逐次的な粗い調整から細かい調整の形式で実行されるでしょう。第6に、虹彩の境界の位置探索は、空間的な平均化および副サンプル化の初段のステップを用いることなしに実行されるでしょう。入力の眼の像の虹彩の位置探索の上記のアプローチ(特に、図3に示される順次的なデータの処理ステップによって例示化されるものとして)の利益は、追加の初期条件を必要とせず、且つ(現れる像の構造を増強する)単純なフィルタ操作を採用すると共に(増強された像から虹彩の境界を受けるための投票スキームを具体化する)ほとんど計算機の出費を招かないヒストグラム化する操作を行って実行されるということである。図1では、位置探索手段102からの処理され唯一に位置が探索された使用者の虹彩の像を表すデータ出力は、照合手段104への第1の入力として加えられ、同時に、使用者がその人間であると主張する人間の唯一に位置が探索された虹彩106の像のモデルを表す選択されたデータは、以前にデータベースに保存したものであるが、これが照合手段104への第2の入力として加えられる。手段104は、本発明の原理を採用し、第1および第2の入力データを効率的に処理し、使用者が実際にその者であると主張する人間であることを示すために十分な照合があるか否かを決定する。特に、人間の虹彩の区別の目安となる空間的な特徴が、様々なスケールで明らかにされる。例えば、区別する構造は、虹彩の全体形状から小さなクリプト(cr ypt)および詳細な構造の分布までの範囲で変わる。空間的な構造のこの範囲をとらえるために、虹彩の像は2次元のバンドパス信号分解(decomposition)の表現を用いて表現される。この情報を得るためにラプラスのピラミッドを用いて実行される経験による予備的な研究では、虹彩に像間の許容しうる識別力{disc riminnation}は4つの異なる解像度で計算されるオクターブ幅のバンドに基づくという結論が導かれた。より低い周波数のバンドが情報を失うことなく連続的に副サンプルされるので、これは効率的な蓄積と処理へ向かう。 2つの像間で詳細な比較をするために、その対にわたる特徴的な構造の間で詳細な対応を取ること(establish)が有利である。エリア(erea)に基づく像登録手法はこの目的のために使用される。この手法では、全ての(x,y)に対して、データ像内の(x,y)−(u(x,y),v(x,y))でのビクセル値がモデル像内の(x,y)での値に近くなるようなマッピング関数(u(x、y )、v(x、y))を探す。ここで、(x,y)は、ここに記述される虹彩位置探索手法によって虹彩として配置される像の領域にわたって取られる。さらに、 マッピング関数は相似変換であること、つまり並進シフト、スケールおよび回転に制限される。これにより、同じ虹彩の様々な像化されたインスタンス間の観測される自由度を補うことができる。シフトは、イメージ化器のセンサアレイに平行な面でのオフセットの原因となる。スケールは、カメラの光軸に沿うオフセットの原因となる。回転は、眼のサイクロトーション(cyclotorsion)によって自然には補うことがされない変位を越えて光軸の回りの回転での変位の原因となる。アクセスを試みる人間を正確に位置決めする能力が与えられたとすると、上記のように像の獲得に関係して、これらは、対応を取るときに注意が向けられる( address)必要がある自由度のみである。このアプローチは、その分野で知られているモデルに基づく運動評価を採用する階層的な勾配に基づく像の登録アルゴリズムに基づいて実行された。アルゴリズムの初期条件は、上記の虹彩の位置探索手法によって配置された虹彩の境界の相対的なオフセットから導かれる。正確にそして詳細に登録されたデータ像およびモデルを用いて、次の仕事は、 比較を定量化するために照合の良さを付与することである。モデルとデータ像とを細かな登録に移すための能力が与えられると、適当な照合の指標は像の表現の各々の周波数帯の範囲内で空間的な位置にわたってピクセルの差を平均化することに基づいてもよい。空間的な相関はこの概念をとらえる。特に、規格化された相関が利用される。規格化された相関は、標準の相関と同じ型の情報をとらえるが、その分野で知られているように、それは像の強度において標準の相関を改悪する部分的な変位の原因になる。相関は、各々の空間的な周波数帯においてピクセルの小さなブロック(8×8)にわたって実行される。照合の良さはそれぞれの帯に対してメジアン(median)統計を経由してブロックの相関値を組み合わせることにより導かれる。メジアン操作を用いて組み合わされるブロックにすることは照合の部分的な調整と部外者の検出の程度を考慮し、それによってノイズによる誤照合、誤登録および閉鎖(例えば、それた眉毛)に対抗する強健さを与える。実行されなければならない最後の仕事は、データ像はモデル像が導かれた虹彩と同じ虹彩から導かれたか否かに関して、(各々の空間的な周波数帯に対して一つ)計算される4個の照合値の良さを組み合わて最終判断をすることである。この事柄に対する合理的なアプローチは、虹彩像のクラス(つまり、同じ虹彩の様々なインスタンス)の範囲内の差異を最小化するような方法でその値を組み合わせ、一方、虹彩像の異なるクラス(つまり、異なる虹彩のインスタンス)間の差異を最大化する。このような解を与える線形の関数は良く知られ、フィッシャ( Fisher)の線形判別式によって与えられる。この手法は、数ある中でも、デューダ(Duda)とハート(Hart)著、”パターン分類およびシーン解析(Patterm Classi fication And Scene Analysis)”、Wiley&Sons,1973年、1114頁〜118頁に開示された。あらゆる線形関数は任意のデータセットの異なるクラスを適当に区別できるということは先だった結論ではないが、実際には虹彩像の場合には非常に良く有効に作用する。更に、実際には、フィッシャの線形判別式は虹彩像の小さなセットに基づいて定義され、(10個の虹彩の5個の像を備える)データを処理する(train)。引き続いて、実際には、この関数は、対応するデータベース登録を持つ入力されるデータ像とこの登録を持たないデータ像間の卓越した区別に役立つ。ここで教授される操作の方法と装置は本発明の例示であるということを理解すべきである。その分野の技術を有する者は、本発明の視点および精神から離れることなく容易に変更したものを導く。特に、相似以外に登録の方法を使用してもよい。等方的なバンドパスフィルタの応用を経由して導かれる像の表示以外の像の表示は相関のための基礎として役立つ。例えば、参考文献としてここに含まれる1994年6月28日に発行された米国特許5,325,449号にバート(Burt)らによって開示されたもののように指向性のあるバンドパスフィルタ、つまり形態フィルタを使用してもよい。ウエーブレット分解のようなバンドパス以外の他の信号分解法を使用してもよい。ウエーブレット分解は、ビデオ信号を表す原像のサブバンド分解を生成するためにクワドラチャミラーフィルタ(quadrature mirro r filter:QMF)を使用する特定の型の多重解像度ピラミッドである。この型の信号プロセッサは、DCC'91データ圧縮コンファレンス、1991年4月8日〜11日、IEEEコンピュータソサエティプレス、ロスアラミトス、カリホルニアのプロシーデングに”フラクタルに基づく像圧縮の実用的なアプローチ(A Practical Approach Fractal-Based Image Compression)”としてペントランド(Pentland)らによって記述される。ペントランドらの圧縮システムは、高い周波数の細かい目盛りでの重要な情報を予測するために低周波数の粗い目盛りの情報を使用しようと試みる。また、QMFサブバンドピラミッドプロッセシングは、ジェイ.ダブリュウ.ウッド(JWWood)編集、クルワアカデミックプレス(Kluwer Academic Press)の”サブバンド像コーディング(Subband Image C oding)”の本に記述されている。代わりに、指向性のあるバンドパス、例えば1994年6月28日に発行された米国特許5,325,449号にバート(Burt)らによって開示されたものを使用してもよい。像照合を、もっとシンボリックな方法で実行することができる。例えば、並列に導かれる照合値をフィッシャの線形判別式によって与えられる方法以外の方法で組み合わせてもよい。例えば、(例えば、ニューラルネットワークによって導かれる)非線形の組み合わせを使用してもよい。相関以外の他の比較方法およびフィッシャの線形判別式以外の他の決定規準を使用してもよい。比較される虹彩を目合わせするために別の方法を用いてもよい。例えば、像は単純なあるいはより複雑な像変換を条件として、像は目合わせされる。実際の照合手順に先だって、環状の虹彩像を、例えば動径および角度位置が垂直および水平位置へ変換される直交形式へ変換する。このような操作は、ある引き続く動作を単純化するために役立つでしょう。実際の照合手順に先だって、虹彩像をある軸に沿って投射し、一次元の信号を生成する。例えば、動径方法に沿って像を投影してもよい。本発明は、地域、施設または装置、例えばコンピュータまたはATMに対するアクセスを生物測定学的な評価で制御するために使用できる。

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FR,GB,GR,IE,IT,LU,M C,NL,PT,SE),AM,AT,AU,BB,B G,BR,BY,CA,CH,CN,CZ,DE,DK ,EE,ES,FI,GB,GE,HU,JP,KE, KG,KP,KR,KZ,LK,LR,LT,LU,L V,MD,MG,MN,MW,MX,NO,NZ,PL ,PT,RO,RU,SD,SE,SI,SK,TJ, TT,UA,UZ,VN (72)発明者 ハンナ, キース, ジェイムス アメリカ合衆国 ニュー ジャージー州 プリンストン ジョン ストリート 212 (72)発明者 シュー, ス ────────────────────────────────────────────────── ─── of the front page continued (81) designated States EP (AT, BE, CH, DE, DK, ES, FR, GB, GR, IE, IT, LU, M C, NL, PT, SE), AM, AT, AU, BB, B G, BR, BY, CA, CH, CN, CZ, DE, DK, EE, ES, FI, GB, GE, HU, JP, KE, KG, KP, KR, KZ, LK , LR, LT, LU, L V, MD, MG, MN, MW, MX, NO, NZ, PL, PT, RO, RU, SD, SE, SI, SK, TJ, TT, UA, UZ, VN ( 72) inventor Hannah, Keith, James United States New Jersey Princeton, John Street 212 (72) inventor shoe, vinegar ファン, チャールズ アメリカ合衆国 ニュー ジャージー州 イースト ウィンザー カントリー ミル ドライヴ 11/4 (72)発明者 コルズィンスキー, レイモンド, ジョ セフ アメリカ合衆国 ニュー ジャージー州 トレントン エドワード アヴェニュー 168 (72)発明者 メイティ, ジェイムス, リジス アメリカ合衆国 ニュー ジャージー州 マーサーヴィル ノース ハミルトン ア ヴェニュー 178 (72)発明者 マックブライド, スターリング, エド ワード アメリカ合衆国 ニュー ジャージー州 ローレンスヴィル フィールドクレスト コート 4214 Fan, Charles United States New Jersey East Windsor Country mill DRIVE 11/4 (72) inventor Koruzuinsuki, Raymond, Joseph United States of America New Jersey Trenton Edward Avenue 168 (72) inventor Meiti, James, Rijisu United States New Jersey Mercer Ville North Hamilton A venue 178 (72) inventor McBride, Sterling, Edward United States of America New Jersey Lawrenceville field crest coat 4214

Claims (1)

  1. 【特許請求の範囲】 1、システムの使用者の焦点が合わされた眼像を導くためのレンズを有するイメージ化器を含む該システムにおいて、改良が、 前記システムに如何なる物理的な接触をすることなく、前記イメージ化器の視野へ前記使用者が自己目合わせを可能とするための目合わせ手段を備えるシステム。 All Claims 1, in the system including the imaging device having a lens for directing the eye images the focus of the user is combined systems, improvements, without any physical contact with the system a system comprising a visual alignment means for the user to the field of view of the imaging unit is to allow self-eye alignment. 2、前記目合わせ手段は、 前記レンズに関して実質的に中心位置にくるように合わされる与えられる第1 の大きさの輪郭形状を有する第1エッジ手段であって、前記第1エッジ手段は前記レンズの前に第1の距離で配置され、 与えられる前記第1の大きさよりも小さく、形状において前記与えられる輪郭形状へ幾何学的に類似し、前記レンズに関して実質的に中心位置にくるように合わされる与えられる第2の大きさの輪郭形状を有する第2エッジ手段であって、 前記第2エッジ手段は前記第1の距離より特定の指定される量だけ長い第2の距離で前記レンズの前に配置され、前記指定される距離は、前記第1エッジ手段の輪郭が前記第2エッジ手段の前記輪郭によって実質的に全てふさがれると共に、 前記第2エッジ手段よりも前記レ 2, the eye adjustment means is a first edge means having substantially the first magnitude of the contour shape given are combined to come to the center position with respect to said lens, said first edge means the lens are arranged at a first distance in front of, smaller than the first size given, the given profile geometrically similar to the shape and combined to come substantially centered position with respect to said lens a second edge means having a second magnitude of the contour shape given that, before the second edge means the lens just long second distance amount specified specific than the first distance disposed, the distance is the specified, the with the outline of the first edge means is substantially all blocked by the contour of the second edge means, the record than the second edge section ズの前の空間内の点へ前記使用者の眼が機動するとき、前記使用者の眼の焦点が合わされた像を前記レンズが形成するような請求項1のシステム。 When the eye of the user to a point in front of the space's is mobility, system of claim 1, such as the lens forms an image focus of the eye of the user is combined. 3、請求項2のシステムにおいて、前記第1エッジ手段の前記与えられる輪郭形状は四角形であり、それによって前記第2エッジ手段の前記幾何学的に類似の輪郭形状も四角形である。 3, The system of claim 2, wherein the given contour of the first edge section is square, the geometrically similar contour of the second edge means thereby also a square. 4、請求項2のシステムにおいて、前記システムは、 与えられる回転方向で円偏向の広がった(diffuse)光を用いて前記使用者の眼を照明し、前記レンズ上に入射する光を拡散的に反射する前記使用者の眼から、 前記レンズ上に入射すると共に、拡散的に反射される光を得る光手段を更に備える。 4, The system of claim 2, wherein the system illuminates the eye of the user using a spread of circular polarization in the direction of rotation given (diffuse) light, diffusely light incident on the lens from the user's eye to be reflected, the incident on the lens, further comprising an optical means for obtaining the light reflected diffusely. 5、請求項4のシステムにおいて、前記光手段は、 前記イメージ化器を取り巻く共に、照射する光を得るためのアレイ状の光源と、 前記アレイ状の光源から前記照射する光が通過する拡散パネルであって、前記拡散パネルは前記レンズに関して置かれ、前記拡散パネルを通過することなく前記レンズに前記反射光が到達可能とするための当該拡散パネルにある穴(hole) を有し、 前記拡散パネルおよび前記レンズの前に置かれ、前記使用者の眼に到達する照射光を前記与えられる回転方向に円偏向するための円偏向器と、 を備える。 5, the system of claim 4, wherein the optical means, both surrounding the imaging device, the diffusion panel and an array of light sources for obtaining the light for irradiation, light of the irradiation from the array of light sources passes a is, the diffusion panel is placed with respect to the lens, has a hole (hole) in the diffusion panel for the reflected light to the lens without passing through the diffusion panel is reachable, the diffusion placed in front of the panel and the lens, and a circular deflector for circularly polarized in the direction of rotation given the irradiation light reaching the eye of the user. 6、請求項4のシステムにおいて、前記イメージ化器へ結合し、使用者の前記眼の前記焦点が合わされた像を表すディジタルデータを得るためのディジタルフレームグラバを、更に備える。 6, the system of claim 4, coupled to said imaging device, a digital frame grabber for obtaining digital data representing an image in which the focus of the eye of the user is combined, further comprising. 7、請求項2のシステムにおいて、前記イメージ化器は、相対的に高解像度で狭い視野のイメージ化器であり、前記目合わせ手段は、 前記使用者の顔面の所定の特徴を含む像の情報の連続するビデオフレームを得るための相対的に低い解像度で広い視野のイメージ化器と、 前記所定の顔面の特徴を含む像情報に応答し、像情報の前記ビデオフレームに前記使用者の眼の位置を示すための像処理手段と、 前記低解像度で広い視野のイメージ化器が前記ビデオフレームにある前記使用者の眼の位置に応答し、高解像度で狭い視野のイメージ化器が前記使用者の焦点に合わされた像を提供することを可能とするための前記像処理手段に関連づけられる手段と、 更に備える。 7, The system of claim 2, wherein the imaging device is a narrow field of view imaged instrument at a relatively high resolution, the eye adjustment means, information of the image including the predetermined feature of the face of the user field of view and the image encoder wide at a relatively low resolution to obtain a video consecutive frames, in response to the image information including the characteristics of the predetermined face, the user's eye to the video frame of image information an image processing means for indicating the position, the low resolution in a wide field of view of the imaging unit is responsive to the position of the user's eye in said video frame, high resolution narrow field of view of the imaging device is the user means associated with said image processing means for making it possible to provide a image that is adapted to the focus of further comprises. 8、請求項7のシステムにおいて、前記像処理手段に関連づけられる前記手段は、前記相対的に低解像度で広い視野のイメージ化器の前記ビデオフレームに前記使用者の眼の前記配置の位置に一致して動く(active)鏡を含む。 8, The system of claim 7, wherein said means associated with said image processing means may include one of a position of the placement of the eyes of the user to the video frame of the imaging device in a wide viewing by the relatively low resolution including the match by moving (active) mirror. 9、請求項7のシステムにおいて、前記像処理手段は、 像情報の前記連続するビデオフレームの少なくとも一つ多段式の像ピラミッドを得るためのガウスのピラミッドと、 変動エネルギピラミッドを得るための前記ピラミッド段へ応答する手段と、 を含む。 9, The system of claim 7, wherein the image processing means includes a Gaussian pyramid for obtaining at least one multi-stage image pyramid of video frames wherein successive image information, the pyramid in order to obtain a variation energy pyramid and means responsive to the stage, the. 10、請求項1のシステムにおいて、前記イメージ化器は相対的に高解像度で狭い視野のイメージ化器であり、前記改良は、 前記使用者の所定の顔面の特徴を含む像情報の連続するビデオフレームを得るための相対的に低解像度で広い視野のイメージ化器と、 前記所定の顔面の特徴を含む像情報に応答し、像情報の前記ビデオフレームに前記使用者の眼の位置を示すための像処理手段と、 前記低解像度で広い視野のイメージ化器の前記ビデオフレームに、前記使用者の眼の位置の配置に応答し、高解像度で狭い視野のイメージ化器が前記使用者の焦点に合わされた像を提供することを可能とするための前記像処理手段に関連づけられる手段と、 を更に備える。 10, The system of claim 1, wherein the imaging device is an imaging device in a narrow field of view at a relatively high resolution, the improvement, successive image information including the features of predetermined facial of the user video viewing an image encoder wide at a relatively low resolution to obtain a frame, in response to the image information including the characteristics of the predetermined face, for indicating the position of the user's eye to the video frame of image information the focus of an image processing unit, wherein the video frames of the wide field of view imaging apparatus with a low resolution, in response to the arrangement of the position of the eye of the user, an image encoder for narrow field of view with high resolution of the user further comprising, means associated with said image processing means for making it possible to provide an intertwined image into. 11、請求項7のシステムにおいて、前記像処理手段に関連づけられる前記手段は、前記相対的に低解像度で広い視野のイメージ化器の前記ビデオフレームに前記使用者の眼の前記配置の位置に一致して動く鏡を含む。 11, The system of claim 7, wherein said means associated with said image processing means may include one of a position of the placement of the eyes of the user to the video frame of the imaging device in a wide viewing by the relatively low resolution including a mirror that moves in match. 12、請求項7のシステムにおいて、前記像処理手段は、 像情報の前記連続するビデオフレームの少なくとも一つ多段式の像ピラミッドを得るためのガウスのピラミッドと、 変動エネルギピラミッドを得るための前記ピラミッド段へ応答する手段と、 を含む。 12, The system of claim 7, wherein the image processing means includes a Gaussian pyramid for obtaining at least one multi-stage image pyramid of video frames wherein successive image information, the pyramid in order to obtain a variation energy pyramid and means responsive to the stage, the. 13、請求項1のシステムにおいて、前記システムは前記使用者の眼の虹彩を検査することへ向けられ、前記システムは前記イメージ化器へ結合され、前記使用者の前記焦点が合わされた眼の像を表すディジタルデータを得るためのディジタルフレームグラバを含み、前記改良は、 前記使用者の眼を明示する前記フレームグラバからのディジタルデータに対応し、前記眼の虹彩を位置決めするための像処理手段であって、前記像処理手段は(1)前記虹彩の周辺の境界を定める該使用者の眼の像の範囲内にあるデータの位置を示し、(2)前記虹彩の瞳孔の境界を定める前記周辺の境界の範囲内にあるデータの位置を示し、(3)前記眼の上側および下側の瞼の境界を定める前記周辺の境界の範囲内にあるデータの位置を示し、(4)それか 13, The system of claim 1, wherein the system is directed to examining the iris of the eye of the user, said system being coupled to said image encoder, an image of the eye in which the focal point of the user is combined includes a digital frame grabber for obtaining digital data representing said modifications corresponds to the digital data from manifests the frame grabber the eye of the user, the image processing means for positioning the iris of the eye there are, the image processing means indicates the position of data that are within the scope of the image of said use's eye bounding the periphery of (1) the iris, said peripheral defining the pupil boundary (2) the iris the indicates the position of data within the bounds, indicates the position of data that are within the boundaries of the peripheral defining the (3) the boundary of the upper and the lower eyelid of the eye, (4) or it ら、前記瞳孔の境界の外側、前記周辺の境界並びに上側の瞼の下側および下側の瞼の上側にあるデータのみを採用し、それによって前記虹彩を明示する部分へ前記データを制限する、順次的な順序で前記眼の虹彩を位置を決定する、を更に備える。 Et al., The outer boundary of the pupil, only the adoption data in the upper side of the lower and of the lower eyelid boundary and the upper eyelid near the, thereby limiting the data to the manifest part the iris, determining the position of an iris of the eye in a sequential order, further comprising a. 14、請求項13のシステムにおいて、 前記像処理手段は、前記順次的な順序で前記眼の虹彩の位置を探知することに先だって、前記フレームグラバから前記ディジタルデータをローパスフィルタにかけ、その後に副サンプル化するための手段を含む。 14, The system of claim 13, wherein the image processing means, prior to detecting the position of the iris of the eye the in sequential order, over a period from the frame grabber the digital data to the low-pass filter, then the sub-sample including the means for reduction. 15、請求項13のシステムにおいて、 前記像処理手段は、増強された像を得るための像フィルタ手段と、前記増強されたデータから前記虹彩の境界を回復する投票スキームを具体化するヒストグラム化手段とを採用し、 それによって、前記虹彩の境界の前記回復には、前記使用者の前記焦点が合わされた像を表すディジタルデータ以外に如何なる初期条件の知識を必要としない。 15, The system of claim 13, wherein the image processing means, a histogram forming means for embodying an image filter means for obtaining enhanced image, a voting scheme to recover the boundary of the iris from the enhanced data adopted bets, whereby the recovery of the boundary of the iris does not require knowledge of any initial conditions other than the digital data representative of an image in which the focus is combined of the user. 16、請求項13のシステムにおいて、 前記虹彩の該周辺の境界を定める該使用者の眼の像の範囲内にあるデータの位置を示すための前記像処理手段は、 ほぼ垂直線の向きに合わせて(faver)方向づけに関して調整され、検出されたエッジデータを得るための勾配に基づくエッジ検出フィルタ手段と、 2個の中心座標xcおよびycと、その動径rによってパラメータ化される円としてモデル化される前記周辺の境界に応答し、前記エッジが検出されたデータを間引き、与えられる(x,y)像位置に対して許される(xc,yc,r)に従って3次元の(xc,yc,r)空間へヒストグラム化するための手段と、を含み、 投票の最大数を持つ(xc,yc,r)点が取られ、該周辺の境界を代表する。 16, The system of claim 13, wherein the image processing means for indicating the location of data within the range of the image of the eye of said use's delimiting the periphery of the iris, move in the direction substantially perpendicular lines Te (Faver) is adjusted with respect to orientation, an edge detection filter means based on the slope for obtaining a detected edge data, and two center coordinates xc and yc, modeled by its radius r as a circle parameterized said response to the neighborhood of the boundary is, thinning the data to which the edge is detected, allowed for given (x, y) image position (xc, yc, r) of the three-dimensional according to (xc, yc, comprising means for histogram to r) space, and with the largest number of votes (xc, yc, r) point is taken to represent the boundaries around the. 17、請求項13のシステムにおいて、前記虹彩の該瞳孔の境界を定める該使用者の眼の像の範囲内にあるデータの位置を示すための前記像処理手段は、 方向づけに関して方向的に調整されず、検出されたエッジデータを得るための勾配に基づくエッジ検出フィルタ手段と、 2個の中心座標xcおよびycと、その動径rによってパラメータ化される円としてモデル化される前記瞳孔の境界に応答し、前記エッジが検出されたデータを間引き、与えられる(x,y)像位置に対して許される(xc,yc,r)に従って3次元の(xc,yc,r)空間へヒストグラム化するための手段と、を含み、 投票の最大数を持つ(xc,yc,r)点が取られ、該瞳孔の境界を代表する。 17, The system of claim 13, wherein the image processing means for indicating the location of data within the range of the image of the eye of said use's delimiting the pupil aperture of the iris is directionally adjusted for oriented not an edge detection filter means based on the slope for obtaining a detected edge data, and two center coordinates xc and yc, by its radius r at the boundary of the pupil is modeled as a circle parameterized in response, thinning the data to which the edge is detected, given (x, y) is the histogram of the 3D (xc, yc, r) to the space according to allowed for image position (xc, yc, r) anda means for, with the largest number of votes (xc, yc, r) point is taken to represent the boundary of the pupil aperture. 18、請求項13のシステムにおいて、前記虹彩の前記眼の上側および下側の瞼の該境界を定める該使用者の眼の像の範囲内にあるデータの位置を示すための像処理手段は、 ほぼ水平線の向きに合わせて(faver)方向づけに関して調整され、検出されたエッジデータを得るための勾配に基づくエッジ検出フィルタ手段と、 2次の曲線によってパラメータ化される放物線としてモデル化される前記眼の上側および下側の瞼の境界に応答する手段であって、この手段では放物線のパラメータは前記エッジが検出されたデータを間引き、与えられる(x,y)像位置に対して許される(xc,yc,r)に従って3次元の(xc,yc,r)空間へヒストグラム化することによって例示され、 を含み、 投票の最大数を持つ空間の点が取られ、該瞼 18, The system of claim 13, image processing means for indicating the position of data that are within the scope of the image of the eye of said use's defining upper and boundary of the lower eyelid of the eye of the iris, are adjusted for combined (Faver) oriented in the direction of the substantially horizontal line, the eye to be modeled and edge detection filter means based on the slope for obtaining a detected edge data, as parabola parameterized by second order curve and it means responsive to the upper and lower eyelid boundary, and in this way parabola parameters decimated data to which the edge is detected, given (x, y) are allowed for image position (xc , yc, (xc 3D accordance r), yc, r) is exemplified by the histogram of the space, wherein the point in space with the largest number of votes is taken, 該瞼 境界を代表する。 Representative of the boundary. 19、請求項1のシステムにおいて、前記システムは安全なアクセスを制御するための自動化された虹彩認識システムに向けられ、前記システムは焦点を合わされた前記使用者の像を表すディジタルデータを得るために前記イメージ化器に結合されるディジタルフレームグラバを含み、前記改良は像処理手段を備え、前記像処理手段は、 前記使用者の眼を明示すると共に、前記フレームグラバからくるディジタルデータに応答し、前記使用者の前記虹彩を唯一に明示するその部分に前記ディジタルデータの範囲を実質的に定めるための虹彩位置探索手段と、 前記ディジタルデータの前記部分と与えられる個々の眼の虹彩を唯一に明示する以前に保存されたディジタルデータとに応答するパターン照合手段であって、 前記パターン照合手段は 19, The system of claim 1, wherein the system is directed to an automated iris recognition system for controlling secure access, the system in order to obtain digital data representing the image of the user who has been focused includes a digital frame grabber coupled to said imaging device, said improvement comprising an image processing unit, said image processing means is configured to express the eye of the user, in response to the digital data coming from the frame grabber, explicit and iris position search means for determining substantially the scope of the digital data to that portion manifests on only the iris of the user, the iris of the individual eye given with said portion of said digital data to only a pattern matching means responsive to the digital data stored prior to the pattern matching means まず、複数の空間スケールの各々において、前記使用者と前記与えられる個々とのそれぞれの虹彩の区別の目安になると共に、空間的に記録される空間的な特徴の各々をお互いに比較し、前記複数の空間スケールの各々において、その空間スケールでの照合の良さの評価を定量的に決定して、その後に、前記使用者の眼の前記虹彩を唯一に明示すると共に、範囲が定められたディジタルデータのパターンが、前記複数の空間スケールの各々で定量的に決定される照合の良さの評価のある組み合わせに一致して、前記与えられる個々の眼の虹彩を唯一に明示する前記ディジタルデータと一致するか否かを判断する、規格化された空間的な相関を採用する。 First, in each of the plurality of spatial scales, it becomes a measure of the respective iris distinction between individual given the said user, compares each of the spatial features that are spatially recorded in each other, the in each of a plurality of spatial scales, a digital evaluation of goodness of match at that spatial scale determined quantitatively, then, the best seen in only the iris of the eye of the user, subtended pattern data, the plurality of in each spatial scales match the combination with the evaluation of the goodness of match to be quantitatively determined, consistent with demonstrating the digital data to the iris of the individual eye given the uniquely It determines whether to adopt a spatial normalized correlation is. 20、請求項19のシステムにおいて、 前記パターン照合手段は、並進シフト、スケールおよび回転という相似変換に制限されるマッピング関数(u(x,y),v(x,y))を利用するエリアに基づく登録手段を含み、全ての(x,y)に対して、範囲が制限されたディジタルデータの(x,y)−(u(x,y),v(x,y))における前記使用者の眼の前記虹彩を唯一の明示するデータ値が、前記与えられる個々の眼の虹彩を唯一に明示する前記ディジタルデータの(x,y)でのデータ値に近くなるようにする。 20, The system of claim 19, wherein the pattern matching means, translational shifts, the mapping function is limited to similarity transformation that scales and rotates (u (x, y), v (x, y)) to the area to use the comprises registration means based, all (x, y), the range is restricted digital data is (x, y) - (u (x, y), v (x, y)) said user in the only manifest data values ​​the iris of the eye, (x, y) of the digital data demonstrates the iris of each eye given the uniquely made to be close to the data value at. 21、請求項19のシステムにおいて、 前記パターン照合手段は、前記複数のスケールの各々の第1の空間のディメンジョンで第1の複数のデータ点および前記複数のスケールの各々の第2の空間のディメンジョンで第2の複数のデータ点からなる与えられる空間のブロックにわたって規格化される空間の相関を実行する手段を含む。 21, The system of claim 19, wherein the pattern matching means, the plurality of scales each of the first spatial dimension in the first second space of the plurality of data points and each of the plurality of scales of dimensions in comprising means for performing a correlation of space that is normalized over a block of space provided composed of a second plurality of data points. 22、請求項21のシステムにおいて、 前記パターン照合手段は、前記複数の空間のスケールの各々において、メジアン統計を経由して前記与えられる空間のブロックにわたって前記規格化される空間の相関を組み合わせ、その空間のスケールで照合の前記良さの評価を定量的に決定する手段を含む。 22, The system of claim 21, wherein the pattern matching means, in each of the scale of the plurality of spaces, combines the correlation of space where the is normalized over a block of space given the via median statistics, the comprising means for quantitatively determining the evaluation of the goodness of match in scale space. 23、請求項19のシステムにおいて、 前記パターン照合手段は、同じ虹彩の様々なインスタンス内で変化を極小化すると共に、異なる虹彩の様々なインスタンス内で変化を極大化するように、前記複数の空間のスケール各々において定量的に決定される照合の良さの評価を組み合わせるための手段を含む。 23, The system of claim 19, wherein the pattern matching means is configured to minimize changes in different instance of the same iris, so as to maximize the change in the various instances of different irises, said plurality of spaces in scales each comprising means for combining the evaluation of goodness of match to be determined quantitatively. 24、請求項23のシステムにおいて、 前記複数の空間のスケールにおいて定量的に決定される照合の良さの評価を組み合わせる前記手段は、同じ虹彩の様々なインスタンスの中の変化を極小化すると共に、異なる虹彩の様々なインスタンスの中の変化を極大化する線形関数としてフィッシャの線形判別式を採用する。 24, The system of claim 23, wherein the means for combining the evaluation of goodness of match to be quantitatively determined in the scale of the plurality of spaces, while minimizing the change in the various instances of the same iris, different as a linear function to maximize the change in the various instances of the iris employing a linear discriminant Fisher. 25、個々の眼のディジタル化された像を定めるディジタルデータに応答し、前記個々の前記眼の虹彩を唯一に定めるその像の部分へ前記ディジタルデータの範囲を定めるための像処理方法であって、前記方法は、前記虹彩の周辺の境界、前記虹彩の瞳孔の境界、並びに前記眼の上側および下側の瞼の少なくとも1つを定める前記個々の眼の像内にそのデータを配置する範囲の決定ステップを含み、前記範囲の決定ステップは、 (a)前記虹彩の周辺の境界、前記虹彩の瞳孔の境界、並びに前記眼の上側および下側の瞼の内の前記1つを像フィルタにかけ、増強された像を得るステップと、 (b)前記増強された像をヒストグラム化するステップであって、前記ヒストグラム化するステップは前記増強された像から前記虹彩の内の前記1つ 25, a image processing method for response to digital data defining the digitized image of each eye, delimiting said digital data to part of the image defining the only iris of the individual of the eye the method, the boundary of the periphery of the iris, pupil boundary of the iris, as well as the range of placing the data into the image of the individual eye defining at least one of the upper and lower eyelid of the eye It includes a decision step, decision step of the range subjected to (a) the boundary of the periphery of the iris, pupil boundary of the iris, and the 1 Tsuozo filter of the upper and lower eyelid of the eye, and obtaining enhanced image, comprising the steps of histogram; (b) enhanced image, said step of histogram is said one of said iris from the enhanced image 回復するための投票スキームを具体化し、 それによって、前記虹彩の境界内の前記1つの回復は、前記個々の前記眼の前記ディジタル化された像を定めるディジタルデータ以外に如何なる初期条件を必要としない、 を備える改良である方法。 Embodies a voting scheme for recovering, whereby said one recovery within the boundaries of the iris does not require any initial conditions other than the digital data defining the digitized image of said individual of the eye the method is an improvement comprising a. 26、請求項25の方法において、前記範囲の決定ステップは、順次的に、 (c)第1に、前記虹彩の前記周辺の境界を定める前記ディジタルデータの部分の位置を示すステップと、 (d)第2に、前記虹彩の前記瞳孔の境界を定める前記周辺の境界の範囲内にある前記ディジタルデータの部分の位置を示すステップと、 (e)第3に、前記眼の上側および下側の瞼の前記境界を定める前記周辺の境界の範囲内にある前記ディジタルデータの部分の位置を示すステップと、 (f)第4に、前記瞳孔の境界の外側、前記周辺の境界の内側、並びに上側の瞼の下側および下側の瞼の上側にある前記ディジタルデータの部分のみを採用し、 前記眼の虹彩を明示するそのデータの部分へ前記ディジタルデータの範囲を制限するステップと、 を含む 26, The method of claim 25, the determining step of the above range, the sequential, and indicating the position of the portion of the digital data defining the boundary of the periphery of (c) to the first, the iris, (d ) second, and indicating the position of the portion of the digital data within the bounds of the peripheral delimiting the pupil of the iris, (e) a third, upper and lower of the eye and indicating the position of the portion of the digital data which is within the range of the peripheral boundary defining the boundaries of the eyelids, (f) a fourth, outer boundary of the pupil, the inner boundary of the peripheral above, as well as upper including only part of the digital data at the upper side of the lower and of the lower eyelid of the eyelid was employed, and the step of limiting the scope of the digital data the iris of the eye manifest to portions of the data, the 27、請求項26の方法において、該ステップ(c)は、 (g)ほぼ垂直線の向きに合わせて(faver)方向づけに関して調整されると共に、エッジデータを検出するための勾配に基づくエッジ検出フィルタ手段を採用するステップと、 (h)2個の中心座標xcおよびycと、その動径rによってパラメータ化される円とした前記周辺の境界のモデルに一致して、与えられた(x,y)像の配置に対して、前記エッジが検出されたデータを間引き、与えらる(x,y)像位置に対して許される(xc,yc,r)に従って3次元の(xc,yc,r)空間へヒストグラム化するステップと、 を含み、 それによって、投票の最大数を持つ(xc,yc,r)点が取られ、該周辺の境界を代表する。 27, The method of claim 26, wherein step (c), (g) while being adjusted for by (Faver) directed fit substantially vertical line orientation, edge detection filter based on the gradient for detecting edge data a step of adopting a means, consistent with (h) of the two center coordinates and xc and yc, boundaries of the peripheral that is a circle parameterized by its radius r of the model, given (x, y ) with respect to the arrangement of the image, thinning the data to which the edge is detected, Ataeraru (x, allowed for y) image position (xc, yc, 3D accordance r) (xc, yc, r ) comprises the steps of histogram into space, thereby having the largest number of votes (xc, yc, r) point is taken to represent the boundaries around the. 28、請求項26の方法において、該ステップ(d)は、 (g)方向づけに関して方向的に調整されることなく、エッジデータを検出するための勾配に基づくエッジ検出フィルタ手段を採用するステップと、 (h)2個の中心座標xcおよびycと、その動径rによってパラメータ化される円とした前記瞳孔の境界のモデルに一致して、与えられた(x,y)像の配置に対して、前記エッジが検出されたデータを間引き、与えらる(x,y)像位置に対して許される(xc,yc,r)に従って3次元の(xc,yc,r)空間へヒストグラム化するステップと、 を含み、 それによって、投票の最大数を持つ(xc,yc,r)点が取られ、該瞳孔の境界を代表する。 28, The method of claim 26, wherein step (d) is a step of employing an edge detection filter means based on the gradient to detect without edge data be adjusted directionally with respect to (g) orientation, (h) and two center coordinates xc and yc, consistent with the model of the boundary of the pupil was circle parameterized by its radius r, given (x, y) with respect to the arrangement of the image thinning the data to which the edge is detected, the step of the histogram of the 3D (xc, yc, r) to the space according Ataeraru (x, y) are allowed for image position (xc, yc, r) If, it includes, thereby having the largest number of votes (xc, yc, r) point is taken to represent the boundary of the pupil aperture. 29、請求項26の方法において、該ステップ(e)は、 (g)ほぼ水平線の向きに合わせて(faver)方向づけに関して調整されると共に、 エッジデータを検出するための勾配に基づくエッジ検出フィルタ手段と採用するステップと、 (h)2次の曲線によってパラメータ化される放物線として前記眼の上側の瞼の境界および下側の瞼の境界の各々のモデルに一致して、前記エッジが検出されたデータを間引き、与えられた像の配置に対して許される値に従って3次元の空間へヒストグラム化するステップと、 を含み、 投票の最大数を持つ空間の点が取られ、該瞼の境界を代表する。 29, The method of claim 26, wherein step (e) is, (g) while being adjusted for by (Faver) directed fit almost horizontal orientation, edge detection filter means based on the gradient for detecting edge data a step of adopting a, consistent with (h) 2-order curve by the respective boundary of the upper eyelid boundary and lower eyelid of the eye as a parabola that is parameterized model, wherein the edge is detected thinning the data, comprising the steps of histogram into three-dimensional space according to the values ​​allowed for the arrangement of a given image, a point in space with the largest number of votes is taken, representing the boundary of 該瞼to. 30、請求項25の方法において、 範囲の決定ステップを実行するに先立ち前記個々の前記眼の前記ディジタル化された像を定める前記ディジタルデータを前記ローパスフィルタにかけ、その後に副サンプル化するステップを、更に含む。 30, The method of claim 25, said digital data defining said digitized image of said individual said eye prior to performing the step of determining a range subjected to the low pass filter, a step of subsequently subsampled, further comprising. 31、安全なアクセスを制御するために自動化された虹彩認識を提供するときに使用するための像処理方法であって、前記方法はアクセスを試みるある個人の眼の虹彩のディジタル化された像を唯一に定める第1のディジタルデータと指定される個々の眼の虹彩を唯一に定めるディジタル化される像の以前保存された第2 ディジタルデータとに応答し、前記方法はパターン照合ステップを含み、前記パターン照合ステップは、 a)複数の空間スケールの各々において、まず、前記使用者と前記与えられる個々とのそれぞれの虹彩の区別の目安になると共に、空間的に記録される空間的な特徴の各々をお互いに比較するために規格化された空間的な相関を採用し、前記複数の空間スケールの各々において、その空間スケールでの照合の良さの 31, a image processing method for use in providing an iris recognition automated to control secure access, the digitized image of an iris of the eye of an individual said method attempting to access in response to each eye of the iris, which is designated as the first digital data defining the only the second digital data previously stored in the image to be digitized stipulated in only, the method comprising a pattern matching step, the pattern matching step, a) in each of the plurality of spatial scales, first, it becomes a measure of the respective iris distinction between individual given the said user, each of the spatial features that are spatially recorded It adopted standardized spatial correlation to compare to each other, and in each of said plurality of spatial scales, a goodness of match at that spatial scale 価を定量的に決定するステップと、 b)前記与えられる個々前記眼の前記虹彩を唯一に明示するディジタルデータのパターンが、前記複数の空間スケールの各々で定量的に決定される照合の良さの評価のある組み合わせに一致して、前記指定された個々の眼の虹彩を唯一に明示する前記ディジタルデータと、一致するか否かを判断するステップと、を備える。 A step of quantitatively determining the value, b) the pattern of the digital data demonstrates the only the iris of the given individual the eye, the goodness of match to be quantitatively determined in each of the plurality of spatial scales there consistent with combinations of evaluation includes a sole on demonstrating the digital data to the iris of the individual eye the designated, and determining whether matching, the. 32、請求項31において、該ステップ(a)は、 c)前記パターン照合手段は、並進シフト、スケールおよび回転という相似変換に制限されるマッピング関数(u(x,y),v(x,y))を利用するエリアに基づく像を登録し、全ての(x,y)に対して、前記使用者の眼の前記虹彩を唯一の明示する第1のディジタルデータの(x,y)−(u(x,y),v(x ,y))におけるデータ値が、前記指定される個々の眼の虹彩を唯一に明示する前記第2のディジタルデータの(x,y)におけるデータ値に近くなるようにするステップを、備える。 32, in claim 31, wherein step (a), c) said pattern matching means, translational shifts, the mapping function is limited to similarity transformation that scales and rotates (u (x, y), v (x, y )) to register the image based on the area of ​​use of all (x, relative y), the iris of the eye of the user only demonstrates the first digital data (x, y) - ( u (x, y), v (x, y) data values ​​in) is the individual designated eye iris of the second digital data demonstrates the unique (x, y) near to the data values ​​in the step of so made comprises. 33、請求項31において、該ステップ(a)は、 a)前記複数のスケールの各々の第1の空間のディメンジョンで第1の複数のデータ点および前記複数のスケールの各々の第2の空間のディメンジョンで第2の複数のデータ点からなる与えられる空間のブロックにわたって規格化される空間の相関を実行するステップを備える。 33, in claim 31, wherein step (a), a) of the plurality of scales each of the first spatial dimension in a second space of each of the first plurality of data points and the plurality of scales comprising the step of performing a spatial correlation to be normalized over a block of space provided composed of a second plurality of data points in the dimension. 34、請求項33において、該ステップ(c)は、 d)前記複数の空間のスケールの各々において、メジアン統計を経由して前記与えられる空間のブロックにわたって前記規格化される空間の相関を、その空間のスケールで照合の前記良さの評価を定量的に決定するために組み合わせるステップを、備える。 34, in claim 33, wherein step (c), d) in each of the scale of the plurality of spaces, the correlation of space where the is normalized over a block of space given the via median statistics, the the step of combining in order to quantitatively determine the evaluation of the goodness of match in scale space provided. 35、請求項31のシステムにおいて、該ステップ(b)は、 c)同じ虹彩の様々なインスタンスの範囲内の変化を最小化すると共に、異なる虹彩の様々なインスタンスの範囲内の変化を最大化するように、前記複数の空間のスケールの各々において定量的に決定される照合の良さの範囲を組み合わせるステップを備える。 35, The system of claim 31, wherein step (b), c) while minimizing changes in the scope of the various instances of the same iris and maximizes the change in the scope of the various instances of different irises as described above, comprising the step of combining the good range of collation quantitatively determined in each of the scale of the plurality of spaces. 36、請求項35において、該ステップ(c)は、 d)同じ虹彩の様々なインスタンスの範囲内の変化を最小化すると共に、異なる虹彩の様々なインスタンスの範囲内の変化を最大化するように、線形関数としてフィッシャの線形判別式を採用するステップを備える。 36, in claim 35, wherein step (c), d) while minimizing changes in the scope of the various instances of the same iris, so as to maximize the change in the scope of the various instances of different irises , comprising the step of employing a linear discriminant Fisher as a linear function.
JP50955696A 1994-09-02 1995-09-05 Non intrusive iris recognition system and method for automated Expired - Lifetime JP3943591B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US08/300,678 1994-09-02
US08/300,678 US5572596A (en) 1994-09-02 1994-09-02 Automated, non-invasive iris recognition system and method
PCT/US1995/010985 WO1996007978A1 (en) 1994-09-02 1995-09-05 Automated, non-invasive iris recognition system and method

Publications (2)

Publication Number Publication Date
JPH10505180A true JPH10505180A (en) 1998-05-19
JP3943591B2 JP3943591B2 (en) 2007-07-11

Family

ID=23160145

Family Applications (3)

Application Number Title Priority Date Filing Date
JP50955696A Expired - Lifetime JP3943591B2 (en) 1994-09-02 1995-09-05 Non intrusive iris recognition system and method for automated
JP2006107873A Pending JP2006302276A (en) 1994-09-02 2006-04-10 Automated, non-invasive iris recognition system and method
JP2006107872A Pending JP2006260583A (en) 1994-09-02 2006-04-10 Automated, non-invasive iris recognition system and method

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2006107873A Pending JP2006302276A (en) 1994-09-02 2006-04-10 Automated, non-invasive iris recognition system and method
JP2006107872A Pending JP2006260583A (en) 1994-09-02 2006-04-10 Automated, non-invasive iris recognition system and method

Country Status (10)

Country Link
US (2) US5572596A (en)
EP (2) EP1126403A2 (en)
JP (3) JP3943591B2 (en)
CN (1) CN1160446A (en)
AU (1) AU702883B2 (en)
BR (1) BR9508691A (en)
CA (1) CA2199040A1 (en)
HU (1) HUT76950A (en)
MX (1) MX9701624A (en)
WO (1) WO1996007978A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6490365B2 (en) 2000-07-13 2002-12-03 Matsushita Electric Industrial Co., Ltd. Eye image pickup device
JP2006522629A (en) * 2003-04-11 2006-10-05 ボシュ・アンド・ロム・インコーポレイテッドBausch & Lomb Incorporated Systems and methods for data acquisition and alignment and tracking of the eye
US7200248B2 (en) 2001-10-31 2007-04-03 Matsushita Electric Industrial Co., Ltd. Eye image pickup apparatus and entry/leave management system

Families Citing this family (364)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0654765B1 (en) * 1993-11-23 2002-10-09 Hewlett-Packard Company, A Delaware Corporation Ink rendering
DE69527450D1 (en) 1994-01-20 2002-09-05 Omron Tateisi Electronics Co Image processing device for identifying an input image and thus equipped copier
US6714665B1 (en) 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
JP2630923B2 (en) * 1994-12-05 1997-07-16 日本アイ・ビー・エム株式会社 Image recognition method and apparatus
AU1127197A (en) * 1995-12-04 1997-06-27 David Sarnoff Research Center, Inc. Wide field of view/narrow field of view recognition system and method
US6324532B1 (en) 1997-02-07 2001-11-27 Sarnoff Corporation Method and apparatus for training a neural network to detect objects in an image
US6018728A (en) * 1996-02-09 2000-01-25 Sarnoff Corporation Method and apparatus for training a neural network to learn hierarchical representations of objects and to detect and classify objects with uncertain training data
JP2907120B2 (en) * 1996-05-29 1999-06-21 日本電気株式会社 Red-eye detection and correction apparatus
DE69721537D1 (en) 1996-06-06 2003-06-05 British Telecomm Identification of persons
JP3436293B2 (en) * 1996-07-25 2003-08-11 沖電気工業株式会社 Animal identification device and identification systems
WO1998008439A1 (en) * 1996-08-25 1998-03-05 Sensar, Inc. Apparatus for the iris acquiring images
US6819783B2 (en) 1996-09-04 2004-11-16 Centerframe, Llc Obtaining person-specific images in a public venue
AU5180598A (en) * 1996-11-12 1998-06-22 Express Key, Inc. Automated check-in/check-out system
WO1998022913A2 (en) * 1996-11-19 1998-05-28 Fingerpin Ag Process and device for identifying and recognizing living beings and/or objects
US6381345B1 (en) * 1997-06-03 2002-04-30 At&T Corp. Method and apparatus for detecting eye location in an image
US6618117B2 (en) 1997-07-12 2003-09-09 Silverbrook Research Pty Ltd Image sensing apparatus including a microcontroller
US6985207B2 (en) 1997-07-15 2006-01-10 Silverbrook Research Pty Ltd Photographic prints having magnetically recordable media
AUPO802797A0 (en) 1997-07-15 1997-08-07 Silverbrook Research Pty Ltd Image processing method and apparatus (ART54)
US6786420B1 (en) 1997-07-15 2004-09-07 Silverbrook Research Pty. Ltd. Data distribution mechanism in the form of ink dots on cards
US6948794B2 (en) 1997-07-15 2005-09-27 Silverbrook Reserach Pty Ltd Printhead re-capping assembly for a print and demand digital camera system
US20040160524A1 (en) * 1997-07-15 2004-08-19 Kia Silverbrook Utilising exposure information for image processing in a digital image camera
US7110024B1 (en) 1997-07-15 2006-09-19 Silverbrook Research Pty Ltd Digital camera system having motion deblurring means
US7714889B2 (en) * 1997-07-15 2010-05-11 Silverbrook Research Pty Ltd Digital camera using exposure information for image processing
US7593058B2 (en) * 1997-07-15 2009-09-22 Silverbrook Research Pty Ltd Digital camera with integrated inkjet printer having removable cartridge containing ink and media substrate
US6879341B1 (en) 1997-07-15 2005-04-12 Silverbrook Research Pty Ltd Digital camera system containing a VLIW vector processor
US7551202B2 (en) * 1997-07-15 2009-06-23 Silverbrook Research Pty Ltd Digital camera with integrated inkjet printer
US6624848B1 (en) 1997-07-15 2003-09-23 Silverbrook Research Pty Ltd Cascading image modification using multiple digital cameras incorporating image processing
US6690419B1 (en) 1997-07-15 2004-02-10 Silverbrook Research Pty Ltd Utilising eye detection methods for image processing in a digital image camera
US7246897B2 (en) * 1997-07-15 2007-07-24 Silverbrook Research Pty Ltd Media cartridge for inkjet printhead
US7705891B2 (en) * 1997-07-15 2010-04-27 Silverbrook Research Pty Ltd Correction of distortions in digital images
US7077515B2 (en) 1997-07-15 2006-07-18 Silverbrook Research Pty Ltd Media cartridge for inkjet printhead
AUPO799997A0 (en) 1997-07-15 1997-08-07 Silverbrook Research Pty Ltd Image processing method and apparatus (ART10)
US6119096A (en) 1997-07-31 2000-09-12 Eyeticket Corporation System and method for aircraft passenger check-in and boarding using iris recognition
AUPO850597A0 (en) * 1997-08-11 1997-09-04 Silverbrook Research Pty Ltd Image processing method and apparatus (art01a)
US6151403A (en) * 1997-08-29 2000-11-21 Eastman Kodak Company Method for automatic detection of human eyes in digital images
US6252976B1 (en) * 1997-08-29 2001-06-26 Eastman Kodak Company Computer program product for redeye detection
US7042505B1 (en) 1997-10-09 2006-05-09 Fotonation Ireland Ltd. Red-eye filter method and apparatus
US9412007B2 (en) 2003-08-05 2016-08-09 Fotonation Limited Partial face detector red-eye filter method and apparatus
US7630006B2 (en) 1997-10-09 2009-12-08 Fotonation Ireland Limited Detecting red eye filter and apparatus using meta-data
US7352394B1 (en) 1997-10-09 2008-04-01 Fotonation Vision Limited Image modification based on red-eye filter analysis
US8520093B2 (en) 2003-08-05 2013-08-27 DigitalOptics Corporation Europe Limited Face tracker and partial face tracker for red-eye filter method and apparatus
US7738015B2 (en) 1997-10-09 2010-06-15 Fotonation Vision Limited Red-eye filter method and apparatus
US6299307B1 (en) 1997-10-10 2001-10-09 Visx, Incorporated Eye tracking device for laser eye surgery using corneal margin detection
EP0910986A1 (en) * 1997-10-24 1999-04-28 BRITISH TELECOMMUNICATIONS public limited company Imaging apparatus
US6055322A (en) * 1997-12-01 2000-04-25 Sensor, Inc. Method and apparatus for illuminating and imaging eyes through eyeglasses using multiple sources of illumination
US6850631B1 (en) 1998-02-20 2005-02-01 Oki Electric Industry Co., Ltd. Photographing device, iris input device and iris image input method
JP3271750B2 (en) 1998-03-05 2002-04-08 沖電気工業株式会社 Iris identification code extraction method and apparatus, an iris recognition method and apparatus, the data encryption device
US6283954B1 (en) 1998-04-21 2001-09-04 Visx, Incorporated Linear array eye tracker
US5966197A (en) * 1998-04-21 1999-10-12 Visx, Incorporated Linear array eye tracker
KR100575472B1 (en) * 1998-05-19 2006-05-03 가부시키가이샤 소니 컴퓨터 엔터테인먼트 Image processing apparatus and method
US5956122A (en) * 1998-06-26 1999-09-21 Litton Systems, Inc Iris recognition apparatus and method
US7398119B2 (en) * 1998-07-13 2008-07-08 Childrens Hospital Los Angeles Assessing blood brain barrier dynamics or identifying or measuring selected substances, including ethanol or toxins, in a subject by analyzing Raman spectrum signals
US6961599B2 (en) * 2001-01-09 2005-11-01 Childrens Hospital Los Angeles Identifying or measuring selected substances or toxins in a subject using resonant raman signals
JP3610234B2 (en) * 1998-07-17 2005-01-12 株式会社メディア・テクノロジー Iris information acquiring apparatus and iris identification apparatus
JP3315648B2 (en) 1998-07-17 2002-08-19 沖電気工業株式会社 Iris code generation apparatus and iris recognition system
AUPP702098A0 (en) 1998-11-09 1998-12-03 Silverbrook Research Pty Ltd Image creation method and apparatus (ART73)
US6377699B1 (en) 1998-11-25 2002-04-23 Iridian Technologies, Inc. Iris imaging telephone security module and method
US6424727B1 (en) * 1998-11-25 2002-07-23 Iridian Technologies, Inc. System and method of animal identification and animal transaction authorization using iris patterns
US6753919B1 (en) 1998-11-25 2004-06-22 Iridian Technologies, Inc. Fast focus assessment system and method for imaging
WO2000033569A1 (en) * 1998-11-25 2000-06-08 Iriscan, Inc. Fast focus assessment system and method for imaging
US6532298B1 (en) 1998-11-25 2003-03-11 Iridian Technologies, Inc. Portable authentication device and method using iris patterns
US6289113B1 (en) 1998-11-25 2001-09-11 Iridian Technologies, Inc. Handheld iris imaging apparatus and method
US6396476B1 (en) 1998-12-01 2002-05-28 Intel Corporation Synthesizing computer input events
US6538649B2 (en) 1998-12-01 2003-03-25 Intel Corporation Computer vision control variable transformation
KR100320465B1 (en) 1999-01-11 2002-01-16 구자홍 Iris recognition system
US6944318B1 (en) 1999-01-15 2005-09-13 Citicorp Development Center, Inc. Fast matching systems and methods for personal identification
US6363160B1 (en) * 1999-01-22 2002-03-26 Intel Corporation Interface using pattern recognition and tracking
US6577329B1 (en) 1999-02-25 2003-06-10 International Business Machines Corporation Method and system for relevance feedback through gaze tracking and ticker interfaces
KR100320188B1 (en) * 1999-03-23 2002-01-10 구자홍 Forgery judgment method for iris recognition system
GB9907515D0 (en) * 1999-04-01 1999-05-26 Ncr Int Inc Self service terminal
US6247813B1 (en) * 1999-04-09 2001-06-19 Iritech, Inc. Iris identification system and method of identifying a person through iris recognition
US6700998B1 (en) * 1999-04-23 2004-03-02 Oki Electric Industry Co, Ltd. Iris registration unit
US7711152B1 (en) 1999-04-30 2010-05-04 Davida George I System and method for authenticated and privacy preserving biometric identification systems
US8325994B2 (en) 1999-04-30 2012-12-04 Davida George I System and method for authenticated and privacy preserving biometric identification systems
AUPQ056099A0 (en) 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (pprint01)
JP2001034754A (en) * 1999-07-19 2001-02-09 Sony Corp Iris authentication device
US6553494B1 (en) 1999-07-21 2003-04-22 Sensar, Inc. Method and apparatus for applying and verifying a biometric-based digital signature to an electronic document
US6647131B1 (en) 1999-08-27 2003-11-11 Intel Corporation Motion detection using normal optical flow
US6322216B1 (en) 1999-10-07 2001-11-27 Visx, Inc Two camera off-axis eye tracker for laser eye surgery
WO2001028238A2 (en) * 1999-10-08 2001-04-19 Sarnoff Corporation Method and apparatus for enhancing and indexing video and audio signals
US7020351B1 (en) 1999-10-08 2006-03-28 Sarnoff Corporation Method and apparatus for enhancing and indexing video and audio signals
JP4067825B2 (en) * 1999-10-21 2008-03-26 テクノラス ゲーエムベーハー オフタルモロギッシェ システム Recognition and Tracking iris for light treatment
CN1309340C (en) 1999-10-21 2007-04-11 泰克诺拉斯眼科系统有限公司 Customized corneal profiling
AU7852400A (en) 1999-11-09 2001-06-06 Iridian Technologies, Inc. System and method of biometric authentication of electronic signatures using iris patterns
US6505193B1 (en) 1999-12-01 2003-01-07 Iridian Technologies, Inc. System and method of fast biometric database searching using digital certificates
US6654483B1 (en) 1999-12-22 2003-11-25 Intel Corporation Motion detection using normal optical flow
US6494363B1 (en) * 2000-01-13 2002-12-17 Ncr Corporation Self-service terminal
EP1252769B2 (en) * 2000-02-01 2006-12-20 Swisscom Mobile AG System and method for diffusing image objects
EP1136937B1 (en) * 2000-03-22 2006-05-10 Kabushiki Kaisha Toshiba Facial image forming recognition apparatus and a pass control apparatus
US6540392B1 (en) 2000-03-31 2003-04-01 Sensar, Inc. Micro-illuminator for use with image recognition system
WO2002005061A2 (en) 2000-07-06 2002-01-17 David Paul Felsher Information record infrastructure, system and method
US7277561B2 (en) * 2000-10-07 2007-10-02 Qritek Co., Ltd. Iris identification
JP2002101322A (en) * 2000-07-10 2002-04-05 Matsushita Electric Ind Co Ltd Iris camera module
DE10052201B8 (en) * 2000-10-20 2005-06-30 Carl Zeiss Meditec Ag Method and apparatus for identification of a patient and an operation area
US7224822B2 (en) * 2000-11-02 2007-05-29 Retinal Technologies, L.L.C. System for capturing an image of the retina for identification
US6453057B1 (en) 2000-11-02 2002-09-17 Retinal Technologies, L.L.C. Method for generating a unique consistent signal pattern for identification of an individual
US6697504B2 (en) * 2000-12-15 2004-02-24 Institute For Information Industry Method of multi-level facial image recognition and system using the same
US8462994B2 (en) * 2001-01-10 2013-06-11 Random Biometrics, Llc Methods and systems for providing enhanced security over, while also facilitating access through, secured points of entry
US7921297B2 (en) * 2001-01-10 2011-04-05 Luis Melisendro Ortiz Random biometric authentication utilizing unique biometric signatures
US20020091937A1 (en) * 2001-01-10 2002-07-11 Ortiz Luis M. Random biometric authentication methods and systems
KR100374707B1 (en) * 2001-03-06 2003-03-04 에버미디어 주식회사 Method of recognizing human iris using daubechies wavelet transform
KR100374708B1 (en) * 2001-03-06 2003-03-04 에버미디어 주식회사 Non-contact type human iris recognition method by correction of rotated iris image
US20020162031A1 (en) * 2001-03-08 2002-10-31 Shmuel Levin Method and apparatus for automatic control of access
CN100492310C (en) 2001-03-08 2009-05-27 施米尔·莱文 Method and apparatus for automatic control of access
US7095901B2 (en) * 2001-03-15 2006-08-22 Lg Electronics, Inc. Apparatus and method for adjusting focus position in iris recognition system
US7181017B1 (en) 2001-03-23 2007-02-20 David Felsher System and method for secure three-party communications
BR0116991B1 (en) 2001-04-27 2011-01-25 diagnostic and therapeutic system for laser surgery of the eye.
JP2002330318A (en) * 2001-04-27 2002-11-15 Matsushita Electric Ind Co Ltd Mobile terminal
US20040193893A1 (en) * 2001-05-18 2004-09-30 Michael Braithwaite Application-specific biometric templates
US6937135B2 (en) 2001-05-30 2005-08-30 Hewlett-Packard Development Company, L.P. Face and environment sensing watch
CA2359269A1 (en) * 2001-10-17 2003-04-17 Gary A. Van Beek Face imaging system for recordal and automated identity confirmation
US20030076981A1 (en) * 2001-10-18 2003-04-24 Smith Gregory Hugh Method for operating a pre-crash sensing system in a vehicle having a counter-measure system
FR2831351A1 (en) * 2001-10-19 2003-04-25 St Microelectronics Sa Bandpass filter for detecting texture of iris, has passband which is real, bi-dimensional, oriented along phase axis and resulting from product of pair of identical one-dimensional Hamming windows having specified transfer function
US20040165147A1 (en) * 2001-11-13 2004-08-26 Della Vecchia Michael A. Determining iris biometric and spatial orientation of an iris in accordance with same
US7226166B2 (en) * 2001-11-13 2007-06-05 Philadelphia Retina Endowment Fund Optimizing the properties of electromagnetic energy in a medium using stochastic parallel perturbation gradient descent optimization adaptive optics
US7775665B2 (en) * 2001-11-13 2010-08-17 Dellavecchia Michael A Method for optically scanning objects
US6819991B2 (en) * 2001-11-29 2004-11-16 Ford Global Technologies, Llc Vehicle sensing based pre-crash threat assessment system
US6775605B2 (en) 2001-11-29 2004-08-10 Ford Global Technologies, Llc Remote sensing based pre-crash threat assessment system
US7158870B2 (en) * 2002-01-24 2007-01-02 Ford Global Technologies, Llc Post collision restraints control module
US6665426B1 (en) * 2002-01-29 2003-12-16 West Virginia University Research Corporation Method of biometric identification of an individual and associated apparatus
US6831572B2 (en) 2002-01-29 2004-12-14 Ford Global Technologies, Llc Rear collision warning system
US6519519B1 (en) 2002-02-01 2003-02-11 Ford Global Technologies, Inc. Passive countermeasure methods
US6721659B2 (en) 2002-02-01 2004-04-13 Ford Global Technologies, Llc Collision warning and safety countermeasure system
US6498972B1 (en) 2002-02-13 2002-12-24 Ford Global Technologies, Inc. Method for operating a pre-crash sensing system in a vehicle having a countermeasure system
US7009500B2 (en) 2002-02-13 2006-03-07 Ford Global Technologies, Llc Method for operating a pre-crash sensing system in a vehicle having a countermeasure system using stereo cameras
US7088872B1 (en) * 2002-02-14 2006-08-08 Cogent Systems, Inc. Method and apparatus for two dimensional image processing
KR100842501B1 (en) * 2002-02-21 2008-07-01 엘지전자 주식회사 Indicated device of iris location for iris recognition system
CA2487411C (en) * 2002-05-30 2011-06-14 Visx, Inc. Tracking torsional eye orientation and position
JP4148700B2 (en) * 2002-05-30 2008-09-10 松下電器産業株式会社 Eye image pickup device
US7850526B2 (en) * 2002-07-27 2010-12-14 Sony Computer Entertainment America Inc. System for tracking user manipulations within an environment
US9818136B1 (en) 2003-02-05 2017-11-14 Steven M. Hoffberg System and method for determining contingent relevance
US7436986B2 (en) * 2003-03-25 2008-10-14 Bausch & Lomb Incorporated Positive patient identification
JP2004295572A (en) * 2003-03-27 2004-10-21 Matsushita Electric Ind Co Ltd Imaging apparatus of certification object image and imaging method therefor
US7751594B2 (en) 2003-04-04 2010-07-06 Lumidigm, Inc. White-light spectral biometric sensors
US8787630B2 (en) 2004-08-11 2014-07-22 Lumidigm, Inc. Multispectral barcode imaging
JP4347599B2 (en) * 2003-04-10 2009-10-21 オリンパス株式会社 Personal authentication device
US8571902B1 (en) 2003-04-18 2013-10-29 Unisys Corporation Remote biometric verification
US7458683B2 (en) * 2003-06-16 2008-12-02 Amo Manufacturing Usa, Llc Methods and devices for registering optical measurement datasets of an optical system
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US20060209333A1 (en) * 2003-07-11 2006-09-21 Yoshiaki Takida Next-generation facsimile machine of internet terminal type
KR100587422B1 (en) * 2003-07-18 2006-06-09 학교법인연세대학교 Apparatus and Method for Iris Recognition from all direction of view
US20050024516A1 (en) * 2003-07-31 2005-02-03 Robert Fish Digital camera
US20050031224A1 (en) * 2003-08-05 2005-02-10 Yury Prilutsky Detecting red eye filter and apparatus using meta-data
US20050140801A1 (en) * 2003-08-05 2005-06-30 Yury Prilutsky Optimized performance and performance for red-eye filter method and apparatus
WO2005024698A2 (en) * 2003-09-04 2005-03-17 Sarnoff Corporation Method and apparatus for performing iris recognition from an image
US8705808B2 (en) 2003-09-05 2014-04-22 Honeywell International Inc. Combined face and iris recognition system
JP3945474B2 (en) * 2003-11-28 2007-07-18 松下電器産業株式会社 Eye image input device and the authentication apparatus and an image processing method
FR2864290B1 (en) * 2003-12-18 2006-05-26 Sagem Method and iris recognition device
FR2870948B1 (en) * 2004-05-25 2006-09-01 Sagem A positioning device of a user by displaying its mirror image, the image capture device and corresponding positioning method
US7460696B2 (en) 2004-06-01 2008-12-02 Lumidigm, Inc. Multispectral imaging biometrics
US8229185B2 (en) 2004-06-01 2012-07-24 Lumidigm, Inc. Hygienic biometric sensors
GB0412175D0 (en) * 2004-06-01 2004-06-30 Smart Sensors Ltd Identification of image characteristics
CN1299231C (en) * 2004-06-11 2007-02-07 清华大学 Living body iris patterns collecting method and collector
JP4610614B2 (en) * 2004-06-21 2011-01-12 グーグル インク.Google Inc. Multi biometric authentication system and method based on a single image
KR100601963B1 (en) * 2004-08-23 2006-07-14 삼성전자주식회사 Authentication apparatus and method using eye gaze
US7248720B2 (en) * 2004-10-21 2007-07-24 Retica Systems, Inc. Method and system for generating a combined retina/iris pattern biometric
US8254674B2 (en) 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
US7587085B2 (en) * 2004-10-28 2009-09-08 Fotonation Vision Limited Method and apparatus for red-eye detection in an acquired digital image
US7536036B2 (en) 2004-10-28 2009-05-19 Fotonation Vision Limited Method and apparatus for red-eye detection in an acquired digital image
US7167736B2 (en) * 2004-11-04 2007-01-23 Q Step Technologies, Inc. Non-invasive measurement system and method for measuring the concentration of an optically-active substance
US7639889B2 (en) * 2004-11-10 2009-12-29 Fotonation Ireland Ltd. Method of notifying users regarding motion artifacts based on image analysis
US7639888B2 (en) * 2004-11-10 2009-12-29 Fotonation Ireland Ltd. Method and apparatus for initiating subsequent exposures based on determination of motion blurring artifacts
US7636486B2 (en) * 2004-11-10 2009-12-22 Fotonation Ireland Ltd. Method of determining PSF using multiple instances of a nominally similar scene
US7616788B2 (en) * 2004-11-12 2009-11-10 Cogent Systems, Inc. System and method for fast biometric pattern matching
US20060123240A1 (en) * 2004-12-08 2006-06-08 Alison Chaiken Secure biometric authentication system and method of implementation thereof
US20060147095A1 (en) * 2005-01-03 2006-07-06 Usher David B Method and system for automatically capturing an image of a retina
US7809171B2 (en) * 2005-01-10 2010-10-05 Battelle Memorial Institute Facial feature evaluation based on eye location
US8090157B2 (en) 2005-01-26 2012-01-03 Honeywell International Inc. Approaches and apparatus for eye detection in a digital image
EP1991948B1 (en) 2006-03-03 2010-06-09 Honeywell International Inc. An iris recognition system having image quality metrics
EP1842152B1 (en) * 2005-01-26 2011-01-05 Honeywell International Inc. A distance iris recognition system
US7593550B2 (en) 2005-01-26 2009-09-22 Honeywell International Inc. Distance iris recognition
WO2006081505A1 (en) * 2005-01-26 2006-08-03 Honeywell International Inc. A distance iris recognition system
US8045764B2 (en) 2005-01-26 2011-10-25 Honeywell International Inc. Expedient encoding system
US8049812B2 (en) 2006-03-03 2011-11-01 Honeywell International Inc. Camera with auto focus capability
US8098901B2 (en) 2005-01-26 2012-01-17 Honeywell International Inc. Standoff iris recognition system
US7756301B2 (en) * 2005-01-26 2010-07-13 Honeywell International Inc. Iris recognition system and method
WO2007103834A1 (en) 2006-03-03 2007-09-13 Honeywell International, Inc. Indexing and database search system
WO2006091869A2 (en) 2005-02-25 2006-08-31 Youfinder Intellectual Property Licensing Limited Liability Company Automated indexing for distributing event photography
US7151332B2 (en) * 2005-04-27 2006-12-19 Stephen Kundel Motor having reciprocating and rotating permanent magnets
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
EP1907980B1 (en) 2005-07-18 2013-01-02 Hysterical Sunset Limited Manually-assisted automated indexing of images using facial recognition
US8874477B2 (en) 2005-10-04 2014-10-28 Steven Mark Hoffberg Multifactorial optimization system and method
US7801335B2 (en) * 2005-11-11 2010-09-21 Global Rainmakers Inc. Apparatus and methods for detecting the presence of a human eye
US8260008B2 (en) 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US8131477B2 (en) 2005-11-16 2012-03-06 3M Cogent, Inc. Method and device for image-based biological data quantification
US7599577B2 (en) * 2005-11-18 2009-10-06 Fotonation Vision Limited Method and apparatus of correcting hybrid flash artifacts in digital images
US7920723B2 (en) * 2005-11-18 2011-04-05 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US7689009B2 (en) 2005-11-18 2010-03-30 Fotonation Vision Ltd. Two stage detection for photographic eye artifacts
US7970182B2 (en) 2005-11-18 2011-06-28 Tessera Technologies Ireland Limited Two stage detection for photographic eye artifacts
US7583823B2 (en) * 2006-01-11 2009-09-01 Mitsubishi Electric Research Laboratories, Inc. Method for localizing irises in images using gradients and textures
JP4643715B2 (en) 2006-02-14 2011-03-02 テセラ テクノロジーズ アイルランド リミテッド Automatic detection and correction of defects due to the eyes of the flash is not a red-eye
GB0603411D0 (en) * 2006-02-21 2006-03-29 Xvista Ltd Method of processing an image of an eye
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
US7792335B2 (en) * 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US7844084B2 (en) * 2006-02-27 2010-11-30 Donald Martin Monro Rotation compensated iris comparison
US20070206372A1 (en) * 2006-03-02 2007-09-06 Casillas Robert J Illuminated container
US8364646B2 (en) 2006-03-03 2013-01-29 Eyelock, Inc. Scalable searching of biometric databases using dynamic selection of data subsets
JP2009529197A (en) 2006-03-03 2009-08-13 ハネウェル・インターナショナル・インコーポレーテッド Module biometrics collection system architecture
US8064647B2 (en) * 2006-03-03 2011-11-22 Honeywell International Inc. System for iris detection tracking and recognition at a distance
WO2007101276A1 (en) 2006-03-03 2007-09-07 Honeywell International, Inc. Single lens splitter camera
US8442276B2 (en) 2006-03-03 2013-05-14 Honeywell International Inc. Invariant radial iris segmentation
WO2008039252A2 (en) 2006-05-15 2008-04-03 Retica Systems, Inc. Multimodal ocular biometric system
IES20070229A2 (en) * 2006-06-05 2007-10-03 Fotonation Vision Ltd Image acquisition method and apparatus
US7965875B2 (en) 2006-06-12 2011-06-21 Tessera Technologies Ireland Limited Advances in extending the AAM techniques from grayscale to color images
US8604901B2 (en) 2006-06-27 2013-12-10 Eyelock, Inc. Ensuring the provenance of passengers at a transportation facility
US7995808B2 (en) 2006-07-19 2011-08-09 Lumidigm, Inc. Contactless multispectral biometric capture
US8175346B2 (en) 2006-07-19 2012-05-08 Lumidigm, Inc. Whole-hand multispectral biometric imaging
KR101451376B1 (en) * 2006-07-31 2014-10-16 루미다임 인크. Spatial-spectral fingerprint spoof detection
US7801339B2 (en) * 2006-07-31 2010-09-21 Lumidigm, Inc. Biometrics with spatiospectral spoof detection
US7804984B2 (en) * 2006-07-31 2010-09-28 Lumidigm, Inc. Spatial-spectral fingerprint spoof detection
US8170293B2 (en) * 2006-09-15 2012-05-01 Identix Incorporated Multimodal ocular biometric system and methods
WO2008033784A2 (en) * 2006-09-15 2008-03-20 Retica Systems, Inc. Long distance multimodal biometric system and method
US8121356B2 (en) 2006-09-15 2012-02-21 Identix Incorporated Long distance multimodal biometric system and method
US8965063B2 (en) 2006-09-22 2015-02-24 Eyelock, Inc. Compact biometric acquisition system and method
US7970179B2 (en) 2006-09-25 2011-06-28 Identix Incorporated Iris data extraction
EP2100253A4 (en) 2006-10-02 2011-01-12 Global Rainmakers Inc Fraud resistant biometric financial transaction system and method
US9846739B2 (en) 2006-10-23 2017-12-19 Fotonation Limited Fast database matching
US7809747B2 (en) * 2006-10-23 2010-10-05 Donald Martin Monro Fuzzy database matching
US8170294B2 (en) 2006-11-10 2012-05-01 DigitalOptics Corporation Europe Limited Method of detecting redeye in a digital image
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
US20110102553A1 (en) * 2007-02-28 2011-05-05 Tessera Technologies Ireland Limited Enhanced real-time face models from stereo imaging
DE602008001607D1 (en) 2007-02-28 2010-08-05 Fotonation Vision Ltd Separation of the directional lighting variability in the statistical modeling face on the basis of texture space decompositions
US8199222B2 (en) * 2007-03-05 2012-06-12 DigitalOptics Corporation Europe Limited Low-light video frame enhancement
US8264576B2 (en) 2007-03-05 2012-09-11 DigitalOptics Corporation Europe Limited RGBW sensor array
US8989516B2 (en) * 2007-09-18 2015-03-24 Fotonation Limited Image processing method and apparatus
US8417055B2 (en) * 2007-03-05 2013-04-09 DigitalOptics Corporation Europe Limited Image processing method and apparatus
EP2145288A4 (en) 2007-03-05 2013-09-04 Digitaloptics Corp Europe Ltd Red eye false positive filtering using face location and orientation
JP4309927B2 (en) 2007-03-14 2009-08-05 アイシン精機株式会社 Eyelid detection device and program
WO2008134135A2 (en) 2007-03-21 2008-11-06 Lumidigm, Inc. Biometrics based on locally consistent features
US7773118B2 (en) * 2007-03-25 2010-08-10 Fotonation Vision Limited Handheld article with movement discrimination
US8355545B2 (en) 2007-04-10 2013-01-15 Lumidigm, Inc. Biometric detection using spatial, temporal, and/or spectral techniques
WO2008131201A1 (en) 2007-04-19 2008-10-30 Global Rainmakers, Inc. Method and system for biometric recognition
US8953849B2 (en) 2007-04-19 2015-02-10 Eyelock, Inc. Method and system for biometric recognition
US8063889B2 (en) 2007-04-25 2011-11-22 Honeywell International Inc. Biometric data collection system
US8275179B2 (en) * 2007-05-01 2012-09-25 3M Cogent, Inc. Apparatus for capturing a high quality image of a moist finger
US20120239458A9 (en) * 2007-05-18 2012-09-20 Global Rainmakers, Inc. Measuring Effectiveness of Advertisements and Linking Certain Consumer Activities Including Purchases to Other Activities of the Consumer
US8411916B2 (en) * 2007-06-11 2013-04-02 3M Cogent, Inc. Bio-reader device with ticket identification
US9160897B2 (en) * 2007-06-14 2015-10-13 Fotonation Limited Fast motion estimation method
US20090060348A1 (en) * 2007-08-28 2009-03-05 Donald Martin Monro Determination of Image Similarity
US9002073B2 (en) 2007-09-01 2015-04-07 Eyelock, Inc. Mobile identity platform
US8212870B2 (en) 2007-09-01 2012-07-03 Hanna Keith J Mirror system and method for acquiring biometric data
WO2009029757A1 (en) 2007-09-01 2009-03-05 Global Rainmakers, Inc. System and method for iris data acquisition for biometric identification
US9036871B2 (en) 2007-09-01 2015-05-19 Eyelock, Inc. Mobility identity platform
US9117119B2 (en) 2007-09-01 2015-08-25 Eyelock, Inc. Mobile identity platform
KR100936880B1 (en) * 2007-09-07 2010-01-14 아이리텍 잉크 An Iris Image Storing Method and An Iris Image Restored Method
US7824034B2 (en) * 2007-09-19 2010-11-02 Utc Fire & Security Americas Corporation, Inc. Iris imaging system and method for the same
US8180173B2 (en) 2007-09-21 2012-05-15 DigitalOptics Corporation Europe Limited Flash artifact eye defect correction in blurred images using anisotropic blurring
US8503818B2 (en) 2007-09-25 2013-08-06 DigitalOptics Corporation Europe Limited Eye defect detection in international standards organization images
US8036458B2 (en) 2007-11-08 2011-10-11 DigitalOptics Corporation Europe Limited Detecting redeye defects in digital images
US20090252382A1 (en) * 2007-12-06 2009-10-08 University Of Notre Dame Du Lac Segmentation of iris images using active contour processing
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US8212864B2 (en) 2008-01-30 2012-07-03 DigitalOptics Corporation Europe Limited Methods and apparatuses for using image acquisition data to detect and correct image defects
CA2736609C (en) 2008-02-14 2016-09-20 Iristrac, Llc System and method for animal identification using iris images
JP2009222853A (en) * 2008-03-14 2009-10-01 Fujitsu Ltd Polarizing optical element and manufacturing method therefor
US8436907B2 (en) 2008-05-09 2013-05-07 Honeywell International Inc. Heterogeneous video capturing system
US20090299814A1 (en) * 2008-05-31 2009-12-03 International Business Machines Corporation Assessing personality and mood characteristics of a customer to enhance customer satisfaction and improve chances of a sale
US8005264B2 (en) * 2008-06-09 2011-08-23 Arcsoft, Inc. Method of automatically detecting and tracking successive frames in a region of interesting by an electronic imaging device
AT484804T (en) 2008-06-25 2010-10-15 Deutsche Telekom Ag System for the extraction, identification and verification of iris features on the basis of directionlets
WO2009158662A2 (en) 2008-06-26 2009-12-30 Global Rainmakers, Inc. Method of reducing visibility of illimination while acquiring high quality imagery
US20100014755A1 (en) * 2008-07-21 2010-01-21 Charles Lee Wilson System and method for grid-based image segmentation and matching
WO2010011785A1 (en) * 2008-07-23 2010-01-28 Indiana University Research & Technology Corporation System and method for a non-cooperative iris image acquisition system
US8213782B2 (en) 2008-08-07 2012-07-03 Honeywell International Inc. Predictive autofocusing system
US8090246B2 (en) 2008-08-08 2012-01-03 Honeywell International Inc. Image acquisition system
US8081254B2 (en) 2008-08-14 2011-12-20 DigitalOptics Corporation Europe Limited In-camera based method of detecting defect eye with high accuracy
US8306279B2 (en) * 2008-09-15 2012-11-06 Eyelock, Inc. Operator interface for face and iris recognition devices
US20100278394A1 (en) * 2008-10-29 2010-11-04 Raguin Daniel H Apparatus for Iris Capture
US8317325B2 (en) 2008-10-31 2012-11-27 Cross Match Technologies, Inc. Apparatus and method for two eye imaging for iris identification
US8280119B2 (en) 2008-12-05 2012-10-02 Honeywell International Inc. Iris recognition system using quality metrics
US20100232654A1 (en) * 2009-03-11 2010-09-16 Harris Corporation Method for reconstructing iris scans through novel inpainting techniques and mosaicing of partial collections
US20100232659A1 (en) * 2009-03-12 2010-09-16 Harris Corporation Method for fingerprint template synthesis and fingerprint mosaicing using a point matching algorithm
US8195044B2 (en) 2009-03-30 2012-06-05 Eyelock Inc. Biometric camera mount system
US8488023B2 (en) 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
JP5456159B2 (en) * 2009-05-29 2014-03-26 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッドDigitaloptics Corporation Europe Limited Method and apparatus for separating the top portion of the foreground from the background
US8472681B2 (en) 2009-06-15 2013-06-25 Honeywell International Inc. Iris and ocular recognition system using trace transforms
US8630464B2 (en) 2009-06-15 2014-01-14 Honeywell International Inc. Adaptive iris matching using database indexing
US20110044513A1 (en) * 2009-08-19 2011-02-24 Harris Corporation Method for n-wise registration and mosaicing of partial prints
US8306288B2 (en) * 2009-08-19 2012-11-06 Harris Corporation Automatic identification of fingerprint inpainting target areas
US8731250B2 (en) 2009-08-26 2014-05-20 Lumidigm, Inc. Multiplexed biometric imaging
US8332281B2 (en) 2009-09-02 2012-12-11 Image Holdings Method of displaying, managing and selling images in an event photography environment
WO2011033386A1 (en) 2009-09-16 2011-03-24 Image Holdings Method and system of displaying, managing and selling images in an event photography environment
US20110119141A1 (en) * 2009-11-16 2011-05-19 Hoyos Corporation Siccolla Identity Verification Architecture and Tool
US8467133B2 (en) 2010-02-28 2013-06-18 Osterhout Group, Inc. See-through display with an optical assembly including a wedge-shaped illumination system
US8472120B2 (en) 2010-02-28 2013-06-25 Osterhout Group, Inc. See-through near-eye display glasses with a small scale image source
US9229227B2 (en) 2010-02-28 2016-01-05 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a light transmissive wedge shaped illumination system
US8482859B2 (en) 2010-02-28 2013-07-09 Osterhout Group, Inc. See-through near-eye display glasses wherein image light is transmitted to and reflected from an optically flat film
US9097890B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc Grating in a light transmissive illumination system for see-through near-eye display glasses
US9223134B2 (en) 2010-02-28 2015-12-29 Microsoft Technology Licensing, Llc Optical imperfections in a light transmissive illumination system for see-through near-eye display glasses
US9129295B2 (en) 2010-02-28 2015-09-08 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a fast response photochromic film system for quick transition from dark to clear
US10180572B2 (en) 2010-02-28 2019-01-15 Microsoft Technology Licensing, Llc AR glasses with event and user action control of external applications
US9091851B2 (en) 2010-02-28 2015-07-28 Microsoft Technology Licensing, Llc Light control in head mounted displays
US9097891B2 (en) 2010-02-28 2015-08-04 Microsoft Technology Licensing, Llc See-through near-eye display glasses including an auto-brightness control for the display brightness based on the brightness in the environment
US9341843B2 (en) 2010-02-28 2016-05-17 Microsoft Technology Licensing, Llc See-through near-eye display glasses with a small scale image source
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
US8477425B2 (en) 2010-02-28 2013-07-02 Osterhout Group, Inc. See-through near-eye display glasses including a partially reflective, partially transmitting optical element
US9285589B2 (en) 2010-02-28 2016-03-15 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered control of AR eyepiece applications
US9128281B2 (en) 2010-09-14 2015-09-08 Microsoft Technology Licensing, Llc Eyepiece with uniformly illuminated reflective display
US8488246B2 (en) 2010-02-28 2013-07-16 Osterhout Group, Inc. See-through near-eye display glasses including a curved polarizing film in the image source, a partially reflective, partially transmitting optical element and an optically flat film
CN102906623A (en) * 2010-02-28 2013-01-30 奥斯特豪特集团有限公司 Local advertising content on an interactive head-mounted eyepiece
US9759917B2 (en) 2010-02-28 2017-09-12 Microsoft Technology Licensing, Llc AR glasses with event and sensor triggered AR eyepiece interface to external devices
US9182596B2 (en) 2010-02-28 2015-11-10 Microsoft Technology Licensing, Llc See-through near-eye display glasses with the optical assembly including absorptive polarizers or anti-reflective coatings to reduce stray light
US9134534B2 (en) 2010-02-28 2015-09-15 Microsoft Technology Licensing, Llc See-through near-eye display glasses including a modular image source
US8570149B2 (en) 2010-03-16 2013-10-29 Lumidigm, Inc. Biometric imaging using an optical adaptive interface
US8577094B2 (en) 2010-04-09 2013-11-05 Donald Martin Monro Image template masking
US9959549B2 (en) 2010-06-07 2018-05-01 Affectiva, Inc. Mental state analysis for norm generation
US9646046B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state data tagging for data collected from multiple sources
US10204625B2 (en) 2010-06-07 2019-02-12 Affectiva, Inc. Audio analysis learning using video data
US10074024B2 (en) 2010-06-07 2018-09-11 Affectiva, Inc. Mental state analysis using blink rate for vehicles
US10108852B2 (en) * 2010-06-07 2018-10-23 Affectiva, Inc. Facial analysis to detect asymmetric expressions
US10143414B2 (en) 2010-06-07 2018-12-04 Affectiva, Inc. Sporadic collection with mobile affect data
US9204836B2 (en) 2010-06-07 2015-12-08 Affectiva, Inc. Sporadic collection of mobile affect data
US10111611B2 (en) 2010-06-07 2018-10-30 Affectiva, Inc. Personal emotional profile generation
US9934425B2 (en) 2010-06-07 2018-04-03 Affectiva, Inc. Collection of affect data from multiple mobile devices
US9723992B2 (en) 2010-06-07 2017-08-08 Affectiva, Inc. Mental state analysis using blink rate
US9247903B2 (en) 2010-06-07 2016-02-02 Affectiva, Inc. Using affect within a gaming context
US9642536B2 (en) 2010-06-07 2017-05-09 Affectiva, Inc. Mental state analysis using heart rate collection based on video imagery
US9503786B2 (en) 2010-06-07 2016-11-22 Affectiva, Inc. Video recommendation using affect
US8971628B2 (en) 2010-07-26 2015-03-03 Fotonation Limited Face detection using division-generated haar-like features for illumination invariance
US8742887B2 (en) 2010-09-03 2014-06-03 Honeywell International Inc. Biometric visitor check system
US8254768B2 (en) * 2010-12-22 2012-08-28 Michael Braithwaite System and method for illuminating and imaging the iris of a person
US8831416B2 (en) * 2010-12-22 2014-09-09 Michael Braithwaite System and method for illuminating and identifying a person
US10043229B2 (en) 2011-01-26 2018-08-07 Eyelock Llc Method for confirming the identity of an individual while shielding that individual's personal data
WO2012112788A2 (en) 2011-02-17 2012-08-23 Eyelock Inc. Efficient method and system for the acquisition of scene imagery and iris imagery using a single sensor
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
WO2012158234A2 (en) 2011-02-27 2012-11-22 Affectiva, Inc. Video recommendation based on affect
CN102129685B (en) * 2011-03-24 2012-08-29 杭州电子科技大学 Method for detecting irregular circle based on Gauss pyramid decomposition
CN103797495A (en) 2011-04-19 2014-05-14 眼锁股份有限公司 Biometric chain of provenance
US8682073B2 (en) 2011-04-28 2014-03-25 Sri International Method of pupil segmentation
US8755607B2 (en) 2011-04-28 2014-06-17 Sri International Method of normalizing a digital image of an iris of an eye
US8854446B2 (en) 2011-04-28 2014-10-07 Iristrac, Llc Method of capturing image data for iris code based identification of vertebrates
US8639058B2 (en) * 2011-04-28 2014-01-28 Sri International Method of generating a normalized digital image of an iris of an eye
US9124798B2 (en) 2011-05-17 2015-09-01 Eyelock Inc. Systems and methods for illuminating an iris with visible light for biometric acquisition
US9400806B2 (en) 2011-06-08 2016-07-26 Hewlett-Packard Development Company, L.P. Image triggered transactions
US8965064B2 (en) 2011-08-22 2015-02-24 Eyelock, Inc. Systems and methods for capturing artifact free images
US9373023B2 (en) * 2012-02-22 2016-06-21 Sri International Method and apparatus for robustly collecting facial, ocular, and iris images using a single sensor
US20130226539A1 (en) * 2012-02-29 2013-08-29 BVI Networks, Inc. Method and system for statistical analysis of customer movement and integration with other data
US20150051460A1 (en) * 2012-04-04 2015-02-19 Noopur Saxena System and method for locating blood vessels and analysing blood
US8798332B2 (en) 2012-05-15 2014-08-05 Google Inc. Contact lenses
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
US9039180B2 (en) 2012-12-11 2015-05-26 Elwah LLC Self-aligning unobtrusive active eye interrogation
US9101297B2 (en) 2012-12-11 2015-08-11 Elwha Llc Time-based unobtrusive active eye interrogation
US9039179B2 (en) 2012-12-11 2015-05-26 Elwha Llc Unobtrusive active eye interrogation
CN103136421B (en) * 2013-01-31 2015-08-26 贵阳科安科技有限公司 Optical System level optimization method for the iris image forming apparatus
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9495526B2 (en) 2013-03-15 2016-11-15 Eyelock Llc Efficient prevention of fraud
US20140327753A1 (en) * 2013-05-06 2014-11-06 Delta ID Inc. Apparatus and method for positioning an iris for iris image capture
CN103440483B (en) * 2013-09-03 2016-09-28 吉林大学 Iris imaging apparatus for proactive focus
US9582716B2 (en) * 2013-09-09 2017-02-28 Delta ID Inc. Apparatuses and methods for iris based biometric recognition
CN103530617B (en) * 2013-10-22 2017-05-31 南京中科神光科技有限公司 Collection means aligned with the iris
US10032075B2 (en) 2013-12-23 2018-07-24 Eyelock Llc Methods and apparatus for power-efficient iris recognition
WO2015137924A1 (en) * 2014-03-11 2015-09-17 Google Inc. Contact lenses
WO2016040836A1 (en) * 2014-09-12 2016-03-17 Eyelock Llc Methods and apparatus for directing the gaze of a user in an iris recognition system
US9767358B2 (en) * 2014-10-22 2017-09-19 Veridium Ip Limited Systems and methods for performing iris identification and verification using mobile devices
US9589107B2 (en) 2014-11-17 2017-03-07 Elwha Llc Monitoring treatment compliance using speech patterns passively captured from a patient environment
US9585616B2 (en) 2014-11-17 2017-03-07 Elwha Llc Determining treatment compliance using speech patterns passively captured from a patient environment
CN104484649B (en) * 2014-11-27 2018-09-11 北京天诚盛业科技有限公司 Iris recognition apparatus and method
WO2016118473A1 (en) 2015-01-20 2016-07-28 Eyelock Llc Lens system for high quality visible image acquisition and infra-red iris image acquisition
FR3032539B1 (en) * 2015-02-10 2018-03-02 Morpho Method for biometric data acquisition according to a sequence verified
CN104680139B (en) * 2015-02-11 2018-09-11 北京天诚盛业科技有限公司 Based on feedback from the afocal lens iris capture the positioning means
US9509690B2 (en) 2015-03-12 2016-11-29 Eyelock Llc Methods and systems for managing network activity using biometrics
US9987489B2 (en) 2015-03-27 2018-06-05 Elwha Llc Controlling ear stimulation in response to electrical contact sensing
US10039928B2 (en) 2015-03-27 2018-08-07 Equility Llc Ear stimulation with neural feedback sensing
US10255529B2 (en) 2016-03-11 2019-04-09 Magic Leap, Inc. Structure learning in convolutional neural networks
DE102017115136A1 (en) * 2017-07-06 2019-01-10 Bundesdruckerei Gmbh Apparatus and method for detecting biometric features of a person's face
WO2019044944A1 (en) * 2017-08-30 2019-03-07 日本電気株式会社 Image-processing system, image-processing method, and recording medium

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3069654A (en) * 1960-03-25 1962-12-18 Paul V C Hough Method and means for recognizing complex patterns
US4109237A (en) * 1977-01-17 1978-08-22 Hill Robert B Apparatus and method for identifying individuals through their retinal vasculature patterns
US4620318A (en) * 1983-04-18 1986-10-28 Eye-D Development Ii Ltd. Fovea-centered eye fundus scanner
US4641349A (en) * 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
GB8518803D0 (en) * 1985-07-25 1985-08-29 Rca Corp Locating target patterns within images
JPH01158579A (en) * 1987-09-09 1989-06-21 Aisin Seiki Co Ltd Image recognizing device
US4975969A (en) * 1987-10-22 1990-12-04 Peter Tal Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same
US5016282A (en) * 1988-07-14 1991-05-14 Atr Communication Systems Research Laboratories Eye tracking image pickup apparatus for separating noise from feature portions
US5063603A (en) * 1989-11-06 1991-11-05 David Sarnoff Research Center, Inc. Dynamic method for recognizing objects and image processing system therefor
GB9001468D0 (en) * 1990-01-23 1990-03-21 Sarnoff David Res Center Computing multiple motions within an image region
US5291560A (en) * 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US5179441A (en) * 1991-12-18 1993-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Near real-time stereo vision system
US5325449A (en) * 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6490365B2 (en) 2000-07-13 2002-12-03 Matsushita Electric Industrial Co., Ltd. Eye image pickup device
US7200248B2 (en) 2001-10-31 2007-04-03 Matsushita Electric Industrial Co., Ltd. Eye image pickup apparatus and entry/leave management system
JP2006522629A (en) * 2003-04-11 2006-10-05 ボシュ・アンド・ロム・インコーポレイテッドBausch & Lomb Incorporated Systems and methods for data acquisition and alignment and tracking of the eye

Also Published As

Publication number Publication date
EP0793833A1 (en) 1997-09-10
HUT76950A (en) 1998-01-28
JP2006260583A (en) 2006-09-28
CA2199040A1 (en) 1996-03-14
EP1126403A2 (en) 2001-08-22
WO1996007978A1 (en) 1996-03-14
JP2006302276A (en) 2006-11-02
AU3419895A (en) 1996-03-27
CN1160446A (en) 1997-09-24
JP3943591B2 (en) 2007-07-11
MX9701624A (en) 1998-05-31
EP0793833A4 (en) 1998-06-10
AU702883B2 (en) 1999-03-11
US5572596A (en) 1996-11-05
BR9508691A (en) 1998-01-06
US5751836A (en) 1998-05-12

Similar Documents

Publication Publication Date Title
CN100361131C (en) Information processing apparatus and information processing method
US7372642B2 (en) Three-channel camera systems with non-collinear apertures
US8317325B2 (en) Apparatus and method for two eye imaging for iris identification
US7306337B2 (en) Calibration-free gaze tracking under natural head movement
US7899217B2 (en) Multibiometric multispectral imager
CN103383723B (en) Method and system for spoof detection for biometric authentication
JP3480793B2 (en) Eye-tracking system and method
US7206022B2 (en) Camera system with eye monitoring
CA2520099C (en) Positive patient identification
CN100418112C (en) Face imaging system for recordal and automated identity confirmation
US5861940A (en) Eye detection system for providing eye gaze tracking
US8675290B2 (en) Monocular three-dimensional imaging
US8048065B2 (en) Method and apparatus for eye position registering and tracking
EP0596868B1 (en) Eye tracking method using an image pickup apparatus
US20040037450A1 (en) Method, apparatus and system for using computer vision to identify facial characteristics
US5717512A (en) Compact image steering and focusing device
EP1093633B1 (en) Iris identification system and method of identifying a person through iris recognition
US7995808B2 (en) Contactless multispectral biometric capture
US8175346B2 (en) Whole-hand multispectral biometric imaging
JP3790680B2 (en) The image processing system and a driving support system using the same
US20100239119A1 (en) System for iris detection tracking and recognition at a distance
US20070188769A1 (en) Three-channel camera systems with collinear apertures
KR100580630B1 (en) Apparatus and method for discriminating person using infrared rays
JP5001286B2 (en) Object reconstruction method and system
EP1205762B1 (en) Method and apparatus for determining sound source

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060725

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20061025

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20061211

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070406

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110413

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120413

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120413

Year of fee payment: 5

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130413

Year of fee payment: 6

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140413

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term