JP2002514098A - Device for iris acquisition image - Google Patents

Device for iris acquisition image

Info

Publication number
JP2002514098A
JP2002514098A JP51177498A JP51177498A JP2002514098A JP 2002514098 A JP2002514098 A JP 2002514098A JP 51177498 A JP51177498 A JP 51177498A JP 51177498 A JP51177498 A JP 51177498A JP 2002514098 A JP2002514098 A JP 2002514098A
Authority
JP
Japan
Prior art keywords
light
image
iris
camera
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP51177498A
Other languages
Japanese (ja)
Inventor
ネジン,マイケル
エイ.,ジュニア ヒミエレウスキー,トマス
セインズベリー,ロビン
サルガニコフ,マルコス
ジェイムズ ハナ,キース
マンデルバウム,ロバート
ミシュラ,ディーパム
Original Assignee
センサー インコーポレイテッド
ザ サーノフ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by センサー インコーポレイテッド, ザ サーノフ コーポレイション filed Critical センサー インコーポレイテッド
Publication of JP2002514098A publication Critical patent/JP2002514098A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • A61B3/1216Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes for diagnostics of the iris
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Sampling And Sample Adjustment (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Measuring Or Testing Involving Enzymes Or Micro-Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

(57)【要約】 少なくとも1つの広視野カメラ(3)と、関連する発光器(6、10)が、被識別者の、この被識別者の眼の予測される位置のxyz座標を確立し得るに十分なイメージを取得する。座標は、狭視野カメラ(16)及び関連する照明器(21、22、23)を、虹彩認識及び照合アルゴリズムを使用して人物を識別するために使用することのできる、眼(76、78)のイメージを撮影するべく配向するために使用される。これらの照明器は、虹彩(76)をぼやけさせる正反射及び反射を排除あるいは最小化するよう位置決めされ且つ照明される。 (57) Abstract: At least one wide-field camera (3) and associated light emitters (6, 10) establish the xyz coordinates of the discriminator's expected position of this discriminator's eye. Get enough images to get. Coordinates can be used by the narrow-field camera (16) and associated illuminators (21, 22, 23) to identify the person using an iris recognition and matching algorithm, the eyes (76, 78). Used to orient the image of the image. These illuminators are positioned and illuminated to eliminate or minimize specular reflections and reflections that blur the iris (76).

Description

【発明の詳細な説明】 虹彩取得用イメージのための装置発明の分野 本発明は、虹彩のイメージを得るために眼を照明するための方法及び装置に関 する。発明の背景 個人を認識又は識別(本人確認)するための方法として生物測定学又は生物統 計学と称される幾つかの方法が知られている。例えば、署名の分析、指紋の採取 分析、人間の眼の網膜血管のパターンの撮影分析等の方法がある。最近、当該技 術分野では、各個人に特有のものであって、非接触の、眼障りにはならない生物 測定方法として、長年に亘って安定状態に保たれる極めて精細なパターンを有す る眼の虹彩を利用している。この技法は、米国特許第4,641,349号及び 第5,291,560号に開示されている。これらの先行特許に記載されたシス テムでは、被識別者の少なくとも片方の眼を、その虹彩のイメージを撮影するカ メラに対して固定位置に保持する必要がある。この方法はある種の用途にとって は満足なものであるが、現金自動預払機や、眼障り又は邪魔にならないアクセス 管理法や、現金自動支払法を用いるような素早い取引活動にとっては満足なもの ではない。この先行特許の方法が不適当なその他の例としては、移民管理、PO S(店頭での)確認、福祉チケットの配給、インターネット銀行取引、銀行ロー ン、口座開設及びその他の金融取引等がある。 上記米国特許第4,641,349号及び第5,291,560号に開示され ている虹彩識別法は、眼の虹彩部分の明瞭な、焦点の合ったイメージを必要とす る。虹彩部分のイメージが得られたならば、そのイメージと被識別者のコード化 ファイルイメージとの照合を極めて迅速に実施することができる。しかしながら 、本発明以前には、被識別者が自分の眼を撮影カメラに比較的近接して固定位置 に位置付けない限り、十分に明瞭な虹彩イメージを迅速に取得することのできる 光学装置は開発されていなかった。従って、光学装置から遠く離れた、不確定な 位置にいる人又は動物の虹彩の明瞭なイメージを迅速に取得することができる光 学装置に対する要望がある。そのような装置は、現金自動預払機のユーザーを始 め、規制された区域や設備ヘアクセスしようとしている個人を識別する場合に、 あるいは、ユーザーの識別を必要とするその他の用途とって特に有用である。こ の装置はまた、患者や犯罪容疑者及び、さもなければ識別できない又は識別され ることをいやがるその他の人々を識別するのにも用いることができる。 しばしばATMと略称される現金自動預払機は、銀行取引に広く利用されてい る。ユーザーは自分のIDカード(身元証明書)を挿入し、識別番号を入力すれ ば比較的素早く自己の身元照合が得られることに慣れている。しかしながら、ど のIDカードであれ、その識別番号を知りさえすれば誰でもそのカードを使用す ることができる。従って、泥棒がカード所有者のカード使用を見て、又は、カー ドに記載されている識別番号を見て、あるいはその他の方法によって識別番号を 知ったとすると、そのカード所有者の口座から容易に預金を引き出すことができ る。従って、銀行は、従来から、ATMユーザーの身元を検証するための他のよ り信頼性の高い方法を求めている。 上記米国特許第4,641,349号に開示された虹彩識別方法は信頼性が高 いことが立証されているので、ATMユーザーの身元照合や、その他の遠隔ユー ザーに認識又は識別用途に虹彩識別方法を使用することが提案されている。しか しながら、そのような使用態様を商業的に利用可能にするためには、現金自動預 払機の前に立つATMユーザーからその確認識別を可能にするのに十分な解像度 の虹彩イメージを得る、迅速で且つ高信頼性の、しかも目立たない方法がなけれ ばならない。しかし、例えば接眼鏡やその他の固定具を用いて、あるいは用いず にユーザーの頭部をカメラから所定の距離に位置付けなければならないのは実際 的ではない。従って、ATMユーザーの虹彩を迅速に位置付けし、照合及び識別 に用いることのできる良品質の虹彩イメージを取得することのできる装置に対す る要望がある。又、そのような装置は、アクセスカードと組み合わせてあるいは アクセスカード無しで使用するに適したものでなければならない。又、そのよう な装置は、眼鏡又はコンタクトレンズ、又はスキーマスクや、顔を隠すような服 を着用しているユーザーから虹彩イメージを取得することができるものでなけれ ばならない。発明の概要 本発明は、人がその頭部を、光学装置の、虹彩からの反射光を受け取る部分の 前に置いたとき、虹彩の明瞭なイメージを摂ることができる方法及び装置を提供 する。光学装置は、周囲環境からの照明を利用する又は利用しない、好ましくは 少なくとも1つの照明器を備えた少なくとも1つのカメラを有する。本発明では パン(上下左右動)/チルト(傾動)自在ミラー又はジンバル装置と、少なくと も1つのレンズとが設けられる。被写体(被識別者の虹彩)から反射された光は 、ジンバル装置付きカメラ(ジンバルに取り付けられた)又はミラーによって捉 えられ、レンズを通してカメラへ差し向けられる。好ましい実施形態では、狭視 野(NFOV)カメラがパン/チルト自在ミラーからの反射光をレンズを通して 受け取るように構成するか、あるいは、ジンバル装置付きカメラを通して直接受 け取るように構成する。被写体の広視野(WFOV)イメージを得るために第2 のカメラ、及び好ましくは第3のカメラを設ける。ただし、ユーザーが常にNF OVカメラの視野内に入ることが分かっている場合や、NFOVカメラを動かす ことによってユーザーを視野内に捉えることができる場合などには、WFOVカ メラ(第2及び第3の各カメラ)は余分な器具となる。このようなWFOVカメ ラからのイメージは、被識別者の頭部及び肩、虹彩等の特定の対象部位の座標を 測定するために処理される。パン/チルト自在ミラー又はジンバル装置は、これ らのイメージの分析に基づいて虹彩又はその他の対象部位からの反射光を受け取 り、その反射光を狭視野カメラへ差し向けるように調節される。かくして、狭視 野カメラは、虹彩を識別するのに十分な品質のイメージを創生する。 好ましい実施形態では、被識別者の顔を照明する広視野照明器を設ける。この 照明器は、1つ又は複数の広視野カメラのレンズの周囲に配置した複数の赤外線 発光ダイオードを備えたものとすることが好ましい。 又、本発明においては、各々発光ダイオード配列体から成る2つ以上のNFO V照明器をも受けることが好ましい。これらの配列体は、水平軸線及び垂直軸線 の両方の軸線を中心として回転可能であるように取り付けられる。少なくとも2 つの配列体を用いることにより、眼鏡やコンタクトレンズ、又は虹彩の一部分を 覆い隠すその他の人工物からの正反射又は反射を補償することができる。 更に、本発明においては、第1組の発光ダイオードの中心線がベースに対して 直角をなし、第2組の発光ダイオードの中心線がベースに対して鋭角をなし、第 3組の発光ダイオードの中心線がベースに対して鈍角をなすように発光ダイオー ドの配列体を構成することが好ましい。そうすることにより発光ダイオードの配 列体に広視野照明機能が与えられる。更に、各組又は群の発光ダイオードを個別 に発光させることができる制御装置を設けるのが好ましい。この制御装置はまた 、個々のダイオードを選択的に発光させるようにすることもできる。あるいは、 別法として、イメージを操縦する(イメージの向きを操作する)イメージ装置と 連携して指向させ得る単一の照明を与えるようにすることもできる。 広視野カメラからのイメージを分析し、それによって、被識別物体又は人の対 象点又は領域の位置を特定するためにイメージプロセッサを設ける。ユーザーの 位置を確認するための好ましい技法はステレオイメージ分析法である。あるいは 別法として、超音波、レーダー、広域スペクトルマイクロ波又は熱写真法、又は センサ手段又はその他の工学的手段等の可視域又は不可視域作イメージ又は距離 測定器を用いることもできる。 本発明の装置は、現金自動預払機のユーザーの身元を確認するのに特に有用で ある。この装置は、大抵の在来の現金自動預払機その他の多くの金融取引機械に 簡単に組み合わせることができる。本発明の装置によれば、イメージの取得及び 識別は通常は5秒未満で、大抵は2秒未満で行うことができる。 例えばカメラの運動や設置位置に多少の制限を伴うような他の特別な用途には NFOVカメラ1台、各1台のNFOVカメラ及びWFOVカメラ、NFOVカ メラ2台、から成る各カメラ構成や、多数のNFOVカメラ及び多数のWFOV カメラから成る構成等の他の構成を用いることもできる。そのような用途例とし ては、電話ボックス内での虹彩撮影、又は電話機のハンドフリー使用中の虹彩撮 影、群衆内での多数の虹彩撮影、移動中又は停止中の自動車内の人の虹彩撮影、 競馬馬の虹彩撮影、又はPOS現場での使用等がある。 本発明の上記眼的及び発明の内容は、添付図を参照して以下に記述する本発明 の実施形態の説明から一層明らかになろう。 (図面の簡単な説明) 図1は虹彩のイメージを取得するための本発明の装置の現在好ましい実施例の 正面図である。 図2は図1の実施例の側面図である。 図3は本発明のNFOV照明器の現在好ましい第1実施例の平面図である。 図4は照射範囲を一点鎖線で表した図3の実施例の側面図である。 図5はNFOV照明器の現在好ましい第2実施例の、図4と同様の側面図であ る。 図6は現在好ましい第1実施例での照明器ブラケットの平面図である。 図7は照明器の位置を一点鎖線で表した図6の照明器ブラケットの側面図であ る。 図8は現在好ましい第2実施例での照明器ブラケットの平面図である。 図9は照明器の位置を一点鎖線で表した図8の照明器ブラケットの側面図であ る。 図10は図1の実施例のための好ましい制御アーキテクチャを示すブロックダ イヤグラム図である。 図11は広視野照明器の反射が現れる、被識別人物の眼及びメガネを表す正面 図である。 図12はNFOV照明器の反射が現れる、被識別人物の眼及びメガネを表す正 面図である。 (実施例) 図1及び図2を参照するに、本発明の好ましい実施例が、幅14.5インチ、 高さ15インチ、深さ18インチのハウジング1に収納されている。この寸法の ハウジングは現金自動預払機その他の限定的なアクセス装置あるいは玄関口の内 部或はその付近に容易に配置することができる。現金自動預払機のハウジング内 に組み込みあるいはその付近に配置する場合、本発明のユニットは光透過性のベ ゼルあるいは傾斜面の背後に位置付けられる。このベゼルは代表的にはスモーク ガラスその他の不透明ガラスあるいはそれに匹敵するところの、本発明の装置を 容易には見えないように隠蔽するプラスチックで形成する。本発明の装置は大抵 のユーザーのほぼ眼の高さとなるように位置決めする。図2ではユーザーとして 識別される人の頭部が本装置の前方側に位置付けられている。 図2に示す好ましい実施例では、レンズ2及びレンズ4を夫々有する2台の広 視野(以下、WFOVとも称する)カメラが設けられる。各レンズ2及び4並び にその他の構成部品の方向及び配置は、入手し得る空間その他の用途を収受する ために変更することができる。広視野照明器6がレンズを包囲する。各レンズ2 及び4の周囲には広視野照明器6から放射される光がカメラを直接通過しないよ うにするためのフード5及び7が設けられる。広視野照明器6は一組の発光ダイ オード10から誓り立つ。構造を簡易化するためにこれらの発光ダイオード組体 は小型回路板12に取り付けることができる。発光ダイオード組体を取り付けた 小型回路板12は、各レンズ2及び4を包囲するハウジング13に取り付け得る 。小型回路板12を収蔵する十分な数のLEDを用意し、これらのLEDを図2 に示すように、本装置の前方に立つ、被識別者の頭部を照明する位置に位置決め する。結局、広視野照明器6は、この広視野照明器6から約1フィートの距離の 位置で直径約2フィートの範囲を照射するものであるのが好ましい。この照射範 囲は図2では広視野照明器6から延びる実線で表示されている。 広視野照明器6の各部分はWFOVカメラの周囲の、近−軸線方向照射が提供 される位置に位置決めされる。軸線方向照射、近−軸線方向照射、そして傾斜照 明によって、表面特性は、不正な縁部その他のアーチファクトを発生し得る陰を 最小化する状態でイメージ化される。眼をそのように照明することにより、陰の 無い、良好な表面特性を伴うイメージが創出される。この形式の照明は瞳孔を明 るくしそれにより、虹彩の位置付けを容易化する特徴を有するが、この特徴は所 望により無効化することができる。その他の光源及びカメラアングルにより創出 される陰は最小化されあるいはウォッシュアウトされる。この形式の照明を制御 することで、副交感神経系の反射を剌激し、まばたきあるいは瞳孔変化その他の 反応を生じさせることができる。こうした変化は、特定の生体反応を確立するた めの被写体アウェアネスを決定するために、且つまた、イメージ解像度を向上さ せるべく虹彩寸法を小さくするために使用することができる。 広視野照明器6からの光はユーザーの顔面で反射してカメラのレンズ2及び4 に入る。これにより、WFOVカメラはイメージを創出しこのイメージから、ユ ーザーの片方の眼のためのx、y、z座標上の位置を決定することができる。W FOVカメラは、取引その他の活動を監視するためのセキュリティビデオイメー ジを提供するために使用することもできる。本装置は右眼のイメージを捉えるも のであるが、左右何れかのあるいは両眼を捉えるようにすることができる。WF OVカメラは、ステレオ、構造光を用いたステレオ、構造光を使用しあるいは使 用しない状態での焦点深度といった数多くの技法を利用して、関心物体までの距 離及びx−y位置を共に決定することができる。2台の広角視カメラからの各イ メージの少なくとも一部分を比較してxyz座標上の位置を決定するステレオ処 理技法を使用するのが好ましい。ユーザーの注意を引きつけることにより眼の位 置及び運動の識別を助成する視線配向体9を設けることもできる。 選択した側の眼の位置が分かった後、眼の虹彩部分を照明し、虹彩の照合及び 認識のために使用する虹彩イメージを得る必要がある。本装置は、イメージの虹 彩部分を横断する約200ピクセルからなるイメージを取得しそれにより、識別 及び照合のために使用する認識アルゴリズムを高信頼性の下に実施することがで きることが好ましい。 虹彩認識アルゴリズムでは、イメージの虹彩の特徴をファイルイメージのそれ と比較する。照合は、予め決定した数の特徴が比較上一致したときに成立すると 考えられる。ある場合には比較した特徴の少なくとも75%が一致することが要 求される。従って、イメージの有意部分を覆う正反射、スプリアス反射光あるい は暗い陰が無いことが重要である。ユーザーがメガネをかけている場合にはこの 問題は容易に生じ得る。これを解決するために、本装置には、WFOVカメラと 組み合わせて使用するための少なくとも2つ、離間した照明器を使用する。WF OVカメラと組み合わせたこれらの照明器は、こうしたイメージ構造を強調する 編成の組み合わせ状態に選択的に切り替えることができる。例えば、眼を容易に 捉えることができるようにするための構造鏡をメガネ上に創出し、虹彩イメージ 取得のためにはこの構造鏡を無効化することができる。 図1に示す実施例ではミラー18の背後に単独の狭視野(以下、NFOVとも 称する)カメラが位置決めされている。1台あるはそれ以上の台数のNFOV照 明器21、22あるいは23から照射された光が選択された方の眼から反射して 副光学系30に入り、この副光学系30が入射光をNFOVカメラに送る。本装 置では被識別者を取り巻く周囲光の水準を検出するセンサ14を設けることがで きる。このセンサ14からの上方を使用して、もしあれば、NFOV照明器21 、22及び23によって提供されれるべき照明を決定することができる。あるい はまた、カメラの何れかあるいは複数のカメラそれ自体を、そうした光を検出す る目的のために使用することもできる。 図1に示す実施例における副光学系30には、モータ34から延びるロッド3 3に取り付けたパン/チルトミラーが含まれる。モータ34はロッド37により ベース36に廻動自在に取り付けたアーム35に取り付けられる。アーム35は ロッド37を通る中心線に相当するパン軸線の周囲を可動である。NFOV照明 器21、22、あるいは23の任意の何れかから照射された光は識別対象者の虹 彩で反射してパン/チルトミラー32に入る。パン/チルトミラー32は、反射 光をミラー18に配向するように位置決めされ、ミラー18で反射した光は狭視 野カメラ16に向かう。NFOVカメラ16の各レンズもまた、焦点変化あるい はズーミングのために移動することができ、カメラの口径は調節自在である。N FOVカメラ16を可動プラットフォームに取り付け、NFOVカメラ16を眼 に向けて旋回させることもできる。その場合には図1に示す副光学系部分は不要 であり得る。副光学系は自由度5、即ち、パン軸線、チルト軸線、焦点軸線、口 径軸線、そしてズーム軸線を有するのが好ましい。自由度がもっと少ない副光学 系を使用することもできる。パン軸線及びチルト軸線は、パン/チルトミラー3 2を、NFOVカメラ16のセンサ列上に正しい狭視野がイメージされるように 位置決めするために使用される。焦点軸線、口径軸線、ズーム軸線に沿っての移 動を制御する能力があることで、イメージ化された物体にぴったりと合焦させる ことができるようになる。ある場合にはNFOVカメラ16のみを使用し、WF OVカメラは随意的に使用しない。 カメラ及びレンズ間の距離と、レンズ及びイメージ化するべき物体間の距離は 、光学的な解像度、倍率、焦点品質の設計並びに、イメージ装置の寸法次第であ る。イメージ装置の寸法は、レンズからイメージ装置までの距離を定義する上で 最も重要であり且つ焦点深度に寄与するものである。当業者には、NFOVカメ ラ16がソリッドステート式あるいはビジコン式のものであり、センサ列寸法を 対角線寸法で1/4、1/3、1/2、2/3インチあるいは1インチである一 般的な工業寸法から変化させたものとすることができる。こうしたミラーを使用 することにより、光学的通路を後方に折り曲げ、光学的設計を満足させるために 要求される物理的な全要求長さを減少させることが可能である。当業者には、ジ ンバル装置付きカメラを使用してイメージ操作を実施することも可能であること を認識されよう。 図1に示す実施例では、照明器は図2に点線で表す照射範囲を提供するべく位 置決めされる。こうした照明範囲は、光がユーザーの眼からパン/チルトミラー 32に向けて反射されるように配向し且つ寸法付けする必要がある。これを実現 するために、本装置では3つのNFOV照明器21、22、及び23をハウジン グ1の異なる位置に取り付ける。これらの照明器は、WFOVカメラその他の、 使用され得る位置検出体からの情報に基づき、ユーザーの眼が最もありそうな場 所に光を差し向ける。照明器は恒久的な位置及び方向において取り付け、あるい は図6、図7、図8、図9、に示すように手動調節自在のあるいはモータ駆動式 のブラケットに配置することができる。照明器は軸線方向に沿って移動させるた めの摺動機構に取り付けても良い。 光源は、発光ダイオードその他の、赤外線光あるいは近赤外線光あるいはその 組み合わせ光を発する装置である。レンズ及びディフューザ(図示せず)を使用 して均一な照射を保証させることが可能である。赤外線光は、可視光線あるいは 可視スペクトル内の着色光よりも容易にメガネやサングラスを透過することから 特に有益であることが分かった。光学フィルタをカメラの光路に配置し、所望の イメージを劣化させる所望されざる周囲光波長を減少させることができる。異波 長(different wavelength)優先フィルタを使用することにより、異波長を各カメ ラの性能を最適化するために使用することが可能である。例えば、もっと長い波 長IRをWFOVカメライメージングのために使用し、もっと短いIRをNFO Vカメライメージングのために使用することができる。この場合、NFOVカメ ラは広視野照明器には反応しない。この、“光速”プロセス処理は使用上大きな 利益がある。所望であれば、LED光源をストロボ化することができる。ストロ ボ化することより動きを止めることができるようになる。ストロボ化によって短 時間に強い光源が使用されることにより、周囲光を目立たなくする能力が提供さ れ、従ってカメラは、さもなければ干渉する背景周囲光をウォッシュアウトした 状況下に置かれる。おそらくは異なる時間でNFOV照明器及びWFOV照明器 のストロボ発光を行い、各カメラが、適宜の、恐らくは別個の時間断面に渡る写 真を統合することができるようにすることで、各装置の特定の空間及び時間特性 を最適利用することが可能となる。 図1、3、4、5に示すように、NFOV照明器は6×6列の発光ダイオード 20を回路板24に取り付けたものを含むものであるのが好ましい。発光ダイオ ードが回路板と直交する状態で取り付けられている場合は、照明器は、図4に記 号aで示す直径を有する範囲を照射する。図4に示す照明器のために使用するそ れと全く同じ構成部品を使用して発光ダイオードを再位置決めし、あるいはそう でない場合には再構成することにより照射範囲を拡大し得ることが分かった。こ の範囲は図5に記号bで示される。図5に示す照明器では、上部の2列の発光ダ イオードが回路板24に関して狭角をなすように位置決めされ、その下方の2列 の発光ダイオードが同鈍角をなすように位置決めされる。円形リング状その他形 状の照明器をNFOVカメラのレンズの周囲に配置することもできる。ポラライ ザあるいは複屈折分析装置を使用して、アーチファクトを最小化しあるいはその 他の、角膜曲線、眼間隔、虹彩径、皮膚反射率、幸鞏血管系のような生物学上の 関連特性を最小化するために使用することができる。 図6及び図7には、NFOV照明器21、22、23、をハウジング1に取り 付けるために使用するブラケットが示される。ブラケット30は孔32を形成し たU字型のベース31を有し、孔32には、ブラケット30をハウジングに取り 付けるネジを通す。第1の対のグリップアーム33及び34が、取り付けピン4 2によりベースの1つの直立部分に廻動自在に取り付けられる。類似の第2の対 のフリップアーム33及び34が、カラー37を介して反対側の直立部分に廻動 自在に結合される。図7で一点差線で示される照明器がグリップアーム間にネジ あるいはピン38により保持される。一連の穴(図示せず)が、各グリップアー ムを幾つかの位置の選択した任意の1つに位置決めすることができるよう、直立 部分に沿って設けられる。錠止タブ39がカラー37から直立部分の隣り合う長 孔内に伸延され、カラーが回転しないようにしている。ネジ38を、グリップア ーム35、36から伸びるピン42に対して締め付けることによりこれらのグリ ップアームの回転を防止する。 NFOV照明器21、22、23をハウジング1に取り付けるために使用する 第2のブラケット50が図8及び図9に例示される。ブラケット50はハウジン グに取り付けるベース51を有し、このベース51から上方にはロッド52が伸 延される。カラー53がロッド52に沿って摺動し、ネジ54によりロッド状の 任意の所望の位置に保持され得る。ロッド55がカラー53から伸延し、キャリ ヤ56を保持する。キャリヤ56はカラー53と同じ様式でロッド55に摺動自 在に取り付けられる。図9に一点差線で示す照明器は、キャリヤから伸延するピ ン57上のファスナあるいはスナップ取り付け体によりキャリヤ56に取り付け られる。ブラケット50並びに例示したブラケット30は共に、そこに取り付け た照明器をしてパン軸線及びチルト軸線に沿っての再位置決めあるいは調節を可 能とする。 図10に示すように、発光ダイオードの各列を分配ボード60を通して照明器 コントローラ62に結合するのが好ましい。発光ダイオード列は1つ以上存在す ることから、図ではこれらの発光ダイオード列を照明器1〜Xとして表示した。 分配ボード60及び照明器コントローラ62は、図1の実施例におけるNFOV 照明器21、22、23とWFOV照明器6とを選択的に発光させることが可能 である。更に、各列の発光ダイオードを選択的に発光させあるいは各々の発光ダ イオードを選択的に発光させることができる。 各発光ダイオード組体は異なる波長の光を放射することができる。別の人物の 虹彩はある波長に対しては良好な応答性を示し、別の光の波長に対しては応答性 が悪くなることを明記されたい。これは、波長の異なる複数のLEDを有する照 明器を使用して、あるいは波長の異なる単独のLEDを並べることによって達成 することができる。更には、ビーム幅の異なる複数のLEDを並べてあるは異な る照明器に取り付けることにより発光強度を制御し、あるいは鏡面制御すること ができる(ビーム幅を高く且つ狭くするほど正反射の寸法は小さくなる)。 放射される光の持続時間及び強度を制御することもできる。長い照明時間によ り照明器が燃え尽きるのを防ぐために、各照明器に図10に記号“T”で表示す るタイマ63を設けることができる。タイマ63は予め決定された照射時間後に 発光ダイオード列への電力を遮断する。WFOVカメラ3はPV−1と称するイ メージプロセッサ64にイメージを提供する。イメージプロセッサ64はコンピ ュータ65に被識別者の選択された側の眼あるいは両眼のxyz座標を通知する 。イメージプロセッサ64はイメージの品質をも評価し得、主体の運動を補償す るアルゴリズムを含んでいる。イメージプロセッサ64はイメージ向上をも実行 する。コンピュータ65は周囲光レベル検出体69及びNFOVカメラからの情 報を評価する。これらのデータは、照射方法を変更するために使用することがで きる。眼の位置を予測するためのxyz座標により、コンピュータは照明器コン トローラに対し、どの照明器を発光させるべきかを指令し、パン/チルトユニッ トコントローラに虹彩の有益なイメージが取得されるべくパン/チルトユニット 67を正しく位置決めするよう指令することができる。こうした機能はWFOV カメラのプロセス処理によって得た結果により選択することができる。コンピュ ータ65からはパン/チルトの各軸線の位置を変化させる指令が、あるいは焦点 を調節するための指令がモータに対して発せられる。最も単純なケースでは、W FOVイメージが取得され、データがプロセス処理された後、イメージプロセッ サ64を通して送られ、コンピュータ65に送られ、パン/チルトユニットコン トローラ66あるいはジンバル装置付きのコントローラに送られる。移動時間及 びコントローラのセッティング時間を最小化するために、副光学系内での5つの 軸線全てに沿った運動を同時に実行することができる。 パン/チルトユニットコントローラ66はコンピュータからマクロレベルの指 令を受け、照明器コントローラあるいは各軸線を管理するコントローラが使用す る正しい設定点及び或は指令を発生する。軸線のための連続経路の中間設定点は ここで発生され、次いで各軸線を管理するコントローラに送られる。コマンドイ ンタープリタがイメージ分析装置からの指令を解読し、光学装置からの位置決め 情報を使用して応答をフォーマット化する。リアルタイムでの割り込みにより、 nミリ秒ごとに既知のクロック信号が創出される。このクロック信号は各軸線の 位置コントローラのためのサンプルデータシステムの開始条件であり、管理用コ ントローラを介しての連続経路運動の同期化を可能とする。診断サブシステムが 制御システムのためのヘルスチェックを実行する。 5本の軸線のコリオグラフィー以外に、マイクロプロセッサコントローラは照 明器制御をも提供すべきである。照明器コントローラは、選択された照明器をタ イムリーに起動するための、あるいは使用するカメラフレームと同期して起動す るための、運動制御体と関連する指令と類似の指令を受け取る。 WFOVカメラからのイメージはアナログ信号としてイメージプロセッサ64 に送られる。イメージプロセッサ64は2つのピラミッドプロセッサと、少なく とも2つのフレームを記憶することのできるメモリー、1つのLUT、ALU装 置、アナログビデオ信号をデジタル化するディジタイザ、テキサスインスツルメ ント社製のTMS320C−31あるいはC−32プロセッサ及びシリアル/パ ラレルプロセッサ、を含んでいるのが好ましい。イメージは米国特許第5、35 9、574号に記載されるようなピラミッドプロセッサを使用してプロセス処理 される。テキサスインスツルメント社製のプロセッサは各イメージ間の不一致を 計算する。WFOVイメージはWFOVカメラの視野範囲の、被識別者の左右何 れかのあるいは両眼が位置付けられるところの場所を定義する。不一致性に関し てステレオプロセス処理技法を使用することにより、被識別者のWFOVカメラ に関する位置のxyz座標が得られる。この情報は次いで、頭部あるいは眼のよ うな関心部位の領域を確定するべく更にプロセス処理される。関心部位の領域の 座標は、NFOV光学系を配向するために使用される。これらの位置の座標はイ メージプロセッサからNFOVイメージ及び虹彩イメージプロセッサ65に送ら れる。虹彩イメージプロセッサ65は、PENTIUM社製の486その他のマイクロ プロセッサシステム及び関連するメモリを含んでいる。メモリ内には、光学プラ ットフォームを配向し、虹彩識別を実施するためのプログラム及びアルゴリズム が内蔵される。更には、WFOVビデオイメージを保安用のビデオ記録として記 憶 させることができる。 NFOV光学系の焦点軸線は開ループ様式で制御することができる。この場合 、ステレオプロセス処理によって得たxyz座標が、テーブル索引あるいは解析 計算を介して、NFOVカメラのレンズが関心物体上に正しく合焦する焦点軸線 位置を確定する。閉ループ合焦方法を使用することもできる。その場合は、NF OVビデオカメラはイメージプロセッサ64によって、軸線が合焦位置にあるか 否かを決定する性能指数(figure of merit)を得るべくプロセス処理される。性 能指数に基づく指令により軸線は前後方向に移動され、次いで新たなイメージが 取得される。このプロセスはイメージが合焦されるまで閉ループ形態で継続され る。カメラユニットにおいて測定された虹彩の寸法及び位置、WFOVカメラの イメージによって得た眼の間隔のようなその他の情報は、ステレオその他の焦点 情報と結びつけて多変量の特徴とし、次いで、センサからの直接的なあるいは導 出された情報を融合させることにより、範囲情報を洗練するために使用すること ができる。センサ情報の融合にはその他の情報も包含され得る。 関心物体、即ち眼は動くことから、NFOVカメラはWFOVカメラの撮影軌 道を追尾する必要がある。眼の動きを止めてイメージのブレを無くすと、NFO Vカメラ及び光学装置を通して取得し得るイメージは良好なものとなる。眼の動 きを追尾することで、NFOVカメラに光を差し向ける光学装置は虹彩の良好な イメージを取得しようとする場合に移動を殆どあるいは全くせずに済む整列状態 となる。 この場合、WFOVイメージを解析して得たxyz座標は、幾分一様なサンプ ルレート(例えば100ms毎)でNFOV制御体に送られる。例えば、Klafte r,Chmiolewski及びNegin(Prentice Hall,1989)の、Robotic Engineering An I ntegrated Approachに記載されるような連続経路アルゴリズムを使用して一組の {p、t、f、a、z}中間設定点を軸線に提供し、追尾相の間は各軸線が運動 状態にあるようにする。最終点位置を確定するために、マクロレベルでの指令を 与えるか、あるいは同じ{p、t、f、a、z}中間設定点をサンプル周期で継 続的に送ることができる。 NFOVの軸線が移動するに従い、関連するイメージ装置のためのブレのない イメージを取得するための統合を実行するために要する時間は不十分なものとな る。更に、使用するカメラ(インターレーススキャンあるいはプログレッシブス キャン式)に基づき、イメージの視野間偏倚あるいは水平方向変異が生じる。こ うした視野間偏倚あるいは水平方向変異は計算によって全体的にあるいは部分的 にその全てが補正される。かくして、WFOVカメラがNFOVステージを配向 するために必要な情報を提供する理由を容易に理解されよう。特定の眼を追尾す るアルゴリズム(例えば、鏡、あるいは虹彩形状、あるいはパターン一致に基づ くもの)が、(イメージが、焦点あるいは動きによる幾分かのブレがあることに よって若干ブレている場合でさえも)NFOVカメラにおける眼の妥当な推定位 置を提供するための十分な情報を提供し得ることを銘記されたい。従って、概念 上は、WFOVデータを粗い運動のために使用し、プロセス処理されたNFOV データ(運動中の)を微細な解像度のための追加的情報として使用することが可 能である。こうしたデータを融合することにより、良好な虹彩イメージを取得す るためにNFOVイメージを位置決めする上で、WFOVカメラのイメージのみ を使用した場合以上に良好な推定位置が提供され得る。 良好な虹彩イメージを取得するためにはNFOV軸線を、イメージ装置によっ て検出され得るよりも残留運動量が少ない位置に据え付ける必要がある。そのよ うに据え付けることにより、イメージ装置から残余のイメージは必然的にパージ され(代表的には、イメージ統合とRS170を介しての読出しとの間には遅延 が生じる)、ブレのないイメージを取得するための正しい統合時間が許容される 。調時シナリオに関してはRobotic Engineering An Integrated Approachを参照 されたい。上述の据え付けは数多くの方法で実現することができる。最も単純な 方法は、眼の動きが止まった後、良好なRS170イメージが捕捉されるまでに 生じる時間遅延を使用するものである。部分的に不明瞭であり得る多数の虹彩イ メージを収集し、標準化及び融合方法を使用してこれを融合し、不明瞭部分の少 ない単一の合成イメージ化する。 どのような光源も被識別者のメガネに反射を引き起こすことが分かった。WF OVカメラのイメージを通して見た眼が図11に示される。人物のメガネ74の 両方のレンズ72にはWFOV照明器6からの反射70が存在する。反射70は 人物の眼の虹彩76を部分的に覆い、虹彩の識別を不可能ではないにしろ困難な ものとする。この問題を解決するために、照明器21、22、23をNFOVカ メラ16の光学的軸線から離れた軸線に位置付ける。時々は幾つかの発光ダイオ ードのみを使用して注意深く位置決めすることにより、問題となる反射を創出す ることなく適切な照明を実現することができる。この結果としての状況が図12 に示される。図12ではイメージに現われる反射80は、NFOV照明器21、 22、23における僅かな数の発光ダイオードの光によって創出されるに過ぎな い。こうした反射は、虹彩76のどの部分も覆うことが無い。ある場合、特にメ ガネの場合には、WFOVの反射が頭部及び眼の取得をより迅速化する。 多重の照明器は、イメージ内の主体の着用するメガネの形状の決定をも可能と する。本発明では離間した2つの照明器を使用してメガネをシーケンス的に照明 する。正反射は、第1の照明の間はある位置にあり、第2の照明の間は前記ある 位置とは異なる位置にある。次いで反射の変化量が計算され、適宜のメガネ形状 が決定される。この情報により、虹彩の正反射をなくす上で必要な照明の最小移 動量を決定することができる。 NFOVカメラの視野の中心を、広視野により定義されるような3次元空間内 の一連の座標のためのパン/チルト及び焦点の各軸線と相関させるために較正手 順が使用されるべきである。カメラの前方の作用容積内のどこかであるユーザー の眼の位置を定義する所定の一組のWFOV座標{x、y、z}において、x、 y座標が一致し且つz平面状に焦点を有するNFOVカメラの視野の中心を較正 するところの、パン、チルト及び焦点の各軸線{p、t、f}の座標を確定する ために、変換あるいはテーブル索引を使用することができる。較正を助成するた めの一連のターゲットを使用するのが好ましい。これらのターゲットは、1つの ページ上の既知の位置において、虹彩位置に相当する部分的に充填した円を有す る。これらのターゲットがハウジングから既知の距離に配置され、虹彩を見い出 すべく装置が起動され、較正イメージが創出される。 NFOVカメラ及びWFOVカメラを使用する場合、これらのカメラを相互に 較正するべきである。相互の較正は手動あるいは自動の手順を使用して実施し得 、光学的ターゲットあるいは投影ターゲットが使用され得る。自動手順では、カ メライメージに関して運転されるコンピュータ支援設備により較正物体を自動認 識する必要がある。別の可能性は、ターゲットを較正容積中に投影し、ターゲッ トを認識するためにNFOVカメラの運動能力その他の運動発生能力を使用する ことである。 以上、本発明を実施例を参照して説明したが、本発明の内で種々の変更をなし 得ることを理解されたい。Description: Device for iris acquisition image Field of the invention The present invention relates to a method and apparatus for illuminating an eye to obtain an iris image. Background of the Invention Several methods known as biometrics or biostatistics are known as methods for recognizing or identifying (identifying) an individual. For example, there are methods for analyzing a signature, collecting and analyzing a fingerprint, and analyzing and photographing a pattern of a retinal blood vessel of a human eye. Recently, the art has provided an iris of the eye with an extremely fine pattern that has remained stable for many years as a non-contact, non-obstructive biometric method that is unique to each individual. I use. This technique is disclosed in U.S. Patent Nos. 4,641,349 and 5,291,560. The systems described in these prior patents require that at least one eye of the identified person be held in a fixed position with respect to the camera taking the image of the iris. While this method is satisfactory for certain applications, it is not satisfactory for automated teller machines, access control methods that are unobtrusive or intrusive, and for quick transaction activities such as those using automatic payment methods. Absent. Other examples where the method of this prior patent is inadequate include immigration management, point-of-sale (POS) verification, distribution of welfare tickets, Internet banking, bank loans, account opening and other financial transactions. The iris identification method disclosed in the above-mentioned U.S. Pat. Nos. 4,641,349 and 5,291,560 requires a clear, focused image of the iris portion of the eye. Once the image of the iris portion is obtained, the comparison of the image with the coded file image of the identified person can be performed very quickly. However, prior to the present invention, optical devices have been developed that can rapidly acquire a sufficiently clear iris image unless the discriminator positions his or her eye relatively close to the imaging camera in a fixed position. I didn't. Accordingly, there is a need for an optical device that can quickly acquire a clear image of the iris of a person or animal at an uncertain location that is far from the optical device. Such devices are particularly useful for identifying users of automated teller machines, individuals seeking access to regulated areas or facilities, or for other applications that require user identification. is there. The device can also be used to identify patients and suspected criminal and other people who would otherwise be unidentifiable or willing to be identified. Automatic teller machines, often abbreviated as ATM, are widely used in banking transactions. Users are accustomed to inserting their ID card (identity certificate) and entering an identification number to obtain their identity relatively quickly. However, any ID card can be used by anyone who knows its identification number. Thus, if a thief looks at the cardholder's use of the card, or looks at the identification number on the card, or otherwise learns the identification number, the thief can easily deposit from the cardholder's account. Can be pulled out. Accordingly, banks have traditionally sought other, more reliable methods for verifying the identity of ATM users. The iris identification method disclosed in the above-mentioned U.S. Pat. No. 4,641,349 has been proven to be highly reliable, so that the iris identification method can be used to verify the identity of ATM users or to recognize or identify other remote users. It has been proposed to use However, in order to make such a mode of use commercially available, it is necessary to obtain an iris image with sufficient resolution to enable its identification and identification from an ATM user standing in front of the ATM. There must be a highly reliable and unobtrusive method. However, it is not practical to position the user's head at a predetermined distance from the camera, for example, with or without eyepieces or other fixtures. Accordingly, there is a need for a device that can quickly locate an ATM user's iris and acquire good quality iris images that can be used for matching and identification. Also, such devices must be suitable for use with or without an access card. Such a device must also be capable of acquiring an iris image from a user wearing spectacles or contact lenses, or a ski mask, or clothing that hides the face. Summary of the Invention The present invention provides a method and apparatus that allows a person to take a clear image of the iris when the person places his head in front of the portion of the optical device that receives the reflected light from the iris. The optical device has at least one camera with or without illumination from the surrounding environment, preferably with at least one illuminator. In the present invention, a pan (up / down / left / right) / tilt (tilt) mirror or gimbal device and at least one lens are provided. Light reflected from the subject (identified person's iris) is captured by a camera with a gimbal device (attached to the gimbal) or a mirror and directed to the camera through a lens. In a preferred embodiment, a narrow field of view (NFOV) camera is configured to receive the reflected light from the pan / tilt mirror through a lens or directly through a gimbaled camera. A second camera, and preferably a third camera, is provided to obtain a wide field of view (WFOV) image of the subject. However, when it is known that the user always enters the field of view of the NF OV camera, or when the user can be captured in the field of view by moving the NFOV camera, the WFOV camera (the second and third cameras) is used. Each camera) is an extra tool. The image from such a WFOV camera is processed to determine the coordinates of a particular target site, such as the head and shoulders of the identified person, and the iris. The pan / tilt mirror or gimbal device is adjusted based on the analysis of these images to receive the reflected light from the iris or other target site and direct the reflected light to a narrow-field camera. Thus, a narrow-field camera creates an image of sufficient quality to identify the iris. In a preferred embodiment, a wide-field illuminator is provided to illuminate the face of the identified person. Preferably, the illuminator comprises a plurality of infrared light emitting diodes arranged around a lens of one or more wide-field cameras. In the present invention, it is also preferable to receive two or more NFOV illuminators, each comprising a light emitting diode array. These arrangements are mounted so as to be rotatable about both horizontal and vertical axes. The use of at least two arrays can compensate for specular or reflection from spectacles or contact lenses, or other artifacts obscuring a portion of the iris. Further, in the present invention, the center line of the first set of light emitting diodes is at right angles to the base, the center line of the second set of light emitting diodes is at an acute angle to the base, and the center line of the third set of light emitting diodes is It is preferable to configure the array of light emitting diodes such that the center line forms an obtuse angle with the base. By doing so, a wide-field illumination function is provided to the array of light emitting diodes. Further, it is preferable to provide a control device capable of individually emitting the light emitting diodes of each set or group. The controller can also cause individual diodes to selectively emit light. Alternatively, a single illumination can be provided that can be steered in conjunction with an imaging device that steers the image (steers the orientation of the image). An image processor is provided for analyzing the image from the wide-field camera and thereby locating the point of interest or region of the identified object or person. A preferred technique for locating the user is stereo image analysis. Alternatively, visible or invisible imagers or rangefinders such as ultrasound, radar, broad spectrum microwave or thermography, or sensor means or other engineering means may be used. The device of the present invention is particularly useful for verifying the identity of a user of an automatic teller machine. The device can be easily combined with most conventional cash machines and many other financial transaction machines. With the device of the present invention, image acquisition and identification can typically be performed in less than 5 seconds, often in less than 2 seconds. For other special applications, for example with some restrictions on camera movement and installation position, each camera configuration consisting of one NFOV camera, one NFOV camera and one WFOV camera, two NFOV cameras, and many others Other configurations may be used, such as the NFOV camera and multiple WFOV cameras. Examples of such applications are iris photography in a telephone booth, or iris photography while using a telephone hands-free, multiple iris photography in a crowd, iris photography of a person in a moving or stationary car, There is iris photography of a horse racing horse or use at a POS site. The above objects and contents of the present invention will become more apparent from the following description of embodiments of the present invention with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a front view of a presently preferred embodiment of the apparatus of the present invention for acquiring an iris image. FIG. 2 is a side view of the embodiment of FIG. FIG. 3 is a plan view of a first currently preferred embodiment of the NFOV illuminator of the present invention. FIG. 4 is a side view of the embodiment of FIG. 3 in which the irradiation range is represented by a dashed line. FIG. 5 is a side view similar to FIG. 4 of a second currently preferred embodiment of the NFOV illuminator. FIG. 6 is a plan view of the illuminator bracket in the presently preferred first embodiment. FIG. 7 is a side view of the illuminator bracket of FIG. 6 in which the position of the illuminator is represented by a dashed line. FIG. 8 is a plan view of the illuminator bracket according to the second currently preferred embodiment. FIG. 9 is a side view of the illuminator bracket of FIG. 8 in which the position of the illuminator is indicated by a dashed line. FIG. 10 is a block diagram illustrating a preferred control architecture for the embodiment of FIG. FIG. 11 is a front view showing the eyes and glasses of the person to be identified, where the reflection of the wide-field illuminator appears. FIG. 12 is a front view showing the eyes and glasses of the identified person, where the reflection of the NFOV illuminator appears. Embodiment Referring to FIGS. 1 and 2, a preferred embodiment of the present invention has a width of 14.1 mm. 5 inches, 15 inches high, It is housed in a housing 1 having a depth of 18 inches. A housing of this size can be easily located within or near an automated teller machine or other limited access device or entrance. If installed in or near the automatic teller machine housing, The unit of the present invention is positioned behind a light transmissive bezel or ramp. The bezel is typically made of smoked glass or other opaque glass or comparable, The device of the present invention is formed of a plastic which is hidden from view. The device of the present invention is positioned to be approximately eye level of most users. In FIG. 2, the head of a person identified as a user is positioned in front of the apparatus. In the preferred embodiment shown in FIG. Two wide fields of view each having a lens 2 and a lens 4 (hereinafter referred to as A camera (also referred to as a WFOV) is provided. The direction and arrangement of each lens 2 and 4 and other components are It can be modified to accommodate available space and other uses. A wide field illuminator 6 surrounds the lens. Hoods 5 and 7 are provided around each of the lenses 2 and 4 to prevent light emitted from the wide-field illuminator 6 from directly passing through the camera. The wide field illuminator 6 swears from a set of light emitting diodes 10. These light emitting diode assemblies can be mounted on the small circuit board 12 to simplify the structure. The small circuit board 12 to which the light emitting diode assembly is attached is: Each lens 2 and 4 may be mounted on a surrounding housing 13. Prepare a sufficient number of LEDs to store the small circuit board 12, These LEDs are shown in FIG. Stand in front of the device, It is positioned to illuminate the head of the identified person. After all, The wide-field illuminator 6 It is preferable to illuminate a range of about 2 feet in diameter at a distance of about 1 foot from the wide field illuminator 6. This irradiation range is indicated by a solid line extending from the wide-field illuminator 6 in FIG. Each part of the wide-field illuminator 6 surrounds the WFOV camera, It is positioned where near-axial illumination is provided. Axial irradiation, Near-axial illumination, And by oblique lighting, The surface properties are It is imaged in a manner that minimizes shadows that can cause false edges and other artifacts. By illuminating the eyes that way, No shade, An image with good surface properties is created. This type of illumination brightens the pupil, thereby It has features that facilitate positioning of the iris, This feature can be disabled if desired. Shadows created by other light sources and camera angles are minimized or washed out. By controlling this type of lighting, Stimulates the reflexes of the parasympathetic nervous system, Blinks or pupil changes or other reactions can occur. These changes are To determine subject awareness to establish a particular biological response, And again It can be used to reduce iris size to improve image resolution. Light from the wide field illuminator 6 reflects off the user's face and enters the camera lenses 2 and 4. This allows The WFOV camera creates an image and from this image, X for one eye of the user, y, The position on the z coordinate can be determined. The W FOV camera It can also be used to provide security video images for monitoring transactions and other activities. This device captures the image of the right eye, Either the left or right eye or both eyes can be captured. The WF OV camera is stereo, Stereo using structured light, Using a number of techniques, such as depth of focus with or without structured light, Both the distance to the object of interest and the xy position can be determined. Preferably, a stereo processing technique is used that compares at least a portion of each image from the two wide-angle cameras to determine a location on xyz coordinates. A line-of-sight orienting body 9 may be provided to assist in identifying eye position and movement by attracting the user's attention. After knowing the position of the selected eye, Illuminate the iris of the eye, There is a need to obtain an iris image to be used for iris matching and recognition. This device is Obtain an image consisting of about 200 pixels that traverses the iris portion of the image, Preferably, the recognition algorithms used for identification and verification can be implemented with high reliability. In the iris recognition algorithm, Compare the iris characteristics of the image with those of the file image. The collation is It is considered that the condition is established when a predetermined number of features match for comparison. In some cases, it is required that at least 75% of the compared features match. Therefore, Specular reflection covering significant parts of the image, It is important that there are no spurious reflections or dark shadows. This problem can easily occur if the user is wearing glasses. To solve this, In this device, At least two for use in combination with a WFOV camera, Use illuminators that are spaced apart. These illuminators combined with a WF OV camera It is possible to selectively switch to the combination state of the composition that emphasizes such an image structure. For example, Create a structural mirror on the glasses to make it easy to catch the eyes, This structural mirror can be disabled for iris image acquisition. In the embodiment shown in FIG. 1, a single narrow field of view (hereinafter referred to as (Also referred to as NFOV) camera. One or more NFOV illuminators 21, Light emitted from 22 or 23 is reflected from the selected eye and enters the sub optical system 30, This sub optical system 30 sends the incident light to the NFOV camera. In this device, a sensor 14 for detecting the level of ambient light surrounding the person to be identified can be provided. Using the top from this sensor 14, If any, NFOV illuminator 21, The illumination to be provided by 22 and 23 can be determined. Alternatively, One or more of the cameras themselves, It can also be used for the purpose of detecting such light. The sub optical system 30 in the embodiment shown in FIG. A pan / tilt mirror mounted on a rod 33 extending from the motor 34 is included. The motor 34 is mounted on an arm 35 that is rotatably mounted on a base 36 by a rod 37. The arm 35 is movable around a pan axis corresponding to a center line passing through the rod 37. NFOV illuminator 21, 22, Alternatively, light emitted from any one of 23 is reflected by the iris of the identification target and enters the pan / tilt mirror 32. The pan / tilt mirror 32 Positioned to direct the reflected light to mirror 18; The light reflected by the mirror 18 travels to the narrow-field camera 16. Each lens of the NFOV camera 16 is also Can be moved for focus change or zooming, The aperture of the camera is adjustable. Attach the N FOV camera 16 to the movable platform, The NFOV camera 16 can be turned toward the eyes. In that case, the sub optical system portion shown in FIG. 1 may not be necessary. The secondary optical system has five degrees of freedom, That is, Pan axis, Tilt axis, Focal axis, Caliber axis, It preferably has a zoom axis. It is also possible to use a sub-optical system having less freedom. The pan axis and the tilt axis are Pan / tilt mirror 32 It is used to position the NFOV camera 16 so that a correct narrow field of view is imaged on the sensor array. Focal axis, Caliber axis, With the ability to control movement along the zoom axis, It will be possible to focus exactly on the imaged object. In some cases, only the NFOV camera 16 is used, WF OV cameras are not optionally used. The distance between the camera and the lens, The distance between the lens and the object to be imaged is Optical resolution, magnification, Focus quality design and It depends on the dimensions of the imaging device. The dimensions of the imaging device are It is most important in defining the distance from the lens to the imaging device and contributes to the depth of focus. For those skilled in the art, The NFOV camera 16 is of a solid state type or a vidicon type, Sensor row dimension is 1/4 diagonal, 1/3, 1/2, It can vary from typical industrial dimensions of 2/3 inch or 1 inch. By using these mirrors, Fold the optical path backwards, It is possible to reduce the total required physical length required to satisfy the optical design. For those skilled in the art, It will be appreciated that image manipulation can also be performed using a gimbaled camera. In the embodiment shown in FIG. The illuminator is positioned to provide an illumination area, represented by the dashed line in FIG. These lighting ranges Light must be oriented and dimensioned to be reflected from the user's eyes toward the pan / tilt mirror 32. To achieve this, In this device, three NFOV illuminators 21, 22, And 23 in different positions of the housing 1. These illuminators are WFOV camera and others, Based on information from the position detector that can be used, Point the light where the user's eyes are most likely. The illuminator is mounted in a permanent position and orientation, Or Figure 6, FIG. FIG. FIG. Can be placed on a manually adjustable or motor-driven bracket. The illuminator may be attached to a sliding mechanism for moving along the axial direction. The light source is Light emitting diodes and other A device that emits infrared light, near infrared light, or a combination thereof. It is possible to use a lens and a diffuser (not shown) to ensure uniform illumination. Infrared light It has been found to be particularly beneficial because it transmits through eyeglasses and sunglasses more easily than visible light or colored light in the visible spectrum. Place the optical filter in the optical path of the camera, Undesired ambient light wavelengths that degrade the desired image can be reduced. By using a different wavelength priority filter, Different wavelengths can be used to optimize the performance of each camera. For example, Use longer wavelength IR for WFOV camera imaging, Shorter IRs can be used for NFOV camera imaging. in this case, NFOV cameras do not respond to wide-field illuminators. this, "Speed of light" processing has significant benefits in use. If desired, The LED light source can be strobed. The movement can be stopped by strobing. By using a strong light source in a short time by strobing, Provides the ability to obscure ambient light, So the camera Otherwise, you are placed in a situation where you have washed out the interfering background ambient light. Probably strobe the NFOV illuminator and WFOV illuminator at different times, Each camera is As appropriate, Perhaps by being able to merge photos that span time sections, The specific space and time characteristics of each device can be optimally utilized. Figure 1, 3, 4, As shown in 5, The NFOV illuminator preferably includes a 6 × 6 array of light emitting diodes 20 mounted on a circuit board 24. If the light emitting diode is mounted perpendicular to the circuit board, The illuminator The area having the diameter indicated by the symbol a in FIG. 4 is irradiated. Repositioning the light emitting diode using exactly the same components used for the illuminator shown in FIG. Otherwise, it has been found that the irradiation range can be expanded by reconstitution if not. This range is indicated by the symbol b in FIG. In the illuminator shown in FIG. The upper two rows of light emitting diodes are positioned at a narrow angle with respect to the circuit board 24; The lower two rows of light emitting diodes are positioned so as to form the same obtuse angle. A circular ring or other shaped illuminator can also be placed around the lens of the NFOV camera. Using a polarizer or birefringence analyzer, Minimize artifacts or other Corneal curve, Eye spacing, Iris diameter, Skin reflectance, It can be used to minimize biologically relevant properties such as the haptic vasculature. 6 and 7 show: NFOV illuminator 21, 22, 23, The bracket used to attach the to the housing 1 is shown. The bracket 30 has a U-shaped base 31 having a hole 32 formed therein, In the hole 32, Pass the screws that attach the bracket 30 to the housing. The first pair of grip arms 33 and 34 It is rotatably mounted on one upright portion of the base by mounting pins 42. A similar second pair of flip arms 33 and 34 It is pivotally connected to the upright portion on the opposite side via a collar 37. An illuminator indicated by a dashed line in FIG. 7 is held between the grip arms by screws or pins 38. A series of holes (not shown) So that each grip arm can be positioned in any one of several selected locations. It is provided along the upright part. A locking tab 39 extends from the collar 37 into an adjacent slot in the upright portion, The color is not rotated. Screw 38 Grip arm 35, Tightening against pins 42 extending from 36 prevents rotation of these grip arms. NFOV illuminator 21, 22, A second bracket 50 used to attach 23 to housing 1 is illustrated in FIGS. The bracket 50 has a base 51 attached to the housing, A rod 52 extends upward from the base 51. The collar 53 slides along the rod 52, The rod 54 can be held at any desired position in the shape of a rod. The rod 55 extends from the collar 53, Hold the carrier 56. Carrier 56 is slidably mounted on rod 55 in the same manner as collar 53. The illuminator shown by the dashed line in FIG. Attached to carrier 56 by fasteners or snap mounts on pins 57 extending from the carrier. Both the bracket 50 and the exemplified bracket 30 are: An illuminator mounted thereon allows repositioning or adjustment along the pan and tilt axes. As shown in FIG. Preferably, each row of light emitting diodes is coupled through a distribution board 60 to an illuminator controller 62. Since there is one or more light emitting diode rows, In the figure, these light emitting diode arrays are shown as illuminators 1 to X. The distribution board 60 and the illuminator controller 62 The NFOV illuminator 21 in the embodiment of FIG. 22, 23 and the WFOV illuminator 6 can selectively emit light. Furthermore, Each row of light emitting diodes can be selectively lit or each light emitting diode can be selectively lit. Each light emitting diode assembly can emit light of a different wavelength. Another person's iris responds well to certain wavelengths, Note that the response is poor for other light wavelengths. this is, Using an illuminator having a plurality of LEDs having different wavelengths, Alternatively, this can be achieved by arranging single LEDs having different wavelengths. Furthermore, Controlling the light emission intensity by mounting a plurality of LEDs with different beam widths side by side or on different illuminators, Alternatively, the mirror surface can be controlled (the specular reflection dimension decreases as the beam width increases and decreases). The duration and intensity of the emitted light can also be controlled. To prevent the illuminator from burning out due to long lighting times, Each illuminator can be provided with a timer 63 indicated by the symbol "T" in FIG. The timer 63 shuts off the power to the light emitting diode array after a predetermined irradiation time. The WFOV camera 3 provides an image to an image processor 64 called PV-1. The image processor 64 notifies the computer 65 of the xyz coordinates of the selected eye or both eyes of the identified person. Image processor 64 may also evaluate the quality of the image, Includes algorithms that compensate for subject movement. Image processor 64 also performs image enhancement. Computer 65 evaluates information from the ambient light level detector 69 and the NFOV camera. These data are Can be used to change the irradiation method. By xyz coordinates for predicting the position of the eye, The computer responds to the illuminator controller Command which illuminator should fire, The pan / tilt unit controller can be instructed to correctly position the pan / tilt unit 67 to obtain a useful image of the iris. These functions can be selected based on the results obtained by the processing of the WFOV camera. A command to change the position of each axis line of the pan / tilt from the computer 65, Alternatively, a command for adjusting the focus is issued to the motor. In the simplest case, W FOV image is acquired, After the data has been processed, Sent through the image processor 64, Sent to computer 65, This is sent to the pan / tilt unit controller 66 or a controller with a gimbal device. To minimize travel time and controller setting time, Movements along all five axes in the secondary optics can be performed simultaneously. The pan / tilt unit controller 66 receives a macro-level command from the computer, Generate the correct set points and / or commands for use by the illuminator controller or the controller managing each axis. The intermediate set point of the continuous path for the axis is generated here, Then, it is sent to the controller which manages each axis. A command interpreter interprets commands from the image analyzer, Format the response using positioning information from the optical device. With real-time interrupts, A known clock signal is created every n milliseconds. This clock signal is the starting condition for the sample data system for each axis position controller, Enables synchronization of continuous path motions via an administrative controller. The diagnostic subsystem performs a health check for the control system. In addition to the five axis choreography, The microprocessor controller should also provide illuminator control. The illuminator controller To activate the selected illuminator in a timely manner, Or to start in synchronization with the camera frame to be used, A command similar to the command related to the motion controller is received. The image from the WFOV camera is sent to the image processor 64 as an analog signal. The image processor 64 has two pyramid processors, A memory capable of storing at least two frames, One LUT, ALU device, Digitizer that digitizes analog video signals, A Texas Instruments TMS320C-31 or C-32 processor and a serial / parallel processor, Preferably. The image is US Patent 5, 359, Processed using a pyramid processor as described in US Pat. A Texas Instruments processor calculates the mismatch between each image. The WFOV image is the view range of the WFOV camera. A place where either the left or right eye or both eyes of the identified person is positioned is defined. By using stereo processing techniques for inconsistencies, The xyz coordinates of the position of the identified person with respect to the WFOV camera are obtained. This information is then Further processing is performed to determine the region of interest, such as the head or eyes. The coordinates of the region of interest are Used to orient NFOV optics. The coordinates of these locations are sent from the image processor to the NFOV image and iris image processor 65. The iris image processor 65 Includes PENTIUM's 486 and other microprocessor systems and associated memory. In memory, Orient the optical platform, A program and an algorithm for performing iris identification are incorporated. Furthermore, The WFOV video image can be stored as a security video record. The focal axis of the NFOV optics can be controlled in an open loop manner. in this case, The xyz coordinates obtained by the stereo processing are Through a table index or analytic calculation Determine the focal axis position at which the lens of the NFOV camera is correctly focused on the object of interest. A closed loop focusing method can also be used. In that case, The NF OV video camera is controlled by the image processor 64 It is processed to obtain a figure of merit that determines whether the axis is in focus. The axis is moved back and forth by a command based on the figure of merit, Then a new image is acquired. This process continues in closed loop until the image is in focus. The size and position of the iris measured at the camera unit, Other information, such as the eye separation obtained by the WFOV camera image, Multivariate features combined with stereo and other focus information, Then By fusing information directly or derived from sensors, Can be used to refine range information. Other information may be included in the fusion of sensor information. Objects of interest, That is, because the eyes move, The NFOV camera needs to track the shooting trajectory of the WFOV camera. By stopping the movement of the eyes and eliminating the blur of the image, The images that can be acquired through NFOV cameras and optics are good. By tracking the movement of the eyes, The optics that direct light to the NFOV camera are in alignment with little or no movement when trying to acquire a good image of the iris. in this case, The xyz coordinates obtained by analyzing the WFOV image are It is sent to the NFOV controller at a somewhat uniform sample rate (eg, every 100 ms). For example, Klafte r, Chmiolewski and Negin (Prentice Hall, 1989), Using a continuous path algorithm as described in the Robotic Engineering An Integrated Approach, a set of {p, t, f, a, provide the z} intermediate set point on the axis, During the tracking phase, each axis is in motion. To determine the final point position, Give commands at the macro level, Or the same $ p, t, f, a, The z} intermediate set point can be sent continuously at the sample period. As the NFOV axis moves, The time required to perform the integration to obtain a blur-free image for the associated imaging device is insufficient. Furthermore, Based on the camera used (interlaced scan or progressive scan) Inter-field deviation or horizontal displacement of the image occurs. Such inter-field deviation or horizontal displacement is entirely or partially corrected by calculation. Thus, It is easy to see why the WFOV camera provides the necessary information to orient the NFOV stage. Algorithms that track a specific eye (for example, mirror, Or iris shape, Or based on pattern matching) (Image is Note that sufficient information can be provided to provide a reasonable estimated position of the eye in the NFOV camera (even if there is some blurring due to some blurring due to focus or movement). Therefore, Conceptually, Use the WFOV data for coarse motion, It is possible to use the processed NFOV data (in motion) as additional information for fine resolution. By fusing such data, In positioning the NFOV image to obtain a good iris image, A better estimated position can be provided than using only the image of the WFOV camera. In order to obtain a good iris image, the NFOV axis is It needs to be installed in a position with less residual momentum than can be detected by the imaging device. By installing as such, The residual image from the imaging device is necessarily purged (typically, There is a delay between image integration and readout via RS 170), The correct integration time for obtaining a blur-free image is acceptable. See Robotic Engineering An Integrated Approach for timing scenarios. The installation described above can be realized in a number of ways. The simplest method is After the eye stops moving, It uses the time delay that occurs before a good RS170 image is acquired. Collect a number of iris images, which may be partially obscure, Fusing this using standardization and fusion methods, Create a single composite image with few unclear parts. It has been found that any light source can cause reflections on the subject's glasses. An eye viewed through the image of the WF OV camera is shown in FIG. Reflections 70 from the WFOV illuminator 6 are present on both lenses 72 of the person's glasses 74. The reflection 70 partially covers the iris 76 of the human eye, It is difficult, if not impossible, to identify the iris. to solve this problem, Illuminator 21, 22, Position 23 at an axis away from the optical axis of NFOV camera 16. Sometimes by careful positioning using only a few light emitting diodes, Proper illumination can be achieved without creating problematic reflections. The resulting situation is shown in FIG. In FIG. 12, the reflection 80 appearing in the image is NFOV illuminator 21, 22, Only a small number of light emitting diodes at 23 create light. These reflections No part of the iris 76 is covered. If so, Especially in the case of glasses, WFOV reflections make head and eye acquisition faster. Multiple illuminators It is also possible to determine the shape of the glasses worn by the subject in the image. In the present invention, the glasses are sequentially illuminated using two spaced illuminators. Specular reflection is In a position during the first lighting, During the second illumination, the position is different from the certain position. Then the change in reflection is calculated, An appropriate glasses shape is determined. With this information, It is possible to determine the minimum moving amount of the illumination necessary for eliminating the specular reflection of the iris. Center the field of view of the NFOV camera A calibration procedure should be used to correlate the pan / tilt and focus axes for a series of coordinates in three-dimensional space as defined by the wide field of view. A predetermined set of WFOV coordinates {x} defining the position of the user's eye somewhere within the working volume in front of the camera; y, In z} x, calibrating the center of the field of view of an NFOV camera with matched y-coordinates and focus in the z-plane, Bread, The tilt and focus axes の p, t, To determine the coordinates of f} Conversion or table indexing can be used. Preferably, a series of targets is used to aid calibration. These targets are At a known location on one page, It has a partially filled circle corresponding to the iris position. These targets are placed at a known distance from the housing, The device is activated to find the iris, A calibration image is created. When using NFOV camera and WFOV camera, These cameras should be calibrated with each other. Mutual calibration can be performed using manual or automatic procedures, Optical or projection targets can be used. In the automatic procedure, There is a need to automatically recognize the calibration object by a computer assisted facility driven on the camera image. Another possibility is Project the target into the calibration volume, The use of the NFOV camera's athletic ability or other athletic ability to recognize the target. that's all, Although the present invention has been described with reference to the embodiments, It should be understood that various modifications can be made within the present invention.

───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FI,FR,GB,GR,IE,IT,L U,MC,NL,PT,SE),OA(BF,BJ,CF ,CG,CI,CM,GA,GN,ML,MR,NE, SN,TD,TG),AP(GH,KE,LS,MW,S D,SZ,UG,ZW),EA(AM,AZ,BY,KG ,KZ,MD,RU,TJ,TM),AL,AM,AT ,AU,AZ,BA,BB,BG,BR,BY,CA, CH,CN,CU,CZ,DE,DK,EE,ES,F I,GB,GE,GH,HU,IL,IS,JP,KE ,KG,KP,KR,KZ,LC,LK,LR,LS, LT,LU,LV,MD,MG,MK,MN,MW,M X,NO,NZ,PL,PT,RO,RU,SD,SE ,SG,SI,SK,SL,TJ,TM,TR,TT, UA,UG,UZ,VN,YU,ZW (72)発明者 ヒミエレウスキー,トマス エイ.,ジュ ニア アメリカ合衆国 19053 ペンシルベニア, ラングホーン,ウッドリン ドライブ 707 (72)発明者 セインズベリー,ロビン アメリカ合衆国 08003 ニュージャージ ー,チェリー ヒル,シャーラン サーク ル 105 (72)発明者 サルガニコフ,マルコス アメリカ合衆国 19130 ペンシルベニア, フィラデルフィア,オリーブ ストリート 2425 (72)発明者 ハナ,キース ジェイムズ アメリカ合衆国 08542 ニュージャージ ー,プリンストン,ジョン ストリート 212 (72)発明者 マンデルバウム,ロバート アメリカ合衆国 19102 ペンシルベニア, フィラデルフィア,ローカスト ストリー ト 1500,アパートメント ナンバー3414 (72)発明者 ミシュラ,ディーパム アメリカ合衆国 08536 ニュージャージ ー,プレインズバラ,フォックス ラン ドライブ 102────────────────────────────────────────────────── ─── Continuation of front page    (81) Designated countries EP (AT, BE, CH, DE, DK, ES, FI, FR, GB, GR, IE, IT, L U, MC, NL, PT, SE), OA (BF, BJ, CF) , CG, CI, CM, GA, GN, ML, MR, NE, SN, TD, TG), AP (GH, KE, LS, MW, S D, SZ, UG, ZW), EA (AM, AZ, BY, KG) , KZ, MD, RU, TJ, TM), AL, AM, AT , AU, AZ, BA, BB, BG, BR, BY, CA, CH, CN, CU, CZ, DE, DK, EE, ES, F I, GB, GE, GH, HU, IL, IS, JP, KE , KG, KP, KR, KZ, LC, LK, LR, LS, LT, LU, LV, MD, MG, MK, MN, MW, M X, NO, NZ, PL, PT, RO, RU, SD, SE , SG, SI, SK, SL, TJ, TM, TR, TT, UA, UG, UZ, VN, YU, ZW (72) Inventor Himielewski, Thomas A. 、 Ju             near             United States 19053 Pennsylvania,             Langhorne, Woodlyn Drive             707 (72) Inventor Sainsbury, Robin             United States 08003 New Jersey             ー, Cherry Hill, Sharan Sark             Le 105 (72) Inventor Sarganikov, Marcos             United States 19130 Pennsylvania,             Philadelphia, Olive Street               2425 (72) Inventor Hana, Keith James             United States 08542 New Jersey             ー, Princeton, John Street             212 (72) Inventor Mandelbaum, Robert             United States 19102 Pennsylvania,             Philadelphia, Locust Street             G 1500, apartment number 3414 (72) Inventor Mishra, Deepam             United States 08536 New Jersey             ー, Plainsborough, Fox Run             Drive 102

Claims (1)

【特許請求の範囲】 1. 虹彩のイメージを取得するための装置であって、 被写体の眼の空間位置を決定するための手段にして、該手段の視野範囲内の任 意の位置での前記空間位置を決定するための手段と、 眼のイメージを撮影するべく位置決めされた少なくとも1台のカメラにして、 撮影したイメージが、虹彩照合及び識別のために使用するべき十分な解像度及び 焦点品質を有する虹彩の表示を含むように調節し得る光学系を有するカメラと、 虹彩を照明するために位置決めされ、選択的に発光し且つ同時に発光し得る複 数の発光要素からなる少なくとも1つの発光器と、 を含む装置。 2. 少なくとも1つの発光器が、基台に取り付けた少なくとも1つの発光ダイ オード列からなり、該少なくとも1つの発光ダイオード列が、 第1の通路に沿って光を放射する態様で基台に取り付けた第1組の発光ダイオ ードと、 第1の通路とは非平行の第2の通路に沿って光を放射する態様で基台に取り付 けた第2組の発光ダイオードと、 を含んでいる請求の範囲1の装置。 3. 少なくとも1つの発光器が、赤外線光、可視光、近赤外線光、選択帯域で の光周波数、可視光及び赤外線光の両方、の少なくとも1つを放射し得る請求の 範囲1の装置。 4. 可変強度の光を放射し得る少なくとも1つの発光器に接続した電源と、前 記少なくとも1つの発光器に対する出力電力を変化させそれにより、発光器から 放射される光の強度を変化させるために電源に接続したコントローラと、を含ん でいる請求の範囲1の装置。 5. 眼を含むイメージを撮影するために位置決めされた広視野カメラを含んで いる請求の範囲1の装置。 6. 眼の空間位置を決定するための手段が、超音波、レーダー、広域スペクト ルマイクロ波あるいは温度検出器を使用する測距装置である請求の範囲1の装置 。 7. 虹彩のイメージを取得するための方法であって、 カメラの視野範囲内に、イメージ化するべき虹彩を含む眼の3次元座標位置を 位置付けること、 カメラを、虹彩からの少なくとも幾つかの反射光がカメラに反射されるように 位置決めし、カメラが、虹彩のイメージが虹彩識別のために使用するべき十分な 解像度及び焦点品質のものとなるように調節し得る光学系を有するようにし、 眼を少なくとも1つの照明器を使用して照明し、虹彩からの反射光がカメラの 軸線に沿ってカメラに入り、前記少なくとも1つの照明器からの光が、カメラの 軸線と交叉する少なくとも1つの通路に沿って移動し、前記少なくとも1つの照 明器が、選択的に発光し得る複数の発光要素からなるようにし、 照明中にカメラを使用して虹彩の少なくとも1つのイメージを創出し、創出さ れたイメージが虹彩照合及び識別のために使用するべき十分な解像度を有するも のとすることを含んでいる方法。 8. 複数の発光要素の選択された各1つがシーケンス的に発光され、前記シー ケンス的な発光中にカメラが第1のイメージ及び第2のイメージを創出し、該創 出した第1及び第2の各イメージが十分な解像度を有するイメージを創出するた めに使用される請求の範囲7の方法。 9. 少なくとも1つの発光器が、各1組が複数の発光要素を含む2組から成り 、該2組の発光器が選択的且つシーケンス的に発光する請求の範囲7の方法。 10. 少なくとも1つの発光器が、赤外線光、可視光、近赤外線光、選択帯域 での光周波数、可視光及び赤外線光の両方、の少なくとも1つを放射し得るよう にしてなる請求の範囲7の方法。 11. イメージが複数のピクセルから成り、該イメージが虹彩の全体及び恐ら くは眼のその他の部分イメージを含み、虹彩の直径が少なくとも200ピクセル から成るようにした請求の範囲7の方法。 12. 眼の三次元座標位置が、 a.眼が位置付けられると考えられる領域の第1のイメージを創出する第1の 広視野カメラを使用すること、 b.眼が位置付けられると考えられる領域の第2のイメージを創出する、前記 第1の広視野カメラからは離間した第2の広視野カメラを使用すること、 c.第1及び第2の各イメージを、眼の三次元座標位置を確立する様式化に結 合すること、 を含む請求の範囲7の方法。[Claims] 1. A device for acquiring an image of an iris,   A means for determining the spatial position of the subject's eye, wherein any means within the field of view of the means is provided. Means for determining the spatial position at a desired position;   At least one camera positioned to capture an image of the eye, The captured image has sufficient resolution and identities to be used for iris matching and identification. A camera having an optical system that can be adjusted to include an indication of an iris having focus quality;   A multi-position that is positioned to illuminate the iris and that can emit light selectively and simultaneously At least one light emitter comprising a number of light emitting elements;   Equipment including. 2. At least one light emitter comprises at least one light emitting die mounted on a base An array of LEDs, wherein the at least one array of light emitting diodes comprises   A first set of light emitting diodes mounted on a base in a manner to emit light along a first path And   Attached to the base in a manner to emit light along a second path that is non-parallel to the first path A second set of light emitting diodes,   The device of claim 1 comprising: 3. At least one light emitter for infrared light, visible light, near infrared light, At least one of an optical frequency, both visible light and infrared light. Range 1 device. 4. A power supply connected to at least one light emitter capable of emitting light of variable intensity; Changing the output power to at least one of the light emitters so that A controller connected to a power supply to vary the intensity of the emitted light. The apparatus of claim 1 wherein 5. Includes a wide-field camera positioned to capture images containing the eye The apparatus of claim 1. 6. Ultrasound, radar, and broad spectrum 2. The apparatus according to claim 1, which is a distance measuring apparatus using a microwave or a temperature detector. . 7. A method for obtaining an image of an iris,   The 3D coordinate position of the eye including the iris to be imaged within the field of view of the camera Positioning,   Adjust the camera so that at least some reflected light from the iris is reflected back to the camera Position and camera is sufficient for the iris image to be used for iris identification Having an optical system that can be adjusted to be of resolution and focus quality,   The eye is illuminated using at least one illuminator and the reflected light from the iris is Entering the camera along an axis, wherein light from the at least one illuminator is Moving along at least one path intersecting the axis, and The lighting device comprises a plurality of light emitting elements that can selectively emit light,   Creating at least one image of the iris using a camera during illumination; Image has sufficient resolution to be used for iris matching and identification A method that includes 8. Selected ones of the plurality of light emitting elements are sequentially illuminated, and the The camera creates a first image and a second image during the canonical light emission, The output first and second images create an image having sufficient resolution. 9. The method of claim 7 used for: 9. At least one light emitter comprises two sets, each set comprising a plurality of light emitting elements. 8. The method of claim 7, wherein said two sets of light emitters emit light selectively and sequentially. 10. At least one light emitter is infrared light, visible light, near infrared light, selected band; To emit at least one of the following: light frequency, both visible and infrared light at 8. The method of claim 7 wherein: 11. An image consists of a plurality of pixels, the image comprising the entire iris and possibly Or other partial image of the eye, with an iris diameter of at least 200 pixels 8. The method of claim 7, wherein the method comprises: 12. The three-dimensional coordinate position of the eye is   a. First creating a first image of the area where the eye is considered to be located Using a wide-field camera,   b. Creating a second image of the area where the eye is believed to be located, Using a second wide-field camera spaced from the first wide-field camera;   c. The first and second images are combined into a stylization to establish the three-dimensional coordinate position of the eye. Merge,   8. The method of claim 7, comprising:
JP51177498A 1996-08-25 1997-08-22 Device for iris acquisition image Pending JP2002514098A (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US70292396A 1996-08-25 1996-08-25
US08/702,923 1996-08-26
PCT/US1997/014873 WO1998008439A1 (en) 1996-08-25 1997-08-22 Apparatus for the iris acquiring images

Publications (1)

Publication Number Publication Date
JP2002514098A true JP2002514098A (en) 2002-05-14

Family

ID=24823180

Family Applications (2)

Application Number Title Priority Date Filing Date
JP51177498A Pending JP2002514098A (en) 1996-08-25 1997-08-22 Device for iris acquisition image
JP2003343663A Pending JP2004073880A (en) 1996-08-25 2003-10-01 Device for collecting mamma fluid specimen of breast disease including cancer

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2003343663A Pending JP2004073880A (en) 1996-08-25 2003-10-01 Device for collecting mamma fluid specimen of breast disease including cancer

Country Status (6)

Country Link
EP (1) EP0959769A1 (en)
JP (2) JP2002514098A (en)
KR (1) KR100342159B1 (en)
AU (1) AU727389B2 (en)
CA (1) CA2264029A1 (en)
WO (1) WO1998008439A1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007515010A (en) * 2003-12-18 2007-06-07 サジェム デファンス セキュリテ Method and apparatus for iris authentication
EP2498204A1 (en) 2011-03-08 2012-09-12 Fujitsu Limited Biometric-information processing device, method of processing biometric information, and computer-readable recording medium storing biometric-information processing program
EP2530620A1 (en) 2011-05-30 2012-12-05 Fujitsu Limited Biometric information process device, biometric information process method, and computer readable medium
WO2013145168A1 (en) 2012-03-28 2013-10-03 富士通株式会社 Biometric authentication device, biometric authentication method, and biometric authentication program
EP2755163A2 (en) 2013-01-15 2014-07-16 Fujitsu Limited Biometric information image-capturing device, biometric authentication apparatus and manufacturing method of biometric information image-capturing device
US9208391B2 (en) 2012-03-28 2015-12-08 Fujitsu Limited Biometric authentication device, biometric authentication method, and computer readable, non-transitory medium
US9858490B2 (en) 2011-12-15 2018-01-02 Fujitsu Limited Vein authentication method, image processing method, and vein authentication device
JP2021530267A (en) * 2018-07-16 2021-11-11 ヴェリリー ライフ サイエンシズ エルエルシー Retinal camera with light baffle and dynamic illuminator to extend eyebox
WO2023032051A1 (en) 2021-08-31 2023-03-09 日本電気株式会社 Illumination control device, illumination control method, recording medium, and imaging system

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6377699B1 (en) 1998-11-25 2002-04-23 Iridian Technologies, Inc. Iris imaging telephone security module and method
US6532298B1 (en) 1998-11-25 2003-03-11 Iridian Technologies, Inc. Portable authentication device and method using iris patterns
US6289113B1 (en) 1998-11-25 2001-09-11 Iridian Technologies, Inc. Handheld iris imaging apparatus and method
GB9907515D0 (en) * 1999-04-01 1999-05-26 Ncr Int Inc Self service terminal
DE50010319D1 (en) 2000-05-16 2005-06-16 Swisscom Mobile Ag BIOMETRIC IDENTIFICATION AND AUTHENTICATION PROCESS
KR100374708B1 (en) * 2001-03-06 2003-03-04 에버미디어 주식회사 Non-contact type human iris recognition method by correction of rotated iris image
KR100447403B1 (en) * 2001-05-12 2004-09-04 엘지전자 주식회사 Focusing angle and distance display in iris recognition system
KR100434370B1 (en) * 2001-05-12 2004-06-04 엘지전자 주식회사 Focusing distance measurement in iris recognition system
JP2002341406A (en) * 2001-05-11 2002-11-27 Matsushita Electric Ind Co Ltd Method and device for imaging object to be authenticated
EP1335329B1 (en) * 2002-02-05 2020-05-27 Panasonic Intellectual Property Management Co., Ltd. Personal authentication method, personal authentication apparatus and image capturing device
KR100924271B1 (en) * 2002-05-20 2009-11-03 신성복 Identification system and method using a iris, and media that can record computer program sources thereof
DE10225943A1 (en) 2002-06-11 2004-01-08 Basf Ag Process for the preparation of esters of polyalcohols
EP1671258A4 (en) * 2003-09-04 2008-03-19 Sarnoff Corp Method and apparatus for performing iris recognition from an image
KR20070068401A (en) * 2004-09-22 2007-06-29 트리패스 이미징, 인코포레이티드 Methods and computer program products for analysis and optimization of marker candidates for cancer prognosis
US7542628B2 (en) 2005-04-11 2009-06-02 Sarnoff Corporation Method and apparatus for providing strobed image capture
US7634114B2 (en) 2006-09-01 2009-12-15 Sarnoff Corporation Method and apparatus for iris biometric systems for use in an entryway
KR100728657B1 (en) 2006-04-27 2007-06-14 서울통신기술 주식회사 Unmanned system and method for controlling entrance and exit using of face recognition with multiple infrared cameras
JP2010535014A (en) * 2007-07-30 2010-11-18 オンコセラピー・サイエンス株式会社 Cancer-related gene LY6K
WO2009102940A1 (en) 2008-02-14 2009-08-20 The International Performance Registry, Llc System and method for animal identification using iris images
WO2010003134A2 (en) 2008-07-03 2010-01-07 Masimo Laboratories, Inc. Protrusion, heat sink, and shielding for improving spectroscopic measurement of blood constituents
US8515509B2 (en) 2008-08-04 2013-08-20 Cercacor Laboratories, Inc. Multi-stream emitter for noninvasive measurement of blood constituents
US20100232654A1 (en) * 2009-03-11 2010-09-16 Harris Corporation Method for reconstructing iris scans through novel inpainting techniques and mosaicing of partial collections
US8306288B2 (en) 2009-08-19 2012-11-06 Harris Corporation Automatic identification of fingerprint inpainting target areas
GB2495323B (en) * 2011-10-07 2018-05-30 Irisguard Inc Improvements for iris recognition systems
GB2495324B (en) 2011-10-07 2018-05-30 Irisguard Inc Security improvements for Iris recognition systems
JP2016533566A (en) 2013-06-18 2016-10-27 デルタ アイディー インコーポレイテッドDelta Id Inc. Iris imaging device and method for configuring an iris imaging device
WO2016049273A1 (en) 2014-09-24 2016-03-31 Sri International Control of wireless communication device capability in a mobile device with a biometric key
WO2016089592A1 (en) 2014-12-03 2016-06-09 Sri Internaitonal System and method for mobile device biometric add-on
EP3403217A4 (en) 2016-01-12 2019-08-21 Princeton Identity, Inc. Systems and methods of biometric analysis
WO2017173228A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Biometric enrollment systems and methods
US10373008B2 (en) 2016-03-31 2019-08-06 Princeton Identity, Inc. Systems and methods of biometric analysis with adaptive trigger
CN106407964B (en) * 2016-11-15 2023-11-07 刘霁中 Device, method and terminal equipment for acquiring iris by using visible light source
US10607096B2 (en) 2017-04-04 2020-03-31 Princeton Identity, Inc. Z-dimension user feedback biometric system
KR20180133076A (en) 2017-06-05 2018-12-13 삼성전자주식회사 Image sensor and electronic apparatus including the same
KR102372809B1 (en) * 2017-07-04 2022-03-15 삼성전자주식회사 Imaging sensor assembly having tilting structure and electronic device including the same
WO2019023032A1 (en) 2017-07-26 2019-01-31 Princeton Identity, Inc. Biometric security systems and methods
EP3474328B1 (en) 2017-10-20 2021-09-29 Samsung Electronics Co., Ltd. Combination sensors and electronic devices
CN109394170B (en) * 2018-10-18 2019-11-26 天目爱视(北京)科技有限公司 A kind of iris information measuring system of no-reflection
US11151399B2 (en) 2019-01-17 2021-10-19 Gentex Corporation Alignment system
DE102019124127A1 (en) * 2019-09-09 2021-03-11 Bundesdruckerei Gmbh DEVICE AND METHOD FOR DETERMINING BIOMETRIC CHARACTERISTICS OF A FACE OF A PERSON
WO2022066816A2 (en) * 2020-09-25 2022-03-31 Sterling Labs Llc Pose optimization in biometric authentication systems
EP4141820A1 (en) * 2021-08-25 2023-03-01 Tools for Humanity Corporation Controlling a two-dimensional mirror gimbal for purposes of iris scanning
CN118076985A (en) * 2021-10-13 2024-05-24 指纹卡安娜卡敦知识产权有限公司 Methods and systems configured to reduce the impact of impairment data in captured iris images
US20230300470A1 (en) * 2022-02-03 2023-09-21 Facebook Technologies, Llc Techniques for producing glints and iris illumination for eye tracking

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4641349A (en) 1985-02-20 1987-02-03 Leonard Flom Iris recognition system
DE3777222D1 (en) * 1986-04-04 1992-04-16 Applied Science Group Inc METHOD AND DEVICE FOR DEVELOPING THE PRESENTATION OF THE VISION DISTRIBUTION WHEN PEOPLE WATCHING TELEVISION ADVERTISING.
IT1226526B (en) * 1988-08-05 1991-01-24 Mario Angi PARTICULARMEWN INFRARED LIGHT VIDEOFRACTOMETER FOR APPLICATIONS IN PEDIATRIC OPHTHALMOLOGY
US5291560A (en) 1991-07-15 1994-03-01 Iri Scan Incorporated Biometric personal identification system based on iris analysis
US5572596A (en) * 1994-09-02 1996-11-05 David Sarnoff Research Center, Inc. Automated, non-invasive iris recognition system and method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007515010A (en) * 2003-12-18 2007-06-07 サジェム デファンス セキュリテ Method and apparatus for iris authentication
EP2498204A1 (en) 2011-03-08 2012-09-12 Fujitsu Limited Biometric-information processing device, method of processing biometric information, and computer-readable recording medium storing biometric-information processing program
US8787624B2 (en) 2011-03-08 2014-07-22 Fujitsu Limited Biometric-information processing device, method of processing biometric information, and computer-readable recording medium storing biometric-information processing program
US9412014B2 (en) 2011-05-30 2016-08-09 Fujitsu Limited Biometric information process device, biometric information process method, and computer readable medium
EP2530620A1 (en) 2011-05-30 2012-12-05 Fujitsu Limited Biometric information process device, biometric information process method, and computer readable medium
US9858490B2 (en) 2011-12-15 2018-01-02 Fujitsu Limited Vein authentication method, image processing method, and vein authentication device
WO2013145168A1 (en) 2012-03-28 2013-10-03 富士通株式会社 Biometric authentication device, biometric authentication method, and biometric authentication program
US9336426B2 (en) 2012-03-28 2016-05-10 Fujitsu Limited Biometric authentication device, biometric authentication method, and computer readable, non-transitory medium
US9208391B2 (en) 2012-03-28 2015-12-08 Fujitsu Limited Biometric authentication device, biometric authentication method, and computer readable, non-transitory medium
US9336427B2 (en) 2013-01-15 2016-05-10 Fujitsu Limited Biometric information image-capturing device, biometric authentication apparatus and manufacturing method of biometric information image-capturing device
EP2755163A2 (en) 2013-01-15 2014-07-16 Fujitsu Limited Biometric information image-capturing device, biometric authentication apparatus and manufacturing method of biometric information image-capturing device
JP2021530267A (en) * 2018-07-16 2021-11-11 ヴェリリー ライフ サイエンシズ エルエルシー Retinal camera with light baffle and dynamic illuminator to extend eyebox
JP7177860B2 (en) 2018-07-16 2022-11-24 ヴェリリー ライフ サイエンシズ エルエルシー Retinal camera with light baffle and dynamic illuminator for extending eyebox
WO2023032051A1 (en) 2021-08-31 2023-03-09 日本電気株式会社 Illumination control device, illumination control method, recording medium, and imaging system

Also Published As

Publication number Publication date
AU727389B2 (en) 2000-12-14
JP2004073880A (en) 2004-03-11
KR100342159B1 (en) 2002-06-27
WO1998008439A1 (en) 1998-03-05
KR20000035840A (en) 2000-06-26
AU4328297A (en) 1998-03-19
EP0959769A1 (en) 1999-12-01
CA2264029A1 (en) 1998-03-05

Similar Documents

Publication Publication Date Title
JP2002514098A (en) Device for iris acquisition image
US8577093B2 (en) Long distance multimodal biometric system and method
US8983146B2 (en) Multimodal ocular biometric system
US8170293B2 (en) Multimodal ocular biometric system and methods
US6320610B1 (en) Compact imaging device incorporating rotatably mounted cameras
Wheeler et al. Stand-off iris recognition system
US20080069411A1 (en) Long distance multimodal biometric system and method
US20050084137A1 (en) System and method for iris identification using stereoscopic face recognition
JP2007527270A (en) Biological face recognition system
JP2003030659A (en) Iris authentication device and iris image pickup device
JP2011115606A (en) Method and device for detecting and tracking eye and its gaze direction
JP2008523475A (en) Iris imaging using reflection from eyes
JP2002352235A (en) Apparatus and method for adjusting focus position in iris recognition system
KR100587422B1 (en) Apparatus and Method for Iris Recognition from all direction of view
EP2198391A1 (en) Long distance multimodal biometric system and method
JP3119558B2 (en) Method and apparatus for capturing face image data and system
US11882354B2 (en) System for acquisiting iris image for enlarging iris acquisition range
JP2006318374A (en) Glasses determination device, authentication device, and glasses determination method
JP3342810B2 (en) Iris image acquisition device
KR20210101928A (en) System for acquisiting iris image for enlarging iris acquisition range
KR20030065639A (en) The iris image acquisition device for both manual and fixed usage