JP2001212112A - System and method for recognizing and identifying subject under a series of changes controlled by the subject to biometrics, and record medium - Google Patents

System and method for recognizing and identifying subject under a series of changes controlled by the subject to biometrics, and record medium

Info

Publication number
JP2001212112A
JP2001212112A JP2000367391A JP2000367391A JP2001212112A JP 2001212112 A JP2001212112 A JP 2001212112A JP 2000367391 A JP2000367391 A JP 2000367391A JP 2000367391 A JP2000367391 A JP 2000367391A JP 2001212112 A JP2001212112 A JP 2001212112A
Authority
JP
Japan
Prior art keywords
biometrics
change
controlled
biometric
fingerprint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000367391A
Other languages
Japanese (ja)
Inventor
Rudolf Maarten Bolle
ルドルフ・マーテン・ボール
Chitra Dorai
シトラ・ドーレイ
Nalini K Ratha
ナーリニ・ケイ・ラーサ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JP2001212112A publication Critical patent/JP2001212112A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/30Writer recognition; Reading and verifying signatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a system and method for recognizing and identifying a subject under a series of changes controlled by the subject to biometrics and a record medium. SOLUTION: This invention defines new biometrics called as resultant biometrics. The resultant biometrics are a combination of the conventional biometrics and a change specifically controlled. In other words, signals of the resultant biometrics are arranged as a sequence of a short-interval biometrics signal and altered according to a specified pattern. A finger print or a palm print thus obtained is turned to a continuous pressing image, for example, by letting a subject apply a torque or a rotation or both thereof for an image gaining time length (a controlled change). A physical method of letting the subject deform the image makes an action apart of the resultant biometrics and the finger print of the palm print a physiological part of the resultant biometrics.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、バイオメトリック
スの分野、すなわち対象物の同定に多かれ少なかれ固有
に関連する対象者の生理的または行動的特徴付けに関す
る。より詳細には、本発明は、従来のバイオメトリック
スに対して、コントロールされた変化のシリーズにより
形成される新規なタイプのバイオメトリックスに関す
る。
FIELD OF THE INVENTION The present invention relates to the field of biometrics, that is, the physiological or behavioral characterization of a subject that is more or less uniquely associated with the identification of the subject. More particularly, the present invention relates to a novel type of biometrics formed by a controlled series of changes over conventional biometrics.

【0002】本願は、1999年12月2日に出願され
た仮出願、出願番号第60/168,540号(IBM
ドケット番号第YO999−588)の優先権主張を伴
う出願である。
[0002] The present application is a provisional application filed on December 2, 1999, application number 60 / 168,540 (IBM).
Docket No. YO999-588).

【0003】[0003]

【従来の技術】指紋は、少なくとも50年間にわたり、
法律的強制力を付与する目的で半自動的に個人を同定す
るために使用され、かつビルディングへのアクセスやコ
ンピュータへのログインといったアクセスを制御するた
めの自動認証の用途において、数10年間にわたり使用
されてきた。個人同定を自動的に認証するための署名認
識は、主に銀行における用途のため、少なくとも15年
間にわたり使用されてきている。自動指紋同定システ
ム、または自動署名同定システムにおける第1の段階
は、対象物の指紋または署名を取得する信号取得段階で
ある。指紋を取得するためのいくつかの技術としては、
インクによる指紋またはインクを使用しない指紋を、光
学的、容量的、および他の半導体に基づく検出技術を使
用して走査することを挙げることができる。取得された
信号は、処理され、指紋の機械的な表現である記憶され
たテンプレートに対してマッチングが行われる。イメー
ジ・プロセッシング技術は、典型的には指紋の突部およ
び谷部とを位置合わせして、指紋イメージの突パターン
と、谷パターンとからテンプレートを導出する。
BACKGROUND OF THE INVENTION Fingerprints have been used for at least 50 years.
Used for decades in semi-automatic identification of individuals for the purpose of imparting legal enforcement and in automatic authentication applications to control access such as building access and computer login. Have been. Signature recognition for automatically authenticating personal identification has been used for at least 15 years, mainly for banking applications. The first stage in an automatic fingerprint identification system or an automatic signature identification system is a signal acquisition stage for acquiring a fingerprint or signature of an object. Some techniques for obtaining fingerprints include:
Scanning ink-based or ink-free fingerprints using optical, capacitive, and other semiconductor-based detection techniques can be mentioned. The acquired signal is processed and matched against a stored template that is a mechanical representation of the fingerprint. Image processing techniques typically align the projections and valleys of a fingerprint and derive a template from the saliency and valley patterns of the fingerprint image.

【0004】署名は、他方では、感圧性のライティング
・パッド、または電気−磁気的な筆記記録デバイスを使
用して検出される。より進歩したシステムにおいては、
ペンの速度と、加速度とを算出する特殊なペンを使用す
る。記録された信号は、静的な署名認識の場合には単純
な(x,y)座標のリストとすることができるか、また
は動的な署名認識においては座標は、(x(t),y
(t))といった時間の関数とすることができる。署名
を表すテンプレートは、指紋のテンプレートよりも、よ
り直接的に取得された信号に関連する。例えば、署名の
表現としては複数の端部の間においてそれぞれのストロ
ークにつき加速度がコード化されたストロークのセット
として表現できる。署名認証の例としては、V.S.N
alwa、“オン−ライン自動署名証明”、プロシーデ
ィングス・オブ・IEEE、第215頁〜239頁、1
997年2月を挙げることができる。
[0004] Signatures, on the other hand, are detected using a pressure-sensitive writing pad, or an electro-magnetic writing device. In more advanced systems,
Use a special pen to calculate pen speed and acceleration. The recorded signal can be a list of simple (x, y) coordinates for static signature recognition, or the coordinates can be (x (t), y
(T)). The template representing the signature is more directly related to the acquired signal than the fingerprint template. For example, a signature can be represented as a set of strokes in which acceleration is coded for each stroke between a plurality of ends. Examples of signature authentication include: S. N
alwa, "On-line automatic signature certification", Proceedings of IEEE, pp. 215-239, 1
February 997 can be mentioned.

【0005】指紋、署名、顔、声といったバイオメトリ
ックスは、最近では例えば医療書類へのアクセス、AT
Mへのアクセス、インターネット・サービスへのアクセ
ス、および他の類似のアプリケーションなど、ユーザの
同定を認証するためにますます使用されてきている。
[0005] Biometrics such as fingerprints, signatures, faces and voices have recently been used, for example, for access to medical
Access to M, access to Internet services, and other similar applications are increasingly being used to authenticate user identities.

【0006】インターネットの急速な進歩に伴い、多く
のe−コマースおよびe−ビジネス・アプリケーション
が開発され、使用されている。例えば、インターネット
によるクレジット・カードを用いた小売り購買、旅行予
約は、きわめて普通の商業的応用例である。今日におい
ては、同定および認証それぞれのため、ユーザは、ユー
ザIDおよびパスワードにより認識されている。指紋、
署名、声紋、虹彩イメージ、顔イメージといったバイオ
メトリックス(生物的測定指標)を含む、認証、および
可能であれば同定のためのより確実な方法が、同定のた
めの上述した単純な方法に代えられるのは、きわめて間
近なことであろう。自動化されたバイオメトリックス・
システムは、多かれ少なかれユーザを固有に同定する当
該ユーザからの信号を取得することを含んでいる。例え
ば、指紋に基づく認証のためには、ユーザの指紋が走査
され、いくつかの表現が計算および記憶される必要があ
る。認証は、その後ユーザの新たに取得された指紋イメ
ージから抽出された表現と、登録の時点で記憶されたイ
メージから抽出された記憶された表現とを比較すること
により行われる。話者証明システムでは、ユーザの話声
信号が記録され、いくつかの表現が計算され、記録され
る。認証は、アクセスまたはログオンの時点で記録され
た話声信号と、記録された表現とを比較することにより
行われる。同様に、署名証明については、テンプレート
は、ディジタル化された署名から抽出され、あらかじめ
算出しておいたテンプレートと比較される。
[0006] With the rapid progress of the Internet, many e-commerce and e-business applications have been developed and used. For example, retail purchases and travel reservations using credit cards over the Internet are very common commercial applications. Today, for identification and authentication, respectively, a user is identified by a user ID and password. fingerprint,
More robust methods for authentication and possibly identification, including biometrics such as signatures, voiceprints, iris images, and facial images, replace the simple methods described above for identification. That will be very close. Automated biometrics
The system includes obtaining a signal from the user that more or less uniquely identifies the user. For example, for fingerprint-based authentication, the user's fingerprint is scanned and some representations need to be calculated and stored. Authentication is then performed by comparing the expression extracted from the user's newly acquired fingerprint image with the stored expression extracted from the image stored at the time of registration. In a speaker verification system, a user's speech signal is recorded, and several expressions are calculated and recorded. Authentication is performed by comparing the recorded speech signal at the time of access or logon with the recorded representation. Similarly, for a signature certificate, the template is extracted from the digitized signature and compared with a pre-calculated template.

【0007】バイオメトリックスは、広く2つのグルー
プに区別される:行動的バイオメトリックスおよび生理
的バイオメトリックスである。生理的バイオメトリック
スは、指紋、虹彩などのように時間に対して比較的一定
のバイオメトリックスである。行動的バイオメトリック
スは、他方で時間に対してゆっくり変化するか、または
より短時間で突然に変化する可能性がある。これらのバ
イオメトリックスとしては例えば、署名、声、顔を挙げ
ることができる(顔は、基本的な特徴が容易に変わらな
いので生理的バイオメトリックスと多くの場合には考え
られるが、老化、調髪、あごひげの伸び、表情は、顔の
全体としての表現を変化させるためである。)。本発明
の分野は、生理的バイオメトリックスおよび行動的バイ
オメトリックスに関し、より詳細には、本発明は、バイ
オメトリックスの新規な型として用いることができ、ユ
ーザによりコントロールされた変化のシリーズである行
動的変化といった、生理的または行動的バイオメトリッ
クスに関する。
[0007] Biometrics are broadly divided into two groups: behavioral biometrics and physiological biometrics. Physiological biometrics are relatively constant biometrics over time, such as fingerprints, irises, and the like. Behavioral biometrics, on the other hand, can change slowly over time or suddenly in a shorter time. These biometrics can include, for example, signatures, voices, and faces. (Faces are often considered physiological biometrics because their basic characteristics do not change easily, but aging, hair conditioning, The growth of the beard and facial expressions are to change the expression of the face as a whole.) The field of the invention relates to physiological and behavioral biometrics, and more particularly, the present invention can be used as a novel type of biometrics, a series of user controlled behavioral changes It relates to physiological or behavioral biometrics, such as changes.

【0008】インターネットに基づくコマース/ビジネ
ス・ソリューションは、ユーザの家といった、遠隔した
管理されていない位置からアクセス可能である。このた
め、バイオメトリックス信号は、スーパーバイズされな
い遠隔的なユーザから取得される必要がある。このた
め、指紋または掌紋リーダ、署名ディジタイザまたは顔
または虹彩を取得するためのカメラが、ユーザの家にあ
るコンピュータに取付けられる。このことは、当然のこ
とながら不正、かつ認証されないシステム・アクセスの
可能性を与えてしまう。悪意を持つ個人、または機関
は、インターセプトすることによって、真のユーザから
ネットワークを通してバイオメトリックス信号を得る
か、またはユーザが自己のバイオメトリックスを使用し
ているアプリケーションから当該信号を得ることことが
可能となる。記録された信号は、その後インターネット
・サービスの登録された真正のユーザとして振る舞うこ
とで、未知で不正な目的で再利用されることになる。最
も簡単なその方法は、信号を一度取得して何度か再利用
することである。以前に取得されたその信号には僅かな
攪乱を加えることができ、“フレッシュ”に見えるバイ
オメトリックス信号が生成される。完全な指紋または掌
紋が侵入者に知られている場合には、より高度な方法
は、例えばシリコンまたはラテックスといった材料か
ら、人工的な(偽の)指または掌の3次元コピーを製造
することである。真正なユーザの指紋または掌紋イメー
ジがその後、多くの労力を要せずして詐称者により製造
されることになる。トランザクション・サーバ、認証サ
ーバ、または他のコンピューティング・デバイスは、か
くしてクライアントから通信されたバイオメトリックス
信号が、その時点の生の信号であるか、以前に取得され
たのではない作られたまたは入手された信号であること
を保証する役割を担うことになる。人工的な身体部分を
使用すれば、これらの身体部分を製造するために正規な
材料が用いられている場合には、多くの指紋および掌紋
リーダは、門外漢に対してはきわめて正当なものと認め
られるイメージを与える。これらのイメージは、多くの
場合にはまた、認証システムの構成部分である処理部に
対しては真性なものと見なされる。したがって、静的な
指紋または掌紋イメージが真性な指または掌により与え
られたものであるか、または偽のコピーにより与えられ
たものであるかを判断することは、きわめて困難であ
る。別の生理的バイオメトリックスには、同様の制限が
あり、真性ユーザの虹彩が撮影され、認証されていない
アクセスのために用いられることになる。良好な虹彩認
識システムは、虹彩直径の早い振動を検出するが、この
現象でも虹彩イメージのシーケンスによりまねることが
できる。同様の方法は、当然のことながら顔バイオメト
リックスについても用いることができる。
[0008] Commerce / business solutions based on the Internet are accessible from remote, unmanaged locations, such as a user's home. For this reason, the biometric signal needs to be obtained from a remote user who is not supervised. For this purpose, a fingerprint or palm print reader, a signature digitizer or a camera for obtaining a face or iris is attached to a computer at the user's home. This, of course, gives the possibility of unauthorized and unauthorized system access. By intercepting, a malicious individual or institution can obtain a biometric signal from the true user through the network or obtain the signal from an application in which the user is using his or her own biometrics. Become. The recorded signal will then be reused for unknown and unauthorized purposes by acting as a registered genuine user of the Internet service. The simplest way is to acquire the signal once and reuse it several times. The signal previously acquired can be slightly disturbed, producing a biometric signal that looks "fresh". If a perfect fingerprint or palm print is known to the intruder, a more advanced method is to produce a three-dimensional copy of the artificial (fake) finger or palm from a material such as silicon or latex. is there. The genuine user's fingerprint or palm print image would then be produced by the impostor without much effort. The transaction server, authentication server, or other computing device may be configured or obtained such that the biometrics signal communicated from the client is either a raw signal at the time or not previously acquired. It will play a role of guaranteeing that the signal is obtained. With the use of artificial body parts, many fingerprints and palm print readers are considered very legitimate to outsiders if the proper materials are used to manufacture these body parts. Give the image to be. These images are often also considered authentic to the processing components that are part of the authentication system. Thus, it is extremely difficult to determine whether a static fingerprint or palm print image was provided by an authentic finger or palm, or by a fake copy. Another physiological biometric has similar limitations, in which the iris of the true user will be imaged and used for unauthorized access. Good iris recognition systems detect fast oscillations of the iris diameter, but this phenomenon can also be mimicked by a sequence of iris images. A similar method can, of course, be used for facial biometrics.

【0009】[0009]

【発明が解決しようとする課題】指紋、およびこれより
は少ない程度に掌紋は、医療書類へのアクセス、ATM
アクセス、および他の類似のアプリケーションに対し
て、ユーザの同定を認証するためにますます用いられて
きている。従来の同定方法における問題点は、3次元の
偽の指紋または掌紋を製造することが可能なことにあ
る。シリコーン、ラテックス、ウレタン、および他の材
料がこれらの人工的な身体部分を製造するために使用す
ることができ、ほとんどのイメージ取得デバイスは、真
性の押印と区別することが困難な人工的な身体部分の突
部の、真正と見なされる押印を簡単に与えてしまう。こ
の原因は、与えられた指紋押印または掌紋押印が、或る
瞬間における像の静止描画であることにある。指紋は、
時間に依存するものではない。同様の問題は、顔および
虹彩のようなバイオメトリックスについても存在する。
この場合における問題は、2次元または3次元の偽のコ
ピーが製造され、バイオメトリックス・セキュリティ・
システムを欺くために使用されるということであり、こ
の理由は、バイオメトリックスが時間に依存しないこと
にある。
Fingerprints and, to a lesser extent, palm prints, access to medical documents, ATM
Access, and other similar applications, are increasingly being used to authenticate user identities. The problem with the conventional identification method is that a three-dimensional fake fingerprint or palm print can be produced. Silicone, latex, urethane, and other materials can be used to manufacture these artificial body parts, and most image acquisition devices are difficult to distinguish from artificial stamps It easily gives a stamp that is considered authentic on the protruding part. The cause is that the given fingerprint or palm print is a static drawing of the image at a certain moment. The fingerprint is
It is not time dependent. Similar problems exist for biometrics such as faces and irises.
The problem in this case is that fake copies of two or three dimensions are produced and biometrics security
It is used to deceive the system, because the biometrics are not time dependent.

【0010】従来技術における別の問題は、バイオメト
リックス信号の取得中に、単一の静止した指紋または掌
紋のみが収集されることにある。この瞬間的なイメージ
は、ユーザがイメージ取得デバイス(指紋リーダまたは
掌紋リーダ)に対して、指で力やトルクを加えるので、
指または掌の突部および谷部の変形した描画となること
もある。問題は、1つ以上のイメージを収集する、すな
わちセンサの機構を変更することなしにはイメージが変
形なく取得されたか否かを検出できないことにある。こ
れに加えて、従来技術には、個人の同定のために使用で
きるイメージは、ただ1つしか選択できないという問題
がある。当然ながら、顔および虹彩といった非接触のバ
イオメトリックスについても、バイオメトリックス・パ
ターンの変形は、検出できないか、または検出するのが
きわめて困難である。
[0010] Another problem in the prior art is that during acquisition of the biometric signal, only a single stationary fingerprint or palm print is collected. This instantaneous image is created by the user applying force or torque to the image acquisition device (fingerprint or palmprint reader) with his or her finger,
The projections and valleys of the fingers or palm may be deformed. The problem is that one or more images are collected, ie, it is not possible to detect whether the images were acquired without deformation without changing the mechanism of the sensor. In addition, the prior art has the problem that only one image can be selected for use in identifying an individual. Of course, for non-contact biometrics such as the face and iris, deformation of the biometric pattern is either undetectable or very difficult to detect.

【0011】従来技術を記載した文献として、以下のよ
うなものがある。 ・アーレン・プおよびデメトリ・プサルティス、 「指紋の連続入力によるユーザ同定」、 ・米国特許第5,933,515号 米国特許第5,933,515号におけるプおよびプサ
ルティスにより開示された方法は、ユーザが記憶すると
共にユーザのみが知るシーケンスで多数の指を使用する
ものである。指に、例えば左から右へと0から9まで準
番づけをしていれば、シーケンスは、PIN以外の何者
でもない。上述したシーケンスに指紋イメージを加えた
ものを、一つのバイオメトリックスとして考えるのであ
れば、シーケンスは変更でき、バイオメトリックスの非
静止部分となる。しかしながら、この技術は、既存のバ
イオメトリックスに対してコントロールされた変化のシ
リーズではなく、それぞれの指のパターンは変わらず、
シーケンスのパターンが変わるものである。問題は、指
紋エントリはより遅いプロセスなので、PINエントリ
を見るよりもより容易に誰でも指紋のシーケンスを見る
可能性があることにある。さらには、比較のため、対象
者のそれぞれの指紋を記憶しておくことが必要とされ
る。
The following documents describe the prior art. Aalen Pu and Demetry Psaltis, "User identification by continuous fingerprint input", US Patent No. 5,933,515 The method disclosed by Pu and Psaltis in US Patent No. 5,933,515 Are used and a large number of fingers are used in a sequence known only to the user. If the fingers are numbered from 0 to 9 from left to right, for example, the sequence is nothing but a PIN. If one considers the sequence described above plus a fingerprint image as one biometric, the sequence can be modified and becomes a non-stationary part of the biometric. However, this technique is not a series of controlled changes to existing biometrics, and the pattern of each finger remains the same,
The sequence pattern changes. The problem is that because fingerprint entry is a slower process, anyone can see the sequence of fingerprints more easily than looking at PIN entries. Furthermore, it is necessary to store each fingerprint of the subject for comparison.

【0012】従来技術の他の問題点は、バイオメトリッ
クス信号の認証性を確証するために、センサ(指紋リー
ダまたは掌紋リーダ、表情カメラ)には、身体部分認証
のため、またはセンサ認証のため、コンピュテーション
・リソースを組込む必要があることにある。身体部分認
証は、共通して心拍および体温測定により行われる。セ
ンサ認証は、問い合わせと応答という、質疑セッション
の形態として、センサと認証サーバの間における2方向
通信により行われる。
Another problem with the prior art is that sensors (fingerprint or palmprint readers, facial expression cameras) are required to verify the authenticity of the biometric signal, for body part authentication or for sensor authentication. The need to incorporate computational resources. Body part authentication is commonly performed by heart rate and body temperature measurements. The sensor authentication is performed by two-way communication between the sensor and the authentication server in the form of a question and answer session.

【0013】従来の掌紋および指紋において大きな問題
となりうるのは、ユーザが何らかの理由により指紋、ま
たは掌紋を失ったり、または失った方の手に像のテンプ
レート表現がある場合に、像を代えることができないた
め、像は、いつまでも不確実なものとされることにあ
る。このために別の指の像を使用することができるもの
の、数回程度行うことができるに過ぎないものである。
One major problem with conventional palm prints and fingerprints is that if the user loses the fingerprint or palm print for any reason, or if the lost hand has a template representation of the image, replacing the image is not an option. The inability to do so results in the image being permanently uncertain. For this purpose, another finger image can be used, but only a few times.

【0014】静止した指紋を使用する従来のシステムの
問題点は、指紋と共に用いることができ、その識別能力
に付加して使用することができる情報がないことにあ
る。すなわち、見かけ上近い指紋を有する個人は、指紋
が静的で、付加的な情報をこれらの像を区別するために
利用できないことから、混同されてしまうことになる。
A problem with conventional systems that use stationary fingerprints is that there is no information that can be used with the fingerprint and that can be used in addition to its discriminating ability. That is, individuals with apparently close fingerprints will be confused because the fingerprints are static and no additional information is available to distinguish these images.

【0015】従来の指紋データベースは、まず指紋タイ
プ(蹄状紋、渦紋、...など)をフィルタリングする
ことにより検索を行う。この従来技術の問題は、指紋イ
メージは、時間的に静的なスナップショットであり、指
紋には付加情報が何も伴われないので、指紋クラスがわ
ずかしか存在しないことにある。
In the conventional fingerprint database, a search is performed by first filtering the fingerprint type (hoofprint, vortex,...). The problem with this prior art is that the fingerprint image is a temporally static snapshot and there is only a small number of fingerprint classes, since no additional information accompanies the fingerprint.

【0016】いずれの従来技術であってもバイオメトリ
ックスには、他のバイオメトリックスと後退比較が行わ
れないという最終的な問題がある。つまり、認証のため
の顔の使用は、指紋データベースとは後退比較されるこ
とはない。
The final problem with any prior art biometric is that no backward comparison is made with other biometrics. In other words, the use of the face for authentication is not compared backwards with the fingerprint database.

【0017】本発明の目的は、既存のバイオメトリック
スのコントロールされた変化のシリーズを通して対象者
により与えられる新規なタイプのバイオメトリックスに
ある。
It is an object of the present invention to provide a novel type of biometrics provided by a subject through a series of controlled changes in existing biometrics.

【0018】本発明の別の目的は、生理的および一時的
な特性の双方を有するユーザ・コントロールされた変化
のシリーズを通して変更されるバイオメトリックスにあ
る。
Another object of the present invention is a biometric that is modified through a series of user-controlled changes having both physiological and temporal properties.

【0019】本発明の別の目的は、生理的、物理的(例
えば、力、トルク、直線運動、回転)、または一時的な
特性およびこれら双方を含むユーザ・コントロールされ
た変化のシリーズを通して変更されるバイオメトリック
スにある。
Another object of the present invention is that it is modified through a series of user controlled changes that include physiological, physical (eg, force, torque, linear motion, rotation), or temporal properties and both. Biometrics.

【0020】本発明の目的は、信頼性の低下したバイオ
メトリックスを変更する効率的な方法にある。
It is an object of the present invention to provide an efficient method for modifying unreliable biometrics.

【0021】本発明の目的は、従来のバイオメトリック
スに、ユーザが選択する行動的なバイオメトリックスを
結合させたユーザがコントロールする変化のシリーズを
通して変更されるバイオメトリックスにある。
[0021] It is an object of the present invention to provide a biometric that is modified through a series of user controlled changes that combine a user selected behavioral biometric with a conventional biometric.

【0022】本発明のさらなる目的は、偽造された身体
部分により与えることがより困難なバイオメトリックス
にある。
A further object of the present invention is a biometric that is more difficult to provide with a forged body part.

【0023】[0023]

【課題を解決するための手段】本発明は、上述した、ま
たは他の目的を、結果バイオメトリックスと呼ぶ、ユー
ザがコントロールした変化を通して変更されるバイオメ
トリックスの新規なクラスを採用することにより達成す
るものである。バイオメトリックスとは、個人に付随す
る多かれ少なかれ固有の特性をいう。バイオメトリック
スとしては、生理的バイオメトリックスと、行動的バイ
オメトリックスとがある。生理的バイオメトリックスに
は、時間と共に変化しないか、またはきわめて僅かに変
化する特性であるが、行動的バイオメトリックスは、個
人の雰囲気、メンタルまたは物理的状態に依存するので
時間と共に変化し、かつ突然に変化する場合もある特性
である。生理的バイオメトリックスの例としては、指
紋、虹彩、顔を挙げることができ、行動的バイオメトリ
ックスの例としては、声および署名を挙げることができ
る。
SUMMARY OF THE INVENTION The present invention achieves the above or other objects by employing a novel class of biometrics that is modified through user-controlled changes, called result biometrics. Things. Biometrics refers to more or less unique properties associated with an individual. The biometrics include physiological biometrics and behavioral biometrics. Physiological biometrics are properties that do not change or change very slightly over time, while behavioral biometrics change over time because they depend on an individual's atmosphere, mental or physical state, and suddenly change. This is a characteristic that may change to Examples of physiological biometrics include fingerprints, irises, and faces, and examples of behavioral biometrics include voices and signatures.

【0024】本発明において導入されるバイオメトリッ
クスは、行動的バイオメトリックスまたは物理的要素ま
たはこれら双方を使用して、生理的または行動的なバイ
オメトリックスの見かけを変更(時間に対する変化をコ
ントロールすることによる)することにより、対象者に
より与えられる生理的または行動的バイオメトリックス
信号の結合とされる。好適な態様においては、得られる
指紋および掌紋は、像の走査に伴って像の見かけを力、
トルク、回転を変化させることにより変えられる。この
ことにより、指紋または掌紋像イメージが指または掌、
すなわちこれらの像の押印が、連続的、かつ、力、トル
ク、回転、すなわち物理的要素、または行動的バイオメ
トリックス(例えば、署名またはジェスチャー)、また
はこれら双方にしたがって弾性的に変形されたシーケン
スとされる。
The biometrics introduced in the present invention may use behavioral biometrics or physical elements or both to alter the appearance of physiological or behavioral biometrics (by controlling changes over time). ) Results in a combination of physiological or behavioral biometric signals provided by the subject. In a preferred embodiment, the resulting fingerprints and palm prints force the appearance of the image as the image is scanned,
It can be changed by changing the torque and rotation. This allows the fingerprint or palm print image to be
That is, the imprints of these images are continuous and elastically deformed according to forces, torques, rotations, or physical elements, or behavioral biometrics (eg, signatures or gestures), or both, and Is done.

【0025】[0025]

【発明の実施の形態】本発明は、結果バイオメトリック
スと呼ぶ新規なバイオメトリックスを導入するものであ
る。結果バイオメトリックスとは、生理的または行動的
なバイオメトリックスを所定の時間間隔にわたって変換
する方法である、所定のサンプル・レートで記録した第
1のバイオメトリックス信号に第2の行動的バイオメト
リックスを加えて結果として得られる、生理的または行
動的なバイオメトリックス信号の連続したシーケンスを
いう。この変換は、第1のバイオメトリックスに対し
て、ユーザ・コントロールされた変化のシリーズとして
得られるものである。
DETAILED DESCRIPTION OF THE INVENTION The present invention introduces a new biometric called result biometric. Resulting biometrics is a method of converting physiological or behavioral biometrics over a predetermined time interval, adding a second behavioral biometric to a first biometric signal recorded at a predetermined sample rate. Resulting in a continuous sequence of physiological or behavioral biometric signals. This transformation is obtained as a series of user controlled changes to the first biometric.

【0026】従来の指紋といったバイオメトリックス
は、数10年間にわたり(自動的)認証および同定の目
的で使用されてきている。署名は、同一性の法律的拘束
力を有する証拠として認識されており、自動署名認証/
証明方法は、少なくとも20年にわたり利用可能とされ
ている。図1は、これらのバイオメトリックスを例示し
た図である。左上には、署名110が示され、右上には
指紋押印130が示されている。左下には声(声紋)が
示されており、右下は虹彩パターンである。
Biometrics, such as conventional fingerprints, have been used for (automatic) authentication and identification for decades. The signature is recognized as legally binding proof of identity and automatic signature verification /
The certification method has been available for at least 20 years. FIG. 1 is a diagram illustrating these biometrics. The signature 110 is shown at the upper left, and the fingerprint imprint 130 is shown at the upper right. The voice (voiceprint) is shown in the lower left, and the iris pattern is shown in the lower right.

【0027】バイオメトリックスは、対象者(人間)の
自動化認証または同定のために用いることができる。典
型的には対象者は、銀行口座を開設する、インターネッ
ト・サービスに登録をするなどの際に、サンプル・バイ
オメトリックスを提供することにより記憶されている。
このサンプル・バイオメトリックスから、ユーザが口座
またはサービスにアクセスを希望する時点におけるマッ
チング目的のため記憶され、かつ使用されるテンプレー
トが得られる。説明する好適な態様においては、結果バ
イオメトリックスのためのテンプレートは、バイオメト
リックスの従来のテンプレートと、時間に対してそのバ
イオメトリックスの見かけの変化を記録したテンプレー
トとを、結合したものである。
Biometrics can be used for automated authentication or identification of a subject (human). Typically, the subject is remembered by providing sample biometrics when opening a bank account, registering for an Internet service, and the like.
From this sample biometric, a template is stored and used for matching purposes at the time the user wishes to access the account or service. In the preferred embodiment described, the template for the resulting biometric is a combination of a conventional template for the biometric and a template that records the apparent change in the biometric over time.

【0028】得られる指紋および掌紋についてはより詳
細に後述する。指紋テンプレートまたは掌紋テンプレー
トは、力を加えない状態、トルクまたは回転が加えられ
た状態のシーケンスにおいて、選択された押印から導出
される。軌跡のテンプレートは、得られる指紋の時間に
対する運動軌跡を定量的に記述する。2つのテンプレー
トをマッチングさせることは逆に、従来の指紋テンプレ
ートと署名マッチングに類似する軌跡の動的なストリン
グ・マッチングを結合させたものとなる。このストリン
グ・マッチングは、従来技術においては良く知られたも
のである。ユーザがトルクを加えながら検出されること
で得られた指紋について、さらに詳細に説明する。
The obtained fingerprint and palm print will be described later in more detail. The fingerprint or palm print template is derived from the selected imprint in a sequence of no force, torque or rotation. The trajectory template quantitatively describes the motion trajectory of the obtained fingerprint with respect to time. Matching two templates is the opposite of combining a traditional fingerprint template with dynamic string matching of a trajectory similar to signature matching. This string matching is well known in the prior art. The fingerprint obtained by the user detecting while applying the torque will be described in further detail.

【0029】バイオメトリックスは、多かれ少なかれ個
人を同定し、所定のバイオメトリックス信号は、当該バ
イオメトリックスを唯一の個人が保有するか、または当
該バイオメトリックスを保有する人々のリストを著しく
狭めるものである。指紋は、歴史的に同一の指紋を保有
する2の個人がこれまで見出されていないので、優れた
バイオメトリックスである。他方で、靴のサイズ、体重
といったバイオメトリックス信号は、これらの信号が僅
かな選別価値しか持たないことが明らかなので、バイオ
メトリック信号として充分なものではない。バイオメト
リックスは、行動的バイオメトリックスと、生理的バイ
オメトリックスとに、区別することができる。行動的バ
イオメトリックスは、個人の物理およびメンタル状態に
依存し、時間に対して急激に変化する可能性のある変化
するものである。行動的バイオメトリックスとしては、
署名110および声紋120を挙げることができる(図
1参照)。生理的バイオメトリックスは、他方で変化が
少ないものである。指紋については、図1の指紋130
に示される突部および谷部の基本的な流れ構造は、本質
的に個人の人生といったスパンにわたって変化しない。
他のバイオメトリックスの例としては、図1に示す対象
者の虹彩140の円形テクスチャを挙げることができ、
これについても対象者の人生といったスパンにわたり変
動が少ないと考えられている。したがって、例えば11
0および120といった既存の行動的バイオメトリック
スについては、ある程度対象者により制御することがで
き、かつその見かけが影響を受けない既存の生理的バイ
オメトリックス(虹彩140)、または僅かにしか影響
を受けない(指紋130)生理的バイオメトリックスが
存在する。左側の署名と声紋とは、行動的バイオメトリ
ックスであり;右側の指紋と虹彩イメージとは、生理的
バイオメトリックスである。
Biometrics identify more or less individuals, and a given biometric signal is such that only one individual owns the biometrics or significantly narrows the list of people who own the biometrics. Fingerprints are an excellent biometric, as no two individuals with the same fingerprint have been historically found so far. On the other hand, biometric signals such as shoe size and weight are not sufficient as biometric signals, as it is clear that these signals have little screening value. Biometrics can be distinguished between behavioral biometrics and physiological biometrics. Behavioral biometrics are variables that depend on the physical and mental state of an individual and can change rapidly over time. Behavioral biometrics
A signature 110 and a voiceprint 120 can be cited (see FIG. 1). Physiological biometrics, on the other hand, are less variable. The fingerprint 130 shown in FIG.
The basic flow structure of the ridges and valleys shown in FIG.
Other examples of biometrics include the circular texture of the subject's iris 140 shown in FIG.
It is considered that there is little change in this over the span of the subject's life. Thus, for example, 11
For existing behavioral biometrics such as 0 and 120, existing physiological biometrics (iris 140) that can be controlled to some extent by the subject and whose appearance is not affected, or are only slightly affected (Fingerprint 130) Physiological biometrics are present. The signature and voiceprint on the left are behavioral biometrics; the fingerprint and iris image on the right are physiological biometrics.

【0030】ここで、図2を参照する。典型的な従来の
流れを汲んだ自動指紋認証システムは、バイオメトリッ
クス・マッチング・システムへの入力210として指紋
イメージ(バイオメトリックス信号)を使用する。この
システムは、他の3つの段階215、220、225か
ら構成されており、これらの段階は、特徴を抽出するた
めの信号処理段階215と、特徴からテンプレートを抽
出する段階220と、テンプレートをマッチングする段
階225とを含む。バイオメトリックス信号210とと
もに、対象者の識別部212がマッチング・システムへ
と入力される。テンプレート・マッチング・段階225
の間に、この特定の識別部に伴われたテンプレートが、
同一性(識別部)によりインデックスされたテンプレー
トの所定のデータベース230からリトリーブされる。
抽出されたテンプレート220と、データベース230
からリトリーブされたテンプレートとの間においてマッ
チ/ノーマッチを行う場合には、“Yes/No”の応
答240が、マッチング・システムの出力とされる。マ
ッチングは、典型的には類似性の尺度により行われ、こ
の尺度が著しく高い場合には、応答は“Yes”とさ
れ、そうでなければ応答は“No”とされる。下記の引
用文献は、従来技術を記載した例である。N.K.ラー
サ、S.チェン、A.K.ジェイン、指紋イメージの特
徴抽出に基づく適応可能なフロー・オリエンテーショ
ン、パターン認識、第28巻、第11号、第1657〜
1672頁、1995年11月
Here, reference is made to FIG. A typical conventional automated fingerprint authentication system uses a fingerprint image (biometric signal) as an input 210 to a biometric matching system. The system comprises three other steps 215, 220, 225, which are a signal processing step 215 for extracting features, a step 220 for extracting templates from features, and matching of templates. 225. Along with the biometric signal 210, the subject's identification unit 212 is input to the matching system. Template matching stage 225
In the meantime, the template associated with this particular identifier is
The template indexed by the identity (identification unit) is retrieved from a predetermined database 230.
Extracted template 220 and database 230
If a match / no match is made between the template and the retrieved template, a “Yes / No” response 240 is output from the matching system. Matching is typically performed by a measure of similarity; if this measure is significantly higher, the response is "Yes"; otherwise, the response is "No". The following references are examples describing the prior art. N. K. Lhasa, S.M. Chen, A. K. Jane, Adaptive Flow Orientation Based on Feature Extraction of Fingerprint Images, Pattern Recognition, Vol. 28, No. 11, 1657-
1672 pages, November 1995

【0031】システム200は、指紋認証に限定され
ず、このシステムのアーキテクチャは、いずれのバイオ
メトリックスについても適正である。システムに入力さ
れたバイオメトリック信号210は、クライアントのア
プリケーションに対して局在化されたものであるか、ま
たは所定のサーバにおいてマッチング・アプリケーショ
ンを動作させる、遠隔的なもののいずれかである。この
ため、アーキテクチャ200は、すべてのバイオメトリ
ックスおよびネットワークされた、またはネットワーク
化されていないアプリケーションに適用することができ
る。
The system 200 is not limited to fingerprint authentication, and the architecture of the system is appropriate for any biometric. The biometric signal 210 input to the system is either local to the client's application or remote, running a matching application at a given server. Thus, the architecture 200 can be applied to all biometrics and networked or non-networked applications.

【0032】図2に示したシステム200は、認証シス
テムであるが、図3に示されるシステム250は、同定
システムである。典型的には、従来の流れを汲む自動バ
イオメトリックス信号同定システムでは、入力210
(図2を参照のこと)のみを用いる。再度、システム
は、3つの段階215、220、225から構成され、
これらの段階は、特徴抽出のための信号処理段階215
と、特徴からテンプレートを抽出する段階220と、テ
ンプレート・マッチング段階225とを含んでいる。し
かしながら、同定システム250においては、バイオメ
トリック信号210がシステムへと入力される。テンプ
レート・マッチング段階225の間には、抽出されたテ
ンプレートは、すべてのテンプレートとデータベース2
30内に記録された識別子の対とマッチングされる。抽
出されたテンプレート220とデータベースにおいて同
一性を含むテンプレートとの間にマッチングがあれば、
その同一性が同定システム250の出力225とされ
る。データベース230においてマッチングしなけれ
ば、出力される同一性225は、NILと設定される。
再度、バイオメトリック信号210は、クライアントの
アプリケーションにおいて局在化したものであるか、ま
たは所定のサーバ上で遠隔的にマッチングされるアプリ
ケーションのいずれかとされる。したがって、アーキテ
クチャ250は、ネットワーク化された、またはネット
ワーク化されていないアプリケーションに対して適用す
ることができる。
The system 200 shown in FIG. 2 is an authentication system, while the system 250 shown in FIG. 3 is an identification system. Typically, in conventional flow-based automated biometric signal identification systems, input 210
(See FIG. 2) only. Again, the system is composed of three stages 215, 220, 225,
These steps are signal processing steps 215 for feature extraction.
And step 220 of extracting a template from features and a template matching step 225. However, in the identification system 250, the biometric signal 210 is input to the system. During the template matching stage 225, the extracted templates are
A match is made with the pair of identifiers recorded in 30. If there is a match between the extracted template 220 and the template containing the identity in the database,
The identity is used as the output 225 of the identification system 250. If there is no match in the database 230, the output identity 225 is set to NIL.
Again, the biometric signal 210 is either localized in the client's application or is an application that is remotely matched on a given server. Thus, the architecture 250 can be applied to networked or non-networked applications.

【0033】バイオメトリック信号は、システム・レベ
ルおよび対象者レベルにおいて結合(一体化)される。
対象者レベルでの一体化が本発明の目的である。システ
ムを、異なった方法との比較のため、および一体化され
た対象者レベルでのバイオメトリックス(結果バイオメ
トリックス)についての判定方法を示すため、図4〜図
7にまとめる。2つのバイオメトリックスを結合(一体
化)させるための4つの可能性が図4〜図7に示されて
いる。それぞれ、AND210を行うこと(図4)、O
R220により結合を行うこと(図5)、ADD230
により結合を行うこと(図6)、およびシーケンシャル
240に結合を行うこと(図7)である。対象者Zの2
つのバイオメトリックスB(250)およびB(2
60)は、図4に示すように、認証のために使用され
る。しかしながら、対象者の2つ以上のバイオメトリッ
クスは、直接的な方法により結合することができる。こ
れらのバイオメトリックスは、例えば2つの指紋という
ように同一でも良く、また例えば指紋と署名というよう
に異なったバイオメトリックスとすることができる。バ
イオメトリックスBおよびBについての対応するマ
ッチング手段は、それぞれ図4のマッチング手段A20
2およびマッチング手段B204である。これらのマッ
チング手段は、入力されたバイオメトリックス250お
よびバイオメトリックス260のテンプレートを、記憶
されたテンプレートと比較して、“Yes/No”21
4応答をシステム210およびシステム220において
与えるか、またはシステム230およびシステム240
におけるように、スコア値S(231)およびS
(233)を与える。
The biometric signals are combined (integrated) at the system level and at the subject level.
Integration at the subject level is an object of the present invention. The system is summarized in FIGS. 4-7 for comparison with different methods and to show how to determine biometrics at the integrated subject level (result biometrics). Four possibilities for combining (integrating) the two biometrics are shown in FIGS. Performing AND210 (FIG. 4), O
Performing the binding with R220 (FIG. 5), ADD230
(FIG. 6) and combining with the sequential 240 (FIG. 7). 2 of subject Z
One of biometrics B x (250) and B y (2
60) is used for authentication as shown in FIG. However, two or more biometrics of a subject can be combined in a straightforward manner. These biometrics can be the same, for example, two fingerprints, or different biometrics, for example, a fingerprint and a signature. Matching means, matching means A20 of FIG. 4 respectively corresponding for biometrics B x and B y
2 and matching means B204. These matching means compare the input biometrics 250 and biometrics 260 templates with the stored templates and compare them with “Yes / No” 21
4 response is provided in system 210 and system 220 or system 230 and system 240
As in, the score values S 1 (231) and S
2 (233) is given.

【0034】システム210は、ANDを行うことでマ
ッチング手段A202およびマッチング手段B204の
2つの“Yes/No”応答を結合させ、これらの結果
をANDゲート212を通して結合させる。したがっ
て、双方のマッチング手段202および204が一致す
る場合にのみ、システム210の“Yes/No”応答
216は、“Yes”となり(バイオメトリックスは双
方とも一致し、対象者Zは、認証される)、それ以外
は、出力216は、“No”となる(バイオメトリック
スの一方または双方が一致せず、対象者Zは排除され
る)。システム220は、ORを通じて結合を行うもの
であり、マッチング手段A202と、マッチング手段B
204の2つの“Yes/No”応答を用いて、ORゲ
ート222により結果を結合させる。したがって、マッ
チング手段A202とマッチング手段B204との一方
の“Yes/No”出力214が“Yes”である場合
に、システム220の“Yes/No”出力216は、
“Yes”となる(バイオメトリックスの一方または双
方が一致し、対象者Zは、認証される)。マッチング手
段202およびマッチング手段204の“Yes/N
o”出力214が双方とも“No”である場合にだけ、
システム220の“Yes/No”出力216は、“N
o”とされる(双方のバイオメトリックスは一致せず、
対象者Zは、排除される)。
The system 210 combines the two “Yes / No” responses of the matching means A 202 and the matching means B 204 by performing an AND, and combines the results through an AND gate 212. Thus, only if both matching means 202 and 204 match, the "Yes / No" response 216 of system 210 will be "Yes" (both biometrics match and subject Z is authenticated). Otherwise, the output 216 is "No" (one or both biometrics do not match and subject Z is rejected). The system 220 performs combining through OR, and includes a matching unit A202 and a matching unit B.
The results are combined by OR gate 222 using the two “Yes / No” responses at 204. Therefore, if the “Yes / No” output 214 of one of the matching means A 202 and the matching means B 204 is “Yes”, the “Yes / No” output 216 of the system 220 is:
"Yes" (one or both of the biometrics match and subject Z is authenticated). "Yes / N" of matching means 202 and matching means 204
o "only if both outputs 214 are" No "
The “Yes / No” output 216 of the system 220 indicates “N
o ”(both biometrics do not match,
Subject Z is excluded).

【0035】システム230については、ADDにより
マッチング手段A202とマッチング手段B204とが
結合されて、マッチング・スコアS(231)および
(233)がそれぞれ生成されている。スコアS
は、バイオメトリックスB(250)から抽出された
テンプレートが、どの程度マッチング手段A202に記
憶されたテンプレートに対して類似しているかを表し、
スコアSは、バイオメトリックスB(260)から
抽出されたテンプレートが、どの程度マッチング手段B
204に記憶されたテンプレートに対して類似している
かを表すものである。加算手段ADDer232は、ス
コア231と233との和、S+Sを出力する。2
34でこの和は、判定しきい値Tと比較され、S+S
>T(236)である場合には“Yes”とされて、
バイオメトリックスBおよびB を有する対象者Zが
認証され、それ以外には出力は、“No”(238)と
なり、対象者は排除される。
For system 230,
Matching means A 202 and matching means B 204
Combined, matching score S1(231) and
S2(233) are generated. Score S1
Is Biometrics BxExtracted from (250)
To what extent the template is recorded in the matching means A202
Indicates whether the template is similar to the template
Score S2Is Biometrics ByFrom (260)
To what extent the extracted template matches the matching means B
Similar to the template stored in 204
It represents what. The addition means ADDer232 is
Sum of cores 231 and 233, S1+ S2Is output. 2
At 34 this sum is compared with a decision threshold T and S1+ S
2> T (236), it is determined as “Yes”,
Biometrics BxAnd B yThe subject Z having
Otherwise, the output is "No" (238)
The subject is excluded.

【0036】図7のシステム240は、対象者Zのバイ
オメトリックス(250)とB(260)とを連続し
て結合する。まず、バイオメトリックスB(250)
をマッチング手段A(202)に記憶されたテンプレー
トとマッチングさせてマッチング・スコアS(23
1)を得る。得られたマッチング・スコアは、しきい値
(244)と比較され、テスト244を通過しなけ
れば、出力が“No”(238)とされて対象者Zが排
除される。そうでなければ、バイオメトリックスB
(260)は、再度マッチング手段B(204)に記
憶されたテンプレートとマッチングされる。このマッチ
ング手段の出力スコアS(233)は、しきい値T
(246)と比較される。出力が“Yes”、すなわち
>Tであれば、対象者Zが認証される。それ以外
には出力が“No”(238)であれば、対象者Zは排
除される。
The system 240 of FIG. 7 is bonded continuously biometrics subject Z and (250) and B y (260). First, Biometrics B x (250)
Is matched with the template stored in the matching means A (202), and the matching score S 1 (23
Obtain 1). The obtained matching score is compared with a threshold value T 1 (244). If the test does not pass the test 244, the output is set to “No” (238) and the subject Z is excluded. Otherwise, Biometrics B
y (260) is again matched with the template stored in the matching means B (204). The output score S 2 (233) of this matching means is equal to the threshold T 2
(246). Output "Yes", that is, if S 2> T 2, subject Z is authenticated. Otherwise, if the output is “No” (238), the subject Z is excluded.

【0037】図8は、ユーザの動作を結合する、すなわ
ち対象者レベルでのバイオメトリックスの結合ための一
般的なフロー図である。ユーザの動作は、署名を行う場
合のペンの運動とまさに同様に、第2の行動的バイオメ
トリックスである。ユーザ410は、従来のバイオメト
リックス420を認証または同定の目的のために提供す
る。このようなバイオメトリックスとしては、指紋、虹
彩、または顔を挙げることができる。しかしながら、そ
のバイオメトリックスを指紋または顔の場合のように静
止したままで保持するのではなく、または虹彩認識の場
合のように目を開いておくのではなく、ユーザは、バイ
オメトリックスに対して所定の特定の動作430、α
(t)を実行する。この動作は、時間0(434)〜所
定の時間T(436)までの時間432にわたって実行
される。したがって、動作α(t)は、時間430に対
する所定の一方向関数であり、従来のバイオメトリック
ス420として作用する。このバイオメトリックスは、
ユーザ410の実際のバイオメトリックスであり、機械
読み取り可能な信号ではない(すなわち、指紋の場合に
おいては、指の上に模様のある3次元の指である)。動
作430に対する制約は規定されるものの、この制約の
範囲内においてユーザ410は、動作を規定することが
できる(例えば、署名を行う際の制約は、ユーザがペン
を紙上においてx、y方向へと移動させるが、z方向に
はペンを移動させることができないことである)。すな
わち、所定の動作430は、ユーザのバイオメトリック
を時間に対して変換する。バイオメトリック信号読み取
りデバイス460への入力が、この変換されたバイオメ
トリックス450となる。このデバイスの出力470
は、時間0(434)〜時間T(436)までの間の、
個別的に変換されたバイオメトリックス信号B(t)4
80のシーケンス(シリーズ)となる。指紋の場合に
は、複数の指紋イメージとなり、顔の場合には複数の顔
のイメージとなる。この出力シーケンス470は、所定
の抽出アルゴリズム490への入力485とされる。抽
出アルゴリズムは、それ自体がバイオメトリックスであ
る変換されたバイオメトリックスの対(α′(t),
B)495のシーケンスから計算を実行する。関数α′
(t)は、バイオメトリックスBの時間間隔[0,T]に
わたる所定の行動様式であり、ユーザにより選択された
関数α(t)に関連する(ユーザが署名を選択するのに
きわめて類似する)。バイオメトリックスBは、対
(α′(t),B)から算出され、α(t)430は、
ゼロがユーザが全く行動を起こしていないときであり、
出力470は、変形されていないディジタル化バイオメ
トリックス420となる。概ね、信号480においてバ
イオメトリックス420は変形を受けていない状態で算
出することができる。
FIG. 8 is a general flow diagram for combining user actions, ie, combining biometrics at the subject level. The user's action is a second behavioral biometric, just like the movement of the pen when signing. User 410 provides conventional biometrics 420 for authentication or identification purposes. Such biometrics can include a fingerprint, iris, or face. However, rather than keeping the biometrics stationary as in the case of fingerprints or faces, or keeping the eyes open as in the case of iris recognition, Specific operation 430, α
Execute (t). This operation is performed for a time 432 from time 0 (434) to a predetermined time T (436). Thus, the action α (t) is a predetermined one-way function for time 430 and acts as conventional biometrics 420. This biometric is
It is the actual biometric of the user 410 and not a machine-readable signal (ie, in the case of a fingerprint, a three-dimensional finger with a pattern on the finger). Although constraints on operation 430 are defined, within this constraint the user 410 can define the operation (e.g., the constraint on signing is that the user places the pen on the paper in the x, y directions). But the pen cannot be moved in the z-direction). That is, the predetermined operation 430 converts the user's biometric with respect to time. The input to the biometric signal reading device 460 is this converted biometrics 450. Output 470 of this device
Between time 0 (434) and time T (436)
Individually converted biometrics signal B (t) 4
There are 80 sequences (series). In the case of a fingerprint, a plurality of fingerprint images are obtained, and in the case of a face, a plurality of face images are obtained. This output sequence 470 is used as an input 485 to a predetermined extraction algorithm 490. The extraction algorithm consists of a pair of transformed biometrics (α ′ (t),
B) Perform calculations from the sequence of 495. Function α ′
(T) is a predetermined behavioral pattern over the time interval [0, T] of biometrics B and is related to the function α (t) selected by the user (very similar to the user selecting a signature). . Biometrics B is calculated from the pair (α ′ (t), B), and α (t) 430 is
Zero is when the user has taken no action,
The output 470 is the undeformed digitized biometrics 420. In general, the biometrics 420 in the signal 480 can be calculated without deformation.

【0038】ここで、図9を参照する。図9は、ユーザ
が指紋リーダ510上で指を回転させることができるよ
うにされた状態における、指紋の結果バイオメトリック
スを例示した図である(ガラス・プレートに対してスラ
イドさせることなく)。このような回転は、ユーザが規
定した所定の角度αで、時間の関数α(t)にしたがっ
て実行される。結果として得られる指紋の例を図9に示
す。ユーザは、手の位置520において、指540を指
紋リーダ510上に載せる。その後時間0(434)か
ら時間T(436)まで、ユーザは、指540を時間の
関数α(t)で所定の角度αにしたがってガラス・プレ
ート上で回転させる。この回転は、水平面内で行われ、
この平面は、指紋リーダのガラス・プレートに対して平
行とされる。この場合の回転の関数は、得られる指紋の
行動的部分となり、ユーザにより規定される(結果バイ
オメトリックスのこの部分が不確実である場合には、ユ
ーザは得られる指紋の、この行動的部分を再度規定する
ことができる)。まず、ユーザは、角度550だけ手の
位置525まで左へと回転を行う。その後、ユーザは角
度555だけ最終的な手の位置530まで右へと回転を
行なう。時間間隔[0,T]にわたるこの操作の間、指紋
リーダは、変換された(変形された)指紋イメージのシ
リーズとしての出力470行う。この出力470は、図
8に示すように変換されたバイオメトリックス480
(指紋)のシーケンスとなり、これらの変換されたバイ
オメトリックス480が抽出アルゴリズム490へと入
力される(図8)。このアルゴリズムは、与えられた出
力470を、時間の関数α(t)として角度αを、時間
0(434)から時間T(436)にわたり算出する。
得られた指紋は、この場合には(α(t),F)であ
り、Fは、変形を受けていない指紋イメージである。変
形を受けていない指紋イメージは、回転角度αが0であ
る、時間434,570,436において見出される。
変形された指紋イメージから回転角度を抽出するために
好適な方法については、図13〜図15に示す。
Here, reference is made to FIG. FIG. 9 is a diagram illustrating the resulting biometrics of a fingerprint (without sliding against a glass plate) with the user allowed to rotate the finger on the fingerprint reader 510. Such rotation is performed at a predetermined angle α defined by the user according to a time function α (t). An example of the resulting fingerprint is shown in FIG. The user places finger 540 on fingerprint reader 510 at hand position 520. Thereafter, from time 0 (434) to time T (436), the user rotates the finger 540 on the glass plate according to a predetermined angle α with a function of time α (t). This rotation takes place in a horizontal plane,
This plane is parallel to the glass plate of the fingerprint reader. The function of rotation in this case is the behavioral part of the resulting fingerprint, which is defined by the user (if this part of the resulting biometrics is uncertain, the user will replace this behavioral part of the resulting fingerprint with Can be specified again). First, the user rotates left by an angle 550 to a hand position 525. Thereafter, the user rotates right by an angle 555 to a final hand position 530. During this operation over the time interval [0, T], the fingerprint reader produces 470 the transformed (deformed) fingerprint image as a series. This output 470 is the transformed biometrics 480 as shown in FIG.
(Fingerprint), and these converted biometrics 480 are input to the extraction algorithm 490 (FIG. 8). This algorithm calculates the angle α from the time 0 (434) to the time T (436) using the given output 470 as a function of time α (t).
The obtained fingerprint is (α (t), F) in this case, where F is an undeformed fingerprint image. An undeformed fingerprint image is found at times 434, 570, 436, where the rotation angle α is zero.
A preferred method for extracting the rotation angle from the deformed fingerprint image is shown in FIGS.

【0039】図10は、スキャナ上で指を運動させるた
め図9で示した1自由度ではなく、ユーザが4つの自由
度を有する状態で得られる指紋バイオメトリックスの例
を示した図である。再度、図9のようにユーザは、z−
軸(この軸は、指紋リーダ510のガラス・プレートに
対して垂直な軸である)を中心として指540を回転さ
せることができるようにされている。これがまず、55
0に沿って左へと、その後55に沿って右へという回転
αで示されている。これは、手を520、525から最
終的な手の位置530へと運ぶことにより行われる。ま
た、いかなる所定の角度αにおいても、ユーザは、回転
β610を指の軸620を中心として実行することがで
きる。最後にユーザは、力f630を指紋リーダ510
のガラス・プレートに平行に加える。この力は、指63
2の方向にのみ集中するか、または634のように集中
させないことができる。指632の方向に集中する前者
の場合には、指を運動させるための自由度(ガラス・プ
レートをスライドさせることなく)は、3であり、力を
集中させることがない後者の場合には、自由度は4とな
る。角度α、βに力fを加えることが結合され、これを
運動mとして参照する。ユーザの時間間隔[0,T]にわ
たる操作の間に、指紋リーダは、変換(変形)された指
紋イメージのシーケンスを、出力470する。この出力
470は、図8に示されるように変換されたバイオメト
リックス(指紋)のシーケンス480であり、これらの
変換されたバイオメトリックスが抽出アルゴリズム49
0へと入力される(図8)。このアルゴリズムは、与え
られた出力470と、角度αと、角度βとを、間隔0
(434)〜時間Tにわたる時間の関数として算出す
る。例えば、角度αの関数であるα(t)は、図9の関
数560である。さらには、アルゴリズムは、力630
を算出する。指の方向632に沿って力が集中している
場合には、f(t)は、一方向関数となる。力がいずれ
の方向でもリーダ510のガラス・プレートに沿って加
えられている場合には、f(t)は、2方向関数とな
る。力は、したがってx方向の成分とy方向の成分とを
有する。この場合に得られる指紋は、(α(t),β
(t),f(t),F)または(m(t),F)とな
り、Fは、変形を受けていない指紋イメージである。変
形を受けていない指紋イメージは、再構成された運動m
(690)がゼロの状態である時間434,570,4
36において見出される。
FIG. 10 is a diagram showing an example of fingerprint biometrics obtained when the user has four degrees of freedom instead of the one degree of freedom shown in FIG. 9 for moving a finger on the scanner. Again, as shown in FIG.
The finger 540 can be rotated about an axis, which is perpendicular to the glass plate of the fingerprint reader 510. This is 55
It is indicated by a rotation α to the left along 0 and then to the right along 55. This is done by bringing the hand from 520, 525 to the final hand position 530. Also, at any given angle α, the user can perform rotation β 610 about finger axis 620. Finally, the user applies the force f630 to the fingerprint reader 510.
Add in parallel to the glass plate. This force is
It can be concentrated only in two directions or not as 634. In the former case, which concentrates in the direction of the finger 632, the degree of freedom (without sliding the glass plate) for moving the finger is 3, and in the latter case, in which the force is not concentrated, The degree of freedom is four. Applying a force f to the angles α, β is combined and is referred to as the movement m. During the user's operation over the time interval [0, T], the fingerprint reader outputs 470 a sequence of transformed (deformed) fingerprint images. This output 470 is a sequence 480 of transformed biometrics (fingerprints) as shown in FIG.
0 is input (FIG. 8). This algorithm compares the given output 470, angle α, and angle β with the interval 0
(434) Calculated as a function of time over time T. For example, α (t), which is a function of the angle α, is the function 560 in FIG. Furthermore, the algorithm uses the force 630
Is calculated. When the force is concentrated along the finger direction 632, f (t) is a one-way function. If a force is applied along the glass plate of reader 510 in either direction, f (t) will be a two-way function. The force thus has a component in the x direction and a component in the y direction. The fingerprint obtained in this case is (α (t), β
(T), f (t), F) or (m (t), F), where F is an undeformed fingerprint image. The undeformed fingerprint image has the reconstructed motion m
Times 434,570,4 when (690) is zero
Found at 36.

【0040】図11は、指紋と同一の原理を掌紋に適用
した実施例を示した図である。掌紋リーダ710は、ガ
ラス・プレート720を含んでおり、このガラス・プレ
ート720は、例えばドアの隣にマウントすることがで
きる。掌紋テンプレートとマッチングしたユーザのみが
認証され、アクセスが許可されることになる。ユーザ
は、自分の手730を掌紋リーダのプレート720へと
置く。図9および図10に示した結果として得られる指
紋のように、ユーザは、掌バイオメトリックスを静止さ
せておく必要はなく、掌を運動させる。図11に示した
場合には、ガラス・プレートに垂直な軸に対する軸を中
心とした掌の回転は、得られる掌紋バイオメトリックス
の行動的部分である。ユーザは、例えば手を右側740
へと回転させ、その後手を左744へと回転させ、さら
にその後手を再度右748へと回転させる。図9に示す
ように、所定の時間間隔[0,T]にわたるこれらの操作
の間、掌紋リーダは、変換(変形)された掌紋像イメー
ジのシーケンスを出力する。この出力は、図8に示すよ
うに変換されたバイオメトリックス(掌紋)のシーケン
スであり、これらのバイオメトリックスが図8のように
抽出アルゴリズム490へと入力される。アルゴリズム
は、時間間隔0(434)から時間T(436)にわた
り、与えられた掌紋リーダ710の出力と、時間の関数
α(t)として掌の回転角度αとを算出する。得られる
掌紋プリントは、(α(t),P)であり、Pは、変形
を受けていない掌紋像イメージである。変形を受けてい
ない掌紋イメージは、回転角度がゼロの時間である、4
34,570,436において見出される。
FIG. 11 is a diagram showing an embodiment in which the same principle as that of a fingerprint is applied to a palm print. The palm print reader 710 includes a glass plate 720, which can be mounted, for example, next to a door. Only the user matching the palm print template is authenticated and access is permitted. The user places his hand 730 on the palm print reader plate 720. As with the resulting fingerprints shown in FIGS. 9 and 10, the user does not need to keep the palm biometrics stationary, but exercises the palm. In the case shown in FIG. 11, rotation of the palm about an axis perpendicular to the glass plate is a behavioral part of the resulting palm print biometrics. The user may, for example, put his hand on the right 740
, Then rotate the hand to the left 744, and then rotate the hand again to the right 748. As shown in FIG. 9, during these operations over a predetermined time interval [0, T], the palm print reader outputs a sequence of transformed (transformed) palm print images. This output is a sequence of biometrics (palmprint) converted as shown in FIG. 8, and these biometrics are input to the extraction algorithm 490 as shown in FIG. The algorithm calculates a given palmprint reader 710 output and a palm rotation angle α as a function of time α (t) from time interval 0 (434) to time T (436). The obtained palm print is (α (t), P), where P is an undeformed palm print image. An undeformed palm print image has a time when the rotation angle is zero.
34,570,436.

【0041】図12は、顔を用いて得られるバイオメト
リックスを示した図である。対象者800は、生理的な
顔のバイオメトリックスに行動的部分を加えた双方の認
識する同定または認証のため、カメラの前面でポーズを
取っている。この行動的部分は、対象者の頭部の運動に
より導入される。この運動は、時間の関数Face−i
mage(t)として顔のイメージのシーケンスを発生
させる。対象者の顔がカノニカル・ポジションにある場
合には、頭部は、Y軸810が頭部の長さ方向に沿った
座標系805に埋め込まれる。X軸820は、耳を結ぶ
ラインに平行とされ、Z軸830は、顔の前に置かれる
面に垂直とされている。この場合、対象者は、得られる
バイオメトリックスFace−Image(t)を、Y
軸を中心として顔を左右させることによって発生させ
て、時間の関数であるPan(t)としてpan840
を得る。対象者は、さらにY軸および左右の方向に広が
る面860内で顔を曲げることにより顔を傾ける(85
0)こともできる。
FIG. 12 is a diagram showing biometrics obtained using a face. The subject 800 is posing in front of the camera for recognition or identification of both the biometrics of the physiological face plus the behavioral part. This behavioral part is introduced by movement of the subject's head. This movement is a function of time Face-i
Generate a sequence of facial images as mage (t). If the subject's face is at the canonical position, the head is embedded in a coordinate system 805 with the Y-axis 810 along the length of the head. X-axis 820 is parallel to the line connecting the ears, and Z-axis 830 is perpendicular to the plane in front of the face. In this case, the subject converts the obtained biometrics Face-Image (t) into Y
Pan840 is generated as a function of time, Pan (t), generated by shifting the face around the axis.
Get. The subject further tilts the face by bending the face in a plane 860 that spreads in the Y-axis and the left and right directions (85
0) You can.

【0042】この傾き850は、別の時間の関数Til
t(t)を与える。したがって、この場合に得られるバ
イオメトリックスは、それぞれ所定の時間tにおける
顔イメージFace−Image(t)と、顔の前面
像と、左右、傾斜Pan(t)およびTilt(t)と
なる。シーケンスにおける顔イメージは、顔のイメージ
の数学的な変換である。本発明においては、別の手段を
通じた顔イメージの別の変形も用いることができる。
This slope 850 is a function of another time Til
gives t (t). Therefore, the biometrics obtained in this case are the face image Face-Image (t 0 ) at the predetermined time t 0 , the front image of the face, the left and right, the inclination Pan (t), and the Tilt (t). The facial image in the sequence is a mathematical transformation of the facial image. In the present invention, other variations of the face image through other means can be used.

【0043】図13には、得られたバイオメトリックス
から行動部分を抽出するための一般的なプロセスのブロ
ック図900を示す。入力910は、バイオメトリック
信号のB(t)のシーケンスである。ブロック920で
は、これに続くバイオメトリックス信号B(t+1)
と、B(t)とが、信号間解析を通して処理される。ブ
ロック930においては、行動部分における変化α(t
+1)−α(t)を抽出するために、この解析を使用す
る。また、これは、出力a(t)を時間940の関数と
して与え、a(t)は、得られるバイオメトリックスB
(t)の行動部分となる。図13には、特徴的なステッ
プ(イメージ間フロー解析およびアフィン運動パラメー
タ推定)が、図9において生成された変形した指紋イメ
ージのシーケンスから指の運動を推定するために加えら
れている。これらについては、さらに図14および図1
5において詳細に説明する。
FIG. 13 shows a block diagram 900 of a general process for extracting behavioral portions from the resulting biometrics. Input 910 is a sequence of B (t) of the biometric signal. At block 920, the following biometric signal B (t + 1)
And B (t) are processed through inter-signal analysis. In block 930, the change α (t in the action portion
Use this analysis to extract +1) -α (t). This also gives the output a (t) as a function of time 940, where a (t) is the resulting biometrics B
This is the action part of (t). In FIG. 13, characteristic steps (inter-image flow analysis and affine motion parameter estimation) have been added to estimate finger motion from the sequence of deformed fingerprint images generated in FIG. These are further described in FIG. 14 and FIG.
5 will be described in detail.

【0044】一つの指紋イメージから次への回転は、図
14に説明するステップを使用して推定することができ
る。イメージB(t)およびB(t+1)1010,1
015は、16×16のブロック1020,1022,
1024,...1028へと、MPEG圧縮基準とし
て与えられるように分割される。図14に示す2つのイ
メージ(1010および1015)である指紋イメージ
・シーケンスB(t)が与えられると、イメージ内に存
在するそれぞれのブロック(サイズは、16×16であ
る)1030についてイメージ間フロー(u,v)10
40が計算される。これは、いずれのイメージB(t)
1010においても、シーケンス中でその直後のイメー
ジB(t+1)1015につき表現される運動を表した
ものである。フロー特徴付け[u(x,y),v(x,
y)]1050は、(x,y)1060およびイメージ
・シーケンスのt1070の関数であり、したがって矛
盾のない解釈を行うため一定の運動の表現とされる。こ
の運動表現1050は、MPEG−1またはMPEG−
2イメージ・シーケンスにおいてコード化された粗運動
ベクトルから算出することができる。入力が圧縮されて
いない場合には、フロー・フィールドは、従来知られて
いる運動推定技術を用いて推定することができる。
The rotation from one fingerprint image to the next can be estimated using the steps described in FIG. Images B (t) and B (t + 1) 1010,1
015 is a 16 × 16 block 1020, 1022,
1024,. . . Into 1028 as given as the MPEG compression standard. Given a fingerprint image sequence B (t), which is the two images (1010 and 1015) shown in FIG. 14, the inter-image flow for each block (size is 16 × 16) 1030 present in the image. (U, v) 10
40 is calculated. This is for any image B (t)
1010 also shows the motion expressed for the image B (t + 1) 1015 immediately after in the sequence. Flow characterization [u (x, y), v (x,
y)] 1050 is a function of (x, y) 1060 and t 1070 of the image sequence, and is thus a constant motion representation for consistent interpretation. The motion expression 1050 is MPEG-1 or MPEG-
It can be calculated from the coarse motion vectors coded in the two image sequence. If the input is uncompressed, the flow field can be estimated using motion estimation techniques known in the art.

【0045】下記の引用文献は、それぞれMPEG圧縮
の現在の技術と、イメージ・シーケンス内における光学
的なフロー推定例と、MPEG圧縮されたイメージ・シ
ーケンスからフローを直接抽出する従来の例を開示する
ものである。B.G.ハスケル、A.プーリ、A.N.
ネトラービ、ディジタル・ビデオ:MPEG−2へのイ
ントロダクション、チャップマン・アンド・ヒル、19
97年、J.ベルゲン、P.アナンダン、K.ハンナ、
R.ヒンゴラーニ、階層的モデル・ベースの運動推定、
セカンド・ヨーロピアン・コンファレンス・オン・コン
ピュータ・ビジョン、第237頁〜第252頁、199
2年、シトラ・ドーレイおよびビクラント・コブラ、H
DTVコンテンツ・マネージメント・アプリケーション
のためのMPEG−2圧縮されたビデオからモーション
・アノテーションの抽出、IEEE・インターナショナ
ル・コンファレンス・オン・マルチメディア・コンピュ
ーティング・アンド・システムズ、第673頁〜第67
8頁、1999年。
The following references respectively disclose the current technology of MPEG compression, an example of optical flow estimation within an image sequence, and a conventional example of extracting a flow directly from an MPEG-compressed image sequence. Things. B. G. FIG. Haskell, A.S. Pulley, A. N.
Netrabi, Digital Video: An Introduction to MPEG-2, Chapman and Hill, 19
1997, J.M. Bergen, P.S. Anandan, K .; Hannah,
R. Hingorani, hierarchical model-based motion estimation,
Second European Conference on Computer Vision, 237-252, 199
2 years, Citra Doray and Vikrant Cobra, H
Extraction of Motion Annotations from MPEG-2 Compressed Video for DTV Content Management Applications, IEEE International Conference on Multimedia Computing and Systems, pp. 673-67
8, p. 1999.

【0046】ここで、図15を参照する。ブロック10
20,1022,1024,...,1028における
フロー[u(x,y),v(x,y)]1050を試験す
ることにより、図15においてピボット領域として示さ
れているゼロ−モーション・ブロックの最も大きな連結
部分が決定される。さらにこの領域においてフローを解
析する。所定のイメージ・シーケンスにおいて各イメー
ジについて算出されたフローを用いて、指紋領域からの
モーション・パラメータがイメージ−イメージ・フロー
のアフィン運動モデルをインポーズし、領域1110の
境界ボックス1120を中心として半径方向の非ゼロ運
動ブロックをサンプリングすることにより、算出するこ
とができる。アフィン運動A1130は、形状1140
から図16に示す形状1145へと変換でき、イメージ
のフローのため、並進1150,回転1152、ずれ1
154を定量化できる。6つのパラメータ
,...,aは、このプロセスにより見積もるこ
とができ、aとaとが、並進に対応し、aとa
とが、回転に対応し、aと、aとが、ずれに対応す
る。これらのパラメータは、境界ボックス1120を中
心としたそれぞれのサンプリングについて見積もること
ができる。それぞれのフレームtについて平均のカール
(curl)は、C(t)=−a+aとして計算される。
それぞれのフレームにおけるこのカールは、定量的にピ
ボット領域を中心とする指の皮膚の回転、またはスピン
の程度を定量的に与える。すなわち、フロー・ベクトル
[u(x,y),v(x,y)]1050から算出され
る、得られた指紋の行動的部分の表現C(t)が得られ
る。また、フレームの平均並進ベクトルT=(a,a
)が、計算される。
Here, reference is made to FIG. Block 10
20, 1022, 1024,. . . , 1028, the largest connected portion of the zero-motion block, which is shown as a pivot region in FIG. 15, is determined by examining the flow [u (x, y), v (x, y)] 1050. . Further, the flow is analyzed in this region. Using the flow calculated for each image in a given image sequence, the motion parameters from the fingerprint region impose an affine motion model of the image-image flow, radially around a bounding box 1120 of the region 1110. Can be calculated by sampling the non-zero motion block. The affine motion A1130 has a shape 1140
To the shape 1145 shown in FIG. 16 and the translation 1150, rotation 1152, shift 1
154 can be quantified. The six parameters a 1 ,. . . , A 6 can be estimated by this process, where a 1 and a 4 correspond to the translation, and a 3 and a 5
DOO is corresponding to the rotation, and a 2, and the a 6, corresponding to the deviation. These parameters can be estimated for each sampling around the bounding box 1120. Average curl for each frame t
(curl) is, C (t) = - is calculated as a 3 + a 5.
This curl in each frame quantitatively gives the degree of rotation or spin of the finger skin about the pivot area. That is, the flow vector
An expression C (t) of the behavioral part of the obtained fingerprint, which is calculated from [u (x, y), v (x, y)] 1050, is obtained. Also, the average translation vector of the frame T = (a 1 , a
4 ) is calculated.

【0047】説明した考えられる結果バイオメトリック
スのすべてにつき、本発明者らは、従来の行動的または
生理的バイオメトリックスを用いることができるものと
考える。得られたバイオメトリックスの部分の表現(テ
ンプレート)の目的およびマッチングの目的に対し、こ
れらの従来のバイオメトリックスは、従来技術において
良く理解されている(上述したラーサ、チェン、ジェイ
ンによる指紋について参照のこと)。得られたバイオメ
トリックスの他の部分、すなわち行動的部分について
は、本発明者らは、ユーザの動作としていくつかの一方
向またはより高次の時間の関数α(t)として残してお
いた。この部分のマッチングは、記憶されたテンプレー
トα′(t)と、関数α(t)とのマッチングに相当す
る。このようなマッチングは、再度従来技術により良く
理解されており、ルーチン的に署名識別の分野において
行われているものである。下記の引用文献は、マッチン
グのアプローチの例を示すものである。V.S.ナル
ワ、“自動化オン−ライン署名識別”、プロシーディン
グス・オブ・IEEE、第215頁〜第239頁、19
97年2月上記の引用文献は、完全に本発明に含まれ
る。
For all of the possible outcome biometrics described, we believe that conventional behavioral or physiological biometrics can be used. For the purpose of representation (template) and matching purpose of the resulting biometrics, these conventional biometrics are well understood in the prior art (see above for fingerprints by Lhasa, Chen and Jane, see above). thing). For the other part of the resulting biometrics, the behavioral part, we have left the user's motion as a function of some one-way or higher order time α (t). Matching of this part corresponds to matching of the stored template α ′ (t) with the function α (t). Such matching is again better understood in the prior art and is routinely performed in the field of signature identification. The following references provide examples of matching approaches. V. S. Narwa, "Automated On-Line Signature Identification", Proceedings of IEEE, pp. 215-239, 19
The above-cited references, February 1997, are fully included in the present invention.

【0048】ここで、得られたバイオメトリックスは、
記憶されたテンプレートとマッチングされた後、2つの
“Yes/No”(図4および図5の214)応答、ま
たは2つのスコアSおよびS(図5および図7の2
31および233)のいずれかを有している。図4〜図
7で説明した2つのバイオメトリックスの結合のための
方法はいずれも、マッチング判断を行うために使用する
ことができる得られたバイオメトリックスの従来で、か
つユーザが規定するバイオメトリックスとして使用する
ことができる。以下に本発明をまとめる。
Here, the obtained biometrics is
After being matched with the stored template, two “Yes / No” (214 in FIGS. 4 and 5) responses, or two scores S 1 and S 2 ( 2 in FIGS. 5 and 7)
31 and 233). Any of the methods for combining two biometrics described in FIGS. 4-7 may be used as conventional and user-defined biometrics of the resulting biometrics that can be used to make matching decisions. Can be used. The present invention is summarized below.

【0049】(1)1つ以上のバイオメトリックスそれ
ぞれのコントロールされた変化にともなう時間間隔にわ
たり、対象者から1つ以上の前記バイオメトリックスの
セットを取得する取得デバイスと、前記バイオメトリッ
クスおよび前記コントロールされたそれぞれの変化およ
び結果バイオメトリックスである結合されたバイオメト
リックスと時間に対するそれぞれコントロールされた変
化とを対応させて記憶する記憶手段と、を含むバイオメ
トリックス・システム。
(1) an acquisition device for acquiring one or more sets of the biometrics from a subject over a time interval associated with a controlled change in each of the one or more biometrics; Storage means for storing the combined biometrics, which are the respective changes and the resulting biometrics, and the respective controlled changes with respect to time in a corresponding manner.

【0050】(2)前記バイオメトリックスは、生理的
バイオメトリックス、行動的バイオメトリックス、指
紋、顔、掌紋、虹彩、網膜、足紋、歩調、署名、キー・
ストローク・パターン、および声のいずれか1つ以上を
含む、(1)に記載のシステム。
(2) The biometrics include physiological biometrics, behavioral biometrics, fingerprint, face, palm print, iris, retina, footprint, gait, signature, key
The system of (1), wherein the system comprises any one or more of a stroke pattern and a voice.

【0051】(3) 前記コントロールされた変化は、
前記対象者により実行される、(1)に記載のシステ
ム。
(3) The controlled change is:
The system according to (1), which is executed by the subject.

【0052】(4) 前記コントロールされた変化は、
前記対象者に対して外部メカニズムにより誘導される、
(1)に記載のシステム。
(4) The controlled change is:
Guided by an external mechanism to the subject,
The system according to (1).

【0053】(5)前記メカニズムは、光の変化、光の
周波数変化および光の強度変化のいずれか1以上を含
む、(4)に記載のシステム。
(5) The system according to (4), wherein the mechanism includes at least one of a change in light, a change in light frequency, and a change in light intensity.

【0054】(6)前記コントロールされた変化は、前
記バイオメトリックスの変形、力、圧力、運動、トル
ク、周波数変化、ジェスチャー、エネルギー変化、音
量、加速度、およびパターンのいずれか1以上により誘
導される、(1)に記載のシステム。
(6) The controlled change is induced by one or more of deformation, force, pressure, motion, torque, frequency change, gesture, energy change, volume, acceleration, and pattern of the biometrics. , (1).

【0055】(7) 前記バイオメトリックスは、指紋
であり、前記コントロールされた変化は、指の運動、指
の回転、指の圧力、および指の力のいずれか1以上を含
む、(1)に記載のシステム。
(7) The method according to (1), wherein the biometrics is a fingerprint, and the controlled change includes one or more of finger movement, finger rotation, finger pressure, and finger force. The described system.

【0056】(8)前記バイオメトリックスは、顔であ
り、前記コントロールされた変化は、顔の運動である、
(1)に記載のシステム。
(8) The biometrics is a face, and the controlled change is facial movement.
The system according to (1).

【0057】(9)前記バイオメトリックスは、顔であ
り、前記コントロールされた変化は、顔の変形である、
(1)に記載のシステム。
(9) The biometrics is a face, and the controlled change is a face deformation.
The system according to (1).

【0058】(10)前記バイオメトリックスは、掌で
あり、前記コントロールされた変化は、掌の運動であ
る、(1)に記載のシステム。
(10) The system according to (1), wherein the biometrics is a palm, and the controlled change is palm movement.

【0059】(11)前記バイオメトリックスは、声で
あり、前記コントロールされた変化は、音量、周波数、
パターン、およびイントネーションのいずれか1以上を
含む、(1)に記載のシステム。
(11) The biometrics is voice, and the controlled changes are volume, frequency,
The system according to (1), wherein the system includes any one or more of a pattern and intonation.

【0060】(12)前記バイオメトリックスは、歩調
であり、前記コントロールされた変化は、立ち止まりパ
ターン、速度、動揺、コース、姿勢、ホップ、スキッ
プ、および歩幅のいずれか1以上を含む、(1)に記載
のシステム。
(12) The biometrics is a step, and the controlled change includes one or more of a stop pattern, a speed, a sway, a course, a posture, a hop, a skip, and a stride. (1) System.

【0061】(13)前記バイオメトリックスは、署名
であり、前記コントロールされた変化は、傾斜、ルー
プ、ストレッチ、サイズ、および間隔のいずれか1以上
を含む、(1)に記載のシステム。
(13) The system according to (1), wherein the biometric is a signature, and the controlled change includes any one or more of slope, loop, stretch, size, and interval.

【0062】(14)バイオメトリックス・システムに
より実行される方法であって、該方法は、1つ以上のバ
イオメトリックスそれぞれのコントロールされた変化に
ともなう時間間隔にわたり、対象者から1つ以上の前記
バイオメトリックスのセットを取得する段階と、前記バ
イオメトリックスおよび前記コントロールされたそれぞ
れの変化および結果バイオメトリックスである結合され
たバイオメトリックスと前記結合されたバイオメトリッ
クスとぞれぞれのコントロールされた変化とを対応させ
て記憶する段階と、を含む方法。
(14) A method performed by a biometrics system, wherein the method comprises obtaining one or more of the biometrics from a subject over a time interval associated with a controlled change in each of the one or more biometrics. Obtaining a set of metrics; combining the biometrics and the controlled respective changes and the resulting biometrics, the combined biometrics and the combined biometrics and each controlled change. Associating and storing.

【0063】(15)1つ以上のバイオメトリックスそ
れぞれのコントロールされた変化にともなう時間間隔に
わたり、対象者から1つ以上の前記バイオメトリックス
のセットを取得するための取得デバイスと、前記バイオ
メトリックスおよび前記コントロールされたそれぞれの
変化および結果バイオメトリックスである結合されたバ
イオメトリックスと前記結合されたバイオメトリックス
とぞれぞれのコントロールされた変化とを対応させて記
憶する記憶手段と、を含むコンピュータ・システム。
(15) an acquisition device for acquiring one or more sets of said biometrics from a subject over a time interval associated with a controlled change in each of said one or more biometrics; A computer system, comprising: a combined biometric, which is each controlled change and a resulting biometric; and storage means for storing the combined biometric and each controlled change in a corresponding manner. .

【0064】(16)1つ以上のバイオメトリックスそ
れぞれのコントロールされた変化にともなう時間間隔に
わたり、対象者から1つ以上の前記バイオメトリックス
のセットを取得する段階と、前記バイオメトリックスお
よび前記コントロールされたそれぞれの変化および結果
バイオメトリックスである結合されたバイオメトリック
スと前記結合されたバイオメトリックスとぞれぞれのコ
ントロールされた変化とを対応させて記憶する段階とを
実行する、コンピュータ・プログラムを含むコンピュー
タ可読な記録媒体。
(16) obtaining one or more sets of said biometrics from a subject over a time interval associated with a controlled change in each of said one or more biometrics; A computer comprising a computer program for executing a combined biometric, each change and resulting biometric, and storing the combined biometric and each controlled change in a corresponding manner. A readable recording medium.

【図面の簡単な説明】[Brief description of the drawings]

【図1】図1は、従来のバイオメトリックスの従来例を
示した図。
FIG. 1 is a diagram showing a conventional example of conventional biometrics.

【図2】図2は、認証のための自動化バイオメトリック
ス・システムのブロック図。
FIG. 2 is a block diagram of an automated biometrics system for authentication.

【図3】図3は、同定のための自動化バイオメトリック
ス・システムのブロック図。
FIG. 3 is a block diagram of an automated biometrics system for identification.

【図4】図4は、2つのバイオメトリックスをシステム
・レベルで組み合わせる可能性を示した図であり、AN
Dにより結合が行われる。
FIG. 4 shows the possibility of combining two biometrics at the system level,
The coupling is performed by D.

【図5】図5は、2つのバイオメトリックスをシステム
・レベルで組み合わせる可能性を示した図であり、OR
により結合が行われる。
FIG. 5 shows the possibility of combining two biometrics at the system level,
The connection is performed by

【図6】図6は、2つのバイオメトリックスをシステム
・レベルで組み合わせる可能性を示した図であり、AD
Dにより結合が行われている。
FIG. 6 shows the possibility of combining two biometrics at the system level, AD
The connection is made by D.

【図7】図7は、2つのバイオメトリックスをシステム
・レベルで組み合わせる可能性を示した図であり、シー
ケンシャルに結合が行われている。
FIG. 7 illustrates the possibility of combining two biometrics at the system level, wherein the combining is performed sequentially.

【図8】図8は、1つのバイオメトリックスを、ユーザ
の動作と結合させて(別のバイオメトリックスであ
る)、ユーザ・コントロールされた変化のシリーズによ
り変化させた、バイオメトリックスを得るための概念的
なブロック概略図。
FIG. 8 is a concept for combining one biometric with a user's action (which is another biometric) to produce a biometric that is varied by a series of user-controlled changes. Block schematic diagram.

【図9】図9は、ユーザがパターンにしたがってスキャ
ナ上で指を回転させて得られる指紋バイオメトリックス
を例示した図。
FIG. 9 is a view exemplifying fingerprint biometrics obtained by a user rotating a finger on a scanner according to a pattern;

【図10】図10は、ユーザが、スキャナ上で指を動か
すための4つの自由度を有する場合に得られる指紋バイ
オメトリックスを例示した図。
FIG. 10 is a diagram illustrating fingerprint biometrics obtained when a user has four degrees of freedom to move a finger on a scanner.

【図11】図11は、掌紋像イメージをシーケンスとし
て発生させて得られる例を示した図。
FIG. 11 is a diagram illustrating an example obtained by generating a palm print image as a sequence.

【図12】図12は、顔の像をシーケンスとして発生さ
せて得られる例を示した図。
FIG. 12 is a diagram illustrating an example obtained by generating a face image as a sequence.

【図13】図13は、得られたバイオメトリックスの行
動的部分を抽出するためのブロック図であり、図9に示
すように回転させて得た指紋から抽出を行う図。
FIG. 13 is a block diagram for extracting a behavioral part of the obtained biometrics, in which the extraction is performed from a fingerprint obtained by rotating as shown in FIG. 9;

【図14】図14は、入力され得られた指紋像シーケン
スからブロック・ベースとして、ローカル・フロー・コ
ンピュテーション・ブロックを示した図。
FIG. 14 is a diagram showing a local flow computation block as a block base from a fingerprint image sequence obtained and input;

【図15】図15は、得られた指紋の行動的部分である
指の曲がりまたは回転を、時間の関数として算出する際
の説明図。
FIG. 15 is an explanatory diagram of calculating a bend or rotation of a finger, which is an active part of the obtained fingerprint, as a function of time.

【図16】図16は、得られた指紋の行動的部分である
指の曲がりまたは回転を、時間の関数として算出する際
の説明図。
FIG. 16 is an explanatory diagram of calculating a bend or a rotation of a finger, which is an active part of the obtained fingerprint, as a function of time.

【符号の説明】[Explanation of symbols]

110…署名 120…声紋 130…指紋 140…虹彩 200…自動指紋認証システム 210…入力 220…テンプレート 230…データベース 110: signature 120: voiceprint 130: fingerprint 140: iris 200: automatic fingerprint authentication system 210: input 220: template 230: database

───────────────────────────────────────────────────── フロントページの続き (72)発明者 ルドルフ・マーテン・ボール アメリカ合衆国10507、ニューヨーク州ベ ッドフォードヒルズ、ノッチンガム・ロー ド83 (72)発明者 シトラ・ドーレイ アメリカ合衆国10541、ニューヨーク州チ ャッパクア、メープル・アベニュー7 (72)発明者 ナーリニ・ケイ・ラーサ アメリカ合衆国20603、ニューヨーク州ホ ワイト・プレインズ、グラナダ・クレッセ ント14、アパート#17 ──────────────────────────────────────────────────の Continued on the front page (72) Inventor Rudolph Marten Ball United States 10507, Nottingham Road 83, Bedford Hills, NY (72) Inventor Citra Doray United States 10541, Maple, New York Avenue 7 (72) Inventor Narini Kay Larsa, United States 20603, White Plains, NY, Granada Clesent 14, Apartment # 17

Claims (16)

【特許請求の範囲】[Claims] 【請求項1】 1つ以上のバイオメトリックスそれぞれ
のコントロールされた変化にともなう時間間隔にわた
り、対象者から1つ以上の前記バイオメトリックスのセ
ットを取得する取得デバイスと、 前記バイオメトリックスおよび前記コントロールされた
それぞれの変化および結果バイオメトリックスである結
合されたバイオメトリックスと時間に対するそれぞれコ
ントロールされた変化とを対応させて記憶する記憶手段
と、を含むバイオメトリックス・システム。
An acquisition device for acquiring one or more sets of said biometrics from a subject over a time interval associated with a controlled change in each of said one or more biometrics; and said biometrics and said controlled Storage means for storing the associated biometrics, which are each change and the resulting biometrics, and the respective controlled changes over time, in association with each other.
【請求項2】 前記バイオメトリックスは、生理的バイ
オメトリックス、行動的バイオメトリックス、指紋、
顔、掌紋、虹彩、網膜、足紋、歩調、署名、キー・スト
ローク・パターン、および声のいずれか1つ以上を含
む、請求項1に記載のシステム。
2. The biometrics comprises physiological biometrics, behavioral biometrics, fingerprint,
The system of claim 1, wherein the system includes any one or more of a face, palm print, iris, retina, footprint, gait, signature, keystroke pattern, and voice.
【請求項3】 前記コントロールされた変化は、前記対
象者により実行される、請求項1に記載のシステム。
3. The system of claim 1, wherein the controlled change is performed by the subject.
【請求項4】 前記コントロールされた変化は、前記対
象者に対して外部メカニズムにより誘導される、請求項
1に記載のシステム。
4. The system of claim 1, wherein the controlled change is induced by an external mechanism to the subject.
【請求項5】 前記メカニズムは、光の変化、光の周波
数変化および光の強度変化のいずれか1以上を含む、請
求項4に記載のシステム。
5. The system of claim 4, wherein the mechanism comprises one or more of a light change, a light frequency change, and a light intensity change.
【請求項6】 前記コントロールされた変化は、前記バ
イオメトリックスの変形、力、圧力、運動、トルク、周
波数変化、ジェスチャー、エネルギー変化、音量、加速
度、およびパターンのいずれか1以上により誘導され
る、請求項1に記載のシステム。
6. The controlled change is induced by any one or more of deformation, force, pressure, motion, torque, frequency change, gesture, energy change, volume, acceleration, and pattern of the biometrics. The system according to claim 1.
【請求項7】 前記バイオメトリックスは、指紋であ
り、前記コントロールされた変化は、指の運動、指の回
転、指の圧力、および指の力のいずれか1以上を含む、
請求項1に記載のシステム。
7. The biometrics is a fingerprint, and the controlled changes include any one or more of finger movement, finger rotation, finger pressure, and finger force.
The system according to claim 1.
【請求項8】 前記バイオメトリックスは、顔であり、
前記コントロールされた変化は、顔の運動である、請求
項1に記載のシステム。
8. The biometrics is a face,
The system of claim 1, wherein the controlled change is facial movement.
【請求項9】 前記バイオメトリックスは、顔であり、
前記コントロールされた変化は、顔の変形である、請求
項1に記載のシステム。
9. The biometrics is a face,
The system of claim 1, wherein the controlled change is a facial deformation.
【請求項10】 前記バイオメトリックスは、掌であ
り、前記コントロールされた変化は、掌の運動である、
請求項1に記載のシステム。
10. The biometrics is a palm and the controlled change is palm movement.
The system according to claim 1.
【請求項11】 前記バイオメトリックスは、声であ
り、前記コントロールされた変化は、音量、周波数、パ
ターン、およびイントネーションのいずれか1以上を含
む、請求項1に記載のシステム。
11. The system of claim 1, wherein the biometrics is voice and the controlled changes include any one or more of volume, frequency, pattern, and intonation.
【請求項12】 前記バイオメトリックスは、歩調であ
り、前記コントロールされた変化は、立ち止まりパター
ン、速度、動揺、コース、姿勢、ホップ、スキップ、お
よび歩幅のいずれか1以上を含む、請求項1に記載のシ
ステム。
12. The method of claim 1, wherein the biometric is a gait and the controlled change includes any one or more of a stop pattern, speed, sway, course, posture, hop, skip, and stride length. The described system.
【請求項13】 前記バイオメトリックスは、署名であ
り、前記コントロールされた変化は、傾斜、ループ、ス
トレッチ、サイズ、および間隔のいずれか1以上を含
む、請求項1に記載のシステム。
13. The system of claim 1, wherein the biometrics is a signature and the controlled changes include any one or more of slope, loop, stretch, size, and spacing.
【請求項14】 バイオメトリックス・システムにより
実行される方法であって、該方法は、 1つ以上のバイオメトリックスそれぞれのコントロール
された変化にともなう時間間隔にわたり、対象者から1
つ以上の前記バイオメトリックスのセットを取得する段
階と、 前記バイオメトリックスおよび前記コントロールされた
それぞれの変化および結果バイオメトリックスである結
合されたバイオメトリックスと前記結合されたバイオメ
トリックスとぞれぞれのコントロールされた変化とを対
応させて記憶する段階と、を含む方法。
14. A method performed by a biometrics system, the method comprising: receiving one or more biometrics from a subject over a time interval associated with a controlled change in each;
Obtaining a set of one or more of said biometrics; a combined biometric and said combined biometric, each control being said biometric and said controlled respective change and resulting biometric. And storing the corresponding changes.
【請求項15】 1つ以上のバイオメトリックスそれぞ
れのコントロールされた変化にともなう時間間隔にわた
り、対象者から1つ以上の前記バイオメトリックスのセ
ットを取得するための取得デバイスと、 前記バイオメトリックスおよび前記コントロールされた
それぞれの変化および結果バイオメトリックスである結
合されたバイオメトリックスと前記結合されたバイオメ
トリックスとぞれぞれのコントロールされた変化とを対
応させて記憶する記憶手段と、を含むコンピュータ・シ
ステム。
15. An acquisition device for acquiring one or more sets of the biometrics from a subject over a time interval associated with a controlled change in each of the one or more biometrics; and the biometrics and the control. A computer system comprising: a combined biometric, which is each of the obtained changes and the resulting biometrics; and storage means for storing the combined biometrics and each controlled change in a corresponding manner.
【請求項16】 1つ以上のバイオメトリックスそれぞ
れのコントロールされた変化にともなう時間間隔にわた
り、対象者から1つ以上の前記バイオメトリックスのセ
ットを取得する段階と、 前記バイオメトリックスおよび前記コントロールされた
それぞれの変化および結果バイオメトリックスである結
合されたバイオメトリックスと前記結合されたバイオメ
トリックスとぞれぞれのコントロールされた変化とを対
応させて記憶する段階とを実行する、コンピュータ・プ
ログラムを含むコンピュータ可読な記録媒体。
16. Obtaining one or more sets of said biometrics from a subject over a time interval associated with a controlled change in each of said one or more biometrics; Computer-readable program comprising a computer program for performing a step of storing a combined biometric that is a change and a resulting biometric and the associated biometric and each controlled change in a corresponding manner. Recording medium.
JP2000367391A 1999-12-02 2000-12-01 System and method for recognizing and identifying subject under a series of changes controlled by the subject to biometrics, and record medium Pending JP2001212112A (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US16854099P 1999-12-02 1999-12-02
US53583400A 2000-03-28 2000-03-28
US09/535834 2000-03-28
US60/168540 2000-03-28

Publications (1)

Publication Number Publication Date
JP2001212112A true JP2001212112A (en) 2001-08-07

Family

ID=26864225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000367391A Pending JP2001212112A (en) 1999-12-02 2000-12-01 System and method for recognizing and identifying subject under a series of changes controlled by the subject to biometrics, and record medium

Country Status (2)

Country Link
JP (1) JP2001212112A (en)
GB (1) GB2356961A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006512153A (en) * 2002-12-26 2006-04-13 モトローラ・インコーポレイテッド Method and apparatus for unevenness detection
JP2017148537A (en) * 2006-11-14 2017-08-31 シーエフピーエイチ, エル.エル.シー. Method and device for wager type game

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4374759B2 (en) * 2000-10-13 2009-12-02 オムロン株式会社 Image comparison system and image comparison apparatus
JP2003051012A (en) * 2001-08-03 2003-02-21 Nec Corp Method and device for authenticating user
WO2005024706A1 (en) * 2003-09-11 2005-03-17 Philips Intellectual Property & Standards Gmbh Fingerprint detection using sweep-type imager with optoelectronic speed sensor
US20090169070A1 (en) * 2007-12-28 2009-07-02 Apple Inc. Control of electronic device by using a person's fingerprints
JP2010061577A (en) * 2008-09-05 2010-03-18 Fujitsu Ltd Function starting device, function starting method, and function start processing program
US9672409B2 (en) * 2015-07-03 2017-06-06 Fingerprint Cards Ab Apparatus and computer-implemented method for fingerprint based authentication

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4946276A (en) * 1988-09-23 1990-08-07 Fingermatrix, Inc. Full roll fingerprint apparatus
JP2557796B2 (en) * 1993-10-19 1996-11-27 株式会社エニックス Piezoelectric surface pressure input panel
GB2319648A (en) * 1996-11-21 1998-05-27 Nicholas Turville Bullivant Signature verification
JP3353878B2 (en) * 1997-07-03 2002-12-03 富士通株式会社 Rotating fingerprint impression collection method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006512153A (en) * 2002-12-26 2006-04-13 モトローラ・インコーポレイテッド Method and apparatus for unevenness detection
JP2017148537A (en) * 2006-11-14 2017-08-31 シーエフピーエイチ, エル.エル.シー. Method and device for wager type game

Also Published As

Publication number Publication date
GB2356961A (en) 2001-06-06
GB0029202D0 (en) 2001-01-17

Similar Documents

Publication Publication Date Title
US7054470B2 (en) System and method for distortion characterization in fingerprint and palm-print image sequences and using this distortion as a behavioral biometrics
Abozaid et al. Multimodal biometric scheme for human authentication technique based on voice and face recognition fusion
Ribarić et al. Multimodal biometric user-identification system for network-based applications
Jain et al. Fingerprint matching
Soltane et al. Multi-modal biometric authentications: concept issues and applications strategies
Deriche Trends and challenges in mono and multi biometrics
Matyáš et al. Biometric authentication systems
JP2001212112A (en) System and method for recognizing and identifying subject under a series of changes controlled by the subject to biometrics, and record medium
Yin et al. Fusion of face recognition and facial expression detection for authentication: a proposed model
Iwasokun et al. Multi-modal biometrics: applications, strategies and operations
Vinothkanna et al. A novel multimodal biometrics system with fingerprint and gait recognition traits using contourlet derivative weighted rank fusion
Barde et al. Classification of biometrics and implementation strategies
Shubhangi et al. Multi-biometric approaches to face and fingerprint biometrics
Mariño et al. Retinal angiography based authentication
Goranin et al. Evolutionary Algorithms Application Analysis in Biometric Systems.
Ahmed et al. Intelligent Technique for Human Authentication using Fusion of Finger and Dorsal Hand Veins
Mitica-Valentin et al. Biometric security: Recognition according to the pattern of palm veins
CA2340501A1 (en) System, method, and program product for authenticating or identifying a subject through a series of controlled changes to biometrics of the subject
Ozkaya et al. Intelligent face border generation system from fingerprints
Melin et al. Human Recognition using Face, Fingerprint and Voice
Chahal et al. A comparative study of various biometric approaches
Pankanti et al. Biometrics: Promising frontiers for emerging identification market
Tiwari et al. An efficient fingerprint matching using continuous minutiae template learning
Srivastva et al. Biometrics based identification techniques (BIT)
Donida Labati Contactless fingerprint biometrics: Acquisition, processing, and privacy protection

Legal Events

Date Code Title Description
A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20031127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040601

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20040608