JPH0721366A - Individual identifying device - Google Patents

Individual identifying device

Info

Publication number
JPH0721366A
JPH0721366A JP5145953A JP14595393A JPH0721366A JP H0721366 A JPH0721366 A JP H0721366A JP 5145953 A JP5145953 A JP 5145953A JP 14595393 A JP14595393 A JP 14595393A JP H0721366 A JPH0721366 A JP H0721366A
Authority
JP
Japan
Prior art keywords
image
palm
input
personal identification
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5145953A
Other languages
Japanese (ja)
Other versions
JP3467052B2 (en
Inventor
Takaomi Sekiya
尊臣 関谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
Original Assignee
Asahi Kogaku Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kogaku Kogyo Co Ltd filed Critical Asahi Kogaku Kogyo Co Ltd
Priority to JP14595393A priority Critical patent/JP3467052B2/en
Priority to US08/261,968 priority patent/US5526436A/en
Priority to DE4421242A priority patent/DE4421242B4/en
Publication of JPH0721366A publication Critical patent/JPH0721366A/en
Application granted granted Critical
Publication of JP3467052B2 publication Critical patent/JP3467052B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/14Vascular patterns
    • G06V40/145Sensors therefor

Abstract

PURPOSE:To provide an individual identifying device with improved safety and less burdens of a user utilizing the information of a living body for which feature points are less compared to fingerprints. CONSTITUTION:This device is constituted of an illumination means constituted of a light source 3 and a light projecting lens group 4, a prism 5 as a transparent body block and an image reception means composed of an image forming lens group 9 and an image reception element 10 and is provided with an input device 2 for placing a hand 1 and fetching the images of a palm as pictures and a computer 14 for processing picture data outputted from the image reception element 10. The computer 14 demonstrates a function as a storage means for storing a feature amount as individual identification information at the time of registration and also functions as a discrimination means for judging whether or not the stored feature amount coincides with the feature amount extracted from palm images obtained from the output of the image reception element 10 at the time of collation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、例えばセキュリティ
ーシステムの一部を構成する個人識別装置に関し、特
に、生体の個体差を識別情報として用いる装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a personal identification device which constitutes, for example, a part of a security system, and more particularly to a device which uses individual differences of living bodies as identification information.

【0002】[0002]

【従来の技術】従来、セキュリティーシステムの入退出
管理等に利用される個人識別装置としては、暗証番号を
入力する方式、ID番号が登録されたカードの情報を磁
気、あるいは光により読み取る方式、指紋、虹彩、眼底
血管等の生体情報を利用する方式等が知られている。
2. Description of the Related Art Conventionally, personal identification devices used for entry / exit management of security systems include a method of inputting a personal identification number, a method of magnetically or optically reading information on a card in which an ID number is registered, and a fingerprint. There are known methods using biometric information such as, iris, and fundus blood vessels.

【0003】例えば、指紋を利用する装置は、特開昭6
3−123168号公報に開示され、虹彩を利用するシ
ステムは特開昭62−501889号公報に開示され
る。
For example, a device utilizing a fingerprint is disclosed in Japanese Patent Laid-Open No.
A system utilizing an iris is disclosed in Japanese Patent Application Laid-Open No. 62-501889.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、暗証番
号を利用する方式では脅迫等により暗証番号が他人に洩
れる可能性があり、カードを利用する方式では紛失や盗
難によりカードが他人の手に渡る可能性があり、安全性
に問題がある。
However, in the method of using a personal identification number, there is a possibility that the personal identification number will be leaked to another person due to threats or the like, and in the method of using a card, the card can be lost or stolen to another person's hand. There is a problem with safety.

【0005】また、虹彩、眼底血管を利用する方式で
は、上記の方式より安全性は高くなるが、検出のために
目に光を入れる必要があり、利用者の負担が大きいとい
う問題がある。
Further, the method using the iris and the fundus blood vessel is higher in safety than the above-mentioned method, but has a problem that it is necessary to illuminate the eyes for detection, which imposes a heavy burden on the user.

【0006】さらに、指紋はパターンが複雑であるため
に特徴点が100以上となり、指紋を利用する方式では
識別処理に多くの時間が必要となる。
Further, since the fingerprint has a complicated pattern, the number of characteristic points is 100 or more, and a method using the fingerprint requires a lot of time for the identification process.

【0007】[0007]

【発明の目的】この発明は、上述した従来技術の課題に
鑑みてなされたものであり、安全性が高いと共に、利用
者の負担が少なく、かつ、特徴点が指紋に比べて少ない
生体情報を利用した個人識別装置を提供することを目的
とする。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-mentioned problems of the prior art, and provides biometric information with high safety, less burden on the user, and less characteristic points than fingerprints. It is intended to provide a personal identification device used.

【0008】[0008]

【課題を解決するための手段】掌は、厚い皮膚で構成さ
れる隆起部と、皮膚が薄くへこんだ皺部とで構成されて
いる。そして、掌には、一般に運命線、生命線、頭脳線
と呼ばれる比較的太く長い3本の皺があり、この皺のパ
ターンである手相は個人毎に異なるため、これを個人識
別情報として利用することができる。
Means for Solving the Problems The palm is composed of a raised portion formed of thick skin and a wrinkled portion of thin skin. The palm has three relatively thick and long wrinkles generally called fate line, lifeline, and brain line, and the palm that is the pattern of these wrinkles is different for each individual, so use this as personal identification information. You can

【0009】この発明にかかる個人識別装置は、識別情
報としてこの手相を用いることを特徴とし、具体的に
は、手相の像を画像として取り込む入力手段と、取り込
んだ手相の画像から個人の特徴量を抽出する抽出手段
と、登録時に、特徴量を個人識別情報として記憶する記
憶手段と、照合時に、記憶手段に記憶された特徴量と、
入力手段から出力される手相像に基づいて抽出される特
徴量とが一致するか否かを判断する判別手段とを備える
ことを特徴とする。
The personal identification device according to the present invention is characterized in that this palm is used as identification information. Specifically, the input means for capturing an image of the palm as an image and the feature amount of the individual from the captured palm image. An extraction unit for extracting the feature amount, a storage unit for storing the feature amount as personal identification information at the time of registration, and a feature amount stored in the storage unit for matching.
And a discriminating unit for discriminating whether or not the feature amount extracted based on the palm image output from the input unit matches.

【0010】[0010]

【実施例】以下、この発明にかかる個人識別装置の実施
例を説明する。図1は、実施例の個人識別装置の基本的
な構成例を示す。
Embodiments of the personal identification device according to the present invention will be described below. FIG. 1 shows a basic configuration example of the personal identification device of the embodiment.

【0011】この装置は、図1、図2に示すように、手
1を載せて掌の像を画像として取り込む入力装置2を備
えている。この入力装置2は、光源3及び投光レンズ群
4から構成される照明手段と、透明体ブロックとしての
プリズム5と、結像レンズ群9及び受像素子10から成
る受像手段とから構成されている。
As shown in FIGS. 1 and 2, this apparatus includes an input device 2 on which a hand 1 is placed and a palm image is captured as an image. The input device 2 includes an illuminating unit including a light source 3 and a light projecting lens group 4, a prism 5 as a transparent block, and an image receiving unit including an image forming lens group 9 and an image receiving element 10. There is.

【0012】光源3は、蛍光灯、白熱電球、発光ダイオ
ード、エレクトロニックルミネッセンス、レーザー等に
より構成される。プリズム5は、照明光が入射する端面
6と、手1が置かれる側に凸となる曲面である検出面7
と、反射光が射出する端面8とを備えている。また、受
像素子10には、CCDセンサー等が用いられる。
The light source 3 is composed of a fluorescent lamp, an incandescent lamp, a light emitting diode, electronic luminescence, a laser and the like. The prism 5 includes an end face 6 on which the illumination light is incident and a detection face 7 that is a curved surface that is convex on the side where the hand 1 is placed.
And an end face 8 from which reflected light is emitted. A CCD sensor or the like is used for the image receiving element 10.

【0013】光源3から発して投光レンズ群4を介して
端面6からプリズム5に入射した照明光は、端面8で内
面反射されて検出面7に対して真下から入射する。検出
面に達した照明光は、皺部に対応する部分では検出面と
掌との間にスペースが生じるために一部が検出面で反射
すると共に、残部はプリズム外へ射出し、隆起部に対応
する部分では掌が検出面に密着するために散乱する。
Illumination light emitted from the light source 3 and incident on the prism 5 from the end face 6 through the light projecting lens group 4 is internally reflected by the end face 8 and enters the detection surface 7 from directly below. The illumination light that reaches the detection surface is partially reflected by the detection surface because a space is created between the detection surface and the palm at the portion corresponding to the wrinkle, and the remaining portion is emitted to the outside of the prism to the raised portion. At the corresponding part, the palm is in close contact with the detection surface and is scattered.

【0014】受像手段である結像レンズ群9と受像素子
10とは、この例では検出面上の全ての点において臨界
角より大きな角度で反射した光線のみが達する範囲に配
置されており、受像手段には皺部からの反射光は入射せ
ず、端面8から射出した隆起部からの散乱光のみが入射
する。したがって、得られる画像は白の隆起部の中に黒
で皺部の像が形成される。
In this example, the image forming lens group 9 and the image receiving element 10, which are image receiving means, are arranged in such a range that only light rays reflected at angles larger than the critical angle reach all points on the detection surface. The reflected light from the wrinkles does not enter the image receiving means, but only the scattered light from the ridges emitted from the end face 8 enters. Therefore, the resulting image has a black wrinkled image in the white ridge.

【0015】図中の符号11は、手相の画像入力の開始
を指示するスイッチである。スイッチ11は、掌を検出
面7上に置いたときに指先で触れる位置に設けられてお
り、最も簡単には押ボタンスイッチでもよいし、指先の
接触を光電的に捉え、あるいは静電容量の変化として捉
えるスイッチであってもよい。また、スイッチを設ける
位置は、この実施例に限られず、さらに、スイッチを設
けずに後述のID番号の入力を入力開始の信号として用
いることもできる。
Reference numeral 11 in the figure is a switch for instructing the start of palm image input. The switch 11 is provided at a position touched with a fingertip when the palm is placed on the detection surface 7. The switch 11 may be a pushbutton switch in the simplest case, or the contact of the fingertip is detected photoelectrically, or the capacitance of the capacitance is changed. It may be a switch that is regarded as a change. Further, the position where the switch is provided is not limited to this embodiment, and the input of an ID number, which will be described later, can be used as a signal for starting the input without providing the switch.

【0016】受像素子10から出力される画像データ
は、モニター12に表示されると共に、フレームメモリ
を備える画像入力装置13に記憶される。コンピュータ
14は、画像入力装置13に記憶された画像データを必
要に応じて読み込み、手相のパターンを画像化して個人
の特徴量を抽出する。
The image data output from the image receiving element 10 is displayed on the monitor 12 and stored in the image input device 13 having a frame memory. The computer 14 reads the image data stored in the image input device 13 as needed, and forms an image of the palm pattern to extract an individual feature amount.

【0017】なお、コンピュータ14は、登録時には、
特徴量を個人識別情報として記憶する記憶手段としての
機能を発揮すると共に、照合時には、記憶された特徴量
と受像素子10の出力から得られる手相像から抽出され
る特徴量とが一致するか否かを判断する判別手段として
機能する。
The computer 14 registers at the time of registration.
A function as a storage unit that stores the feature amount as personal identification information is exhibited, and at the time of matching, the stored feature amount and the feature amount extracted from the palm phase image obtained from the output of the image receiving element 10 match? It functions as a determination means for determining whether or not.

【0018】モニター11は、主として登録時の確認用
として利用され、照合専用の装置として利用する際には
設ける必要はない。また、ディスプレイ装置15は、登
録時の各種の操作手順の表示、照合時の動作確認情報の
表示等に使用される。
The monitor 11 is mainly used for confirmation at the time of registration, and does not need to be provided when it is used as a device dedicated to collation. Further, the display device 15 is used for displaying various operation procedures at the time of registration, displaying operation confirmation information at the time of matching, and the like.

【0019】上記のシステムをセキュリティーシステム
の入退出管理に利用する場合には、少なくとも入力装置
2を制御対象となるオートロックが設けられたドアの近
傍に配置し、このロックをコンピュータ14からの司令
により制御する。
When the above system is used for the entrance / exit management of the security system, at least the input device 2 is arranged in the vicinity of the door provided with the automatic lock to be controlled, and this lock is commanded from the computer 14. Controlled by.

【0020】また、制御の対象となるドアが複数ある場
合には、図3に示すように入力装置2をドア毎に1台づ
つ設けると共に、画像入力装置13とコンピュータ14
とを1組設けて集中管理するよう構成することもでき
る。
When there are a plurality of doors to be controlled, one input device 2 is provided for each door as shown in FIG. 3, and the image input device 13 and the computer 14 are provided.
It is also possible to provide one set of and to perform centralized management.

【0021】さらに、図3のシステムを単位として複数
の単位システムを連結して複合システムを構成すること
もできる。図4は、その複合システムの例を示し、各単
位システムのコンピュータ14間が通信網で結ばれてお
り、個人の識別データ、開錠の履歴、あるいは各単位シ
ステムの利用状況等の情報をやり取りすることができ
る。
Furthermore, it is possible to connect a plurality of unit systems with the system of FIG. 3 as a unit to form a complex system. FIG. 4 shows an example of the complex system, in which computers 14 of each unit system are connected by a communication network, and information such as individual identification data, unlocking history, or usage status of each unit system is exchanged. can do.

【0022】このような複合システムは、例えば同一組
織の施設が複数の箇所に分散している場合に利用でき、
1つの施設で登録した識別データを他の施設においても
利用することにより、各施設において個別に登録する必
要がなく、効率的な運用が可能となる。
Such a complex system can be used, for example, when facilities of the same organization are distributed in a plurality of places,
By using the identification data registered in one facility in other facilities as well, it is not necessary to individually register in each facility, and efficient operation is possible.

【0023】次に、図5に基づいて実施例の装置の作用
を説明する。図5の例では(a)登録と(b)照合とを別個
のプログラムで処理しているが、これらの2つの機能を
共通のプログラム内で処理してもよい。
Next, the operation of the apparatus of the embodiment will be described with reference to FIG. In the example of FIG. 5, (a) registration and (b) verification are processed by separate programs, but these two functions may be processed by a common program.

【0024】処理がスタートすると、ステップ(図中で
は「S.」で示す)1において個人識別用のID番号の
入力が促され、これが入力されるとステップ2で撮像素
子10から掌の画像データが入力される。処理のスター
トは、登録プログラムを操作者が起動してもよいし、ス
テップ1のID番号入力をトリガとしてスタートさせて
もよい。
When the process starts, in step 1 (indicated by "S." in the drawing), an input of an ID number for personal identification is prompted, and when this is input, in step 2, the image data of the palm is read from the image sensor 10. Is entered. The process may be started by the operator starting the registration program, or by using the ID number input in step 1 as a trigger.

【0025】ID番号は、キーボードを用いて直接入力
してもよいし、磁気カード等を読取装置にかけて入力す
るようにしてもよい。
The ID number may be directly input using a keyboard, or may be input by placing a magnetic card or the like on a reading device.

【0026】ステップ2では、手を所定の位置に置く
と、これをスイッチ11が検出し、光源3が点灯して画
像が画像入力装置13に入力される。あるいは、ID番
号の入力により光源3を点灯させてもよい。画像の入力
が完了すると、図示せぬ告示手段により、画像入力が完
了したことを音声、光等により被測定者に知らせる。登
録時には、モニター12の表示を観察しながら、良好な
画像が得られたか否かを確認し、良好な画像が得られる
まで画像入力を繰り返すこともできる。
In step 2, when the hand is placed at a predetermined position, the switch 11 detects this, the light source 3 is turned on, and the image is input to the image input device 13. Alternatively, the light source 3 may be turned on by inputting the ID number. When the image input is completed, a notification means (not shown) informs the person to be measured that the image input is completed by voice, light or the like. At the time of registration, it is possible to confirm whether or not a good image is obtained while observing the display on the monitor 12, and repeat the image input until a good image is obtained.

【0027】ステップ3では、画像入力装置13に記憶
された画像データをコンピュータ14内で処理して画質
を改善する。入力された画像データには、図6(a)に示
すように検出対象とする3本の比較的太い皺16,1
7,18以外に、ノイズとなる細かい皺も含まれる。こ
こから微細な皺やノイズを除去するために画像データを
二値化して図6(b)に示す画像を取り出す。続いて、画
像の膨張収縮処理をして図6(c)に示すような画像デー
タを得る。なお、個人差により、画質改善処理を実行し
ても細かい皺の情報が残存する可能性があるが、画質改
善によっても消去されない皺は、個人を特定する識別情
報として意味を有するため、必ずしも図6(c)に示すよ
うな3本の皺のみを抽出する必要はない。
In step 3, the image data stored in the image input device 13 is processed in the computer 14 to improve the image quality. As shown in FIG. 6A, the input image data includes three relatively thick wrinkles 16 and 1 to be detected.
In addition to 7 and 18, fine wrinkles that become noise are also included. From this, the image data is binarized in order to remove fine wrinkles and noise, and the image shown in FIG. 6B is taken out. Subsequently, image expansion / contraction processing is performed to obtain image data as shown in FIG. It should be noted that due to individual differences, fine wrinkle information may remain even after image quality improvement processing is performed, but wrinkles that are not erased even by image quality improvement have meaning as identification information for identifying an individual, and therefore are not necessarily shown in the figure. It is not necessary to extract only three wrinkles as shown in 6 (c).

【0028】次に、ステップ4において特徴量を抽出す
るために図7に(1)〜(6)で示されるような特徴点を線
追跡手法などによりピックアップする。特徴点には、
(1)のような端点と(2)のような分岐点とがあり、円形
の画面に表示された同心円を基準として、円の中心に近
い方から順に番号が付される。
Next, in step 4, in order to extract the feature quantity, the feature points as shown in (1) to (6) in FIG. 7 are picked up by a line tracing method or the like. The feature points are
There is an end point as in (1) and a branch point as in (2), and numbers are given in order from the center closer to the center of the concentric circle displayed on the circular screen.

【0029】特徴量としては、図7に黒点で示される各
特徴点の数や位置的座標、図8に*印で示されるような
各特徴点から延びる枝線を等分割した点の座標、図9の
矢印で示される枝線の方向ベクトルや特徴点間の接続関
係、同じく図9中の符号a〜dで示される各ベクトルの
なす角度、図10のe〜iで示される枝線上の分割点を
結ぶ直線がなす角度(この例ではh=0)等が考えられ
る。これらの特徴量を単独で、あるいは複数組み合せて
個人を特定する識別情報として利用する。
As the feature quantity, the number and positional coordinates of each feature point indicated by black dots in FIG. 7, the coordinates of points obtained by equally dividing the branch line extending from each feature point as indicated by * in FIG. The directional vector of the branch line indicated by the arrow in FIG. 9 and the connection relation between the feature points, the angle formed by each vector indicated by the symbols a to d in FIG. 9, and the branch line indicated by e to i in FIG. An angle (h = 0 in this example) formed by a straight line connecting the division points can be considered. These feature quantities are used alone or in combination as identification information for identifying an individual.

【0030】登録時には、ステップ4からステップ5へ
進み、抽出された特徴量をID番号と共にディスク装置
等に記録してデータを保存し、処理を終了する。
At the time of registration, the process proceeds from step 4 to step 5, the extracted characteristic amount is recorded together with the ID number in the disk device or the like to save the data, and the process is ended.

【0031】照合時には、ステップ6において登録され
ている保存データからID番号をキーにして特徴量を呼
び出し、ステップ7で入力されたデータから抽出された
特徴量と保存されていたデータの特徴量とを比較する。
登録時と照合時とで掌の方向が回転する場合等も予測さ
れるため、比較の際には所定の許容範囲を設けてもよ
い。特徴量として、ベクトルのなす角度や、特徴点間の
接続関係を用いた場合には、回転による影響を受けにく
くすることができる。
At the time of matching, the feature amount is called from the stored data registered in step 6 using the ID number as a key, and the feature amount extracted from the data input in step 7 and the feature amount of the stored data are compared. To compare.
Since it is predicted that the direction of the palm will rotate during registration and during verification, a predetermined allowable range may be set during comparison. When the angle formed by the vector or the connection relation between the feature points is used as the feature amount, the influence of rotation can be reduced.

【0032】また、上記のズレが許容範囲を越える場合
や、ID番号の入力ミス等の誤操作に対応するため、照
合時には比較結果が他人であるときにもステップ1から
の動作を所定回数繰り返すよう設定してもよい。
Further, when the above deviation exceeds the permissible range or in response to an erroneous operation such as an ID number input error, the operation from step 1 is repeated a predetermined number of times even when the comparison result is another person at the time of collation. You may set it.

【0033】比較の結果、本人であると確認されれば、
ステップ8からステップ9へ進み、ドアのロックを解除
する等の対応動作をして処理を終了し、本人であること
が確認できなければ、ステップ10へ進んでロックを解
除しない等拒否動作をして処理を終了する。
As a result of the comparison, if the person is confirmed to be the person,
When the process proceeds from step 8 to step 9 and the corresponding action such as unlocking the door is completed and the process is terminated, and if the person cannot be confirmed, the process proceeds to step 10 and a denial action such as not releasing the lock is performed. Ends the process.

【0034】画像データをそのまま保存するのでなく、
特徴量を抽出してから保存するため、保存される個々デ
ータの情報量をコンパクトにすることができると共に、
照合時にも迅速に判別することができる。
Instead of saving the image data as it is,
Since the feature quantity is extracted and then saved, the information quantity of the individual data to be saved can be made compact, and
It is possible to quickly determine even at the time of collation.

【0035】なお、上記の例では、ID番号と手相の特
徴量とをリンクさせて管理しているが、照合処理の時間
が短い場合、すなわち、登録されるデータ件数が少ない
か、1件当たりの特徴量のデータ容量を少なく限定して
いる等の場合には、ID番号を使用せずに、入力された
画像から抽出された特徴量を、登録されている特徴量の
データと逐一比較することにより、照合することもでき
る。
In the above example, the ID number and the feature amount of the palm are linked and managed. However, when the matching process time is short, that is, the number of registered data items is small or When the data amount of the feature amount is limited to a small amount, the feature amount extracted from the input image is compared with the registered feature amount data without using the ID number. By doing so, it is possible to collate.

【0036】次に、上述した入力装置2の他の構成例を
説明する。プリズム5に対する照明装置と撮像装置との
配置については、検出面7での照明光の反射の仕方によ
り、以下の3通りの組み合せが考えられる。
Next, another configuration example of the input device 2 described above will be described. Regarding the arrangement of the illuminating device and the imaging device with respect to the prism 5, the following three combinations can be considered depending on the way of reflecting the illumination light on the detection surface 7.

【0037】第1は、検出面での全反射光を直接利用す
る場合である。この場合には、照明光を検出面の各点に
おける臨界角より大きな角度で検出面へ入射させると共
に、受像手段を臨界角より大きな角度範囲に配置する。
照明光は、皺部に対応する部分では検出面で全反射して
受像手段に到り、隆起部に対応する部分では散乱してそ
の一部が受像手段に達する。したがって、得られる画像
は、グレーの隆起部の中に白で皺部の像が形成される。
The first is a case where the total reflection light on the detection surface is directly used. In this case, the illumination light is made incident on the detection surface at an angle larger than the critical angle at each point on the detection surface, and the image receiving means is arranged in an angle range larger than the critical angle.
The illumination light is totally reflected by the detection surface at the portion corresponding to the wrinkle and reaches the image receiving means, and is scattered at the portion corresponding to the raised portion and a part thereof reaches the image receiving means. Therefore, the resulting image is white and wrinkled in the gray ridge.

【0038】第2は、検出面での全反射光を間接的に利
用する場合である。この場合には、照明光を臨界角より
大きな角度で検出面へ入射させると共に、受像手段を全
反射光が到達しない範囲に配置する。全反射光が到達し
ないのは、全反射した光束が射出する側における臨界角
より小さな角度範囲と、照明手段と同一のサイドとであ
る。照明光は、皺部に対応する部分では検出面で全反射
して受像手段へ到達せず、隆起部に対応する部分での散
乱光の一部が受像手段に達する。したがって、得られる
画像は、グレーの隆起部の中に黒で皺部の像が形成され
る。但し、撮像手段を照明手段と同一のサイドに設ける
場合には、隆起部からの戻り光が比較的少なくなるた
め、画像のコントラストを高めることは難しい。
The second is a case where the total reflection light on the detection surface is indirectly used. In this case, the illumination light is made incident on the detection surface at an angle larger than the critical angle, and the image receiving means is arranged in a range where the totally reflected light does not reach. The totally reflected light does not reach the angle range smaller than the critical angle on the side where the totally reflected light flux exits, and the same side as the illumination means. Illumination light is totally reflected on the detection surface at the portion corresponding to the wrinkle and does not reach the image receiving means, but a part of the scattered light at the portion corresponding to the raised portion reaches the image receiving means. Thus, the resulting image will have a black wrinkled image within the gray ridge. However, when the image pickup means is provided on the same side as the illuminating means, it is difficult to increase the contrast of the image because the light returning from the raised portion is relatively small.

【0039】第3は、検出面での全反射光を全く利用し
ない場合である。この場合には、照明光を臨界角より小
さな角度で検出面へ入射させると共に、受像手段を臨界
角より大きな角度範囲に配置する。照明光は、皺部に対
応する部分では一部が検出面を透過して皺部に達し、皺
部で反射されて検出面に入射すると共に、残りは検出面
で反射され、いずれも臨界角内で進むために受像手段に
は達しない。一方、隆起部に対応する部分での散乱光
は、その一部が受像手段に達する。したがって、得られ
る画像は白の隆線部の中に黒で皺部の像が形成される。
前述の図1に示した構成は、この第3の条件をみたすよ
う各装置が配置されている。
Third, there is no use of totally reflected light on the detection surface. In this case, the illumination light is made incident on the detection surface at an angle smaller than the critical angle, and the image receiving means is arranged in an angle range larger than the critical angle. In the part corresponding to the wrinkle, the illumination light partially passes through the detection surface and reaches the wrinkle, is reflected by the wrinkle and enters the detection surface, and the rest is reflected by the detection surface. The image receiving means is not reached because it proceeds inside. On the other hand, a part of the scattered light at the portion corresponding to the raised portion reaches the image receiving means. Therefore, the obtained image has a black wrinkled image formed in the white ridge.
In the configuration shown in FIG. 1 described above, the devices are arranged so as to satisfy the third condition.

【0040】図11に示す実施例2では、上述した第1
の条件で各手段が配置されている。光源3から発して投
光レンズ群4を介して端面6からプリズム5に入射した
照明光は、検出面7に対して臨界角より大きな角度で入
射するため、皺部に対応する部分では全反射されると共
に、隆起部に対応する部分では散乱する。皺部からの全
反射光と隆起部における散乱光の一部は、端面8から射
出して結像レンズ群9を介して受像素子10上に結像す
る。
In the second embodiment shown in FIG. 11, the above-mentioned first
Each means is arranged under the condition of. The illumination light emitted from the light source 3 and incident on the prism 5 from the end face 6 through the light projecting lens group 4 is incident on the detection surface 7 at an angle larger than the critical angle, so that the portion corresponding to the wrinkle portion is totally reflected. At the same time, it is scattered at the portion corresponding to the raised portion. Part of the total reflected light from the wrinkles and the scattered light at the raised portions exits from the end face 8 and forms an image on the image receiving element 10 via the imaging lens group 9.

【0041】図12に示す実施例3では、上記の第2の
条件で各手段が配置されている。光源3を発して投光レ
ンズ群4を透過した照明光は、プリズムの端面8からプ
リズム5内に入射する。照明光は、検出面7に対して臨
界角より大きな角度で入射するため、皺部に対応する部
分では全反射されてプリズムの他方の端面6からプリズ
ム外に射出する。隆起部に対応する部分で散乱された照
明光の一部は、端面8からプリズム外に射出して結像レ
ンズ群9を介して受像素子10に達する。
In the third embodiment shown in FIG. 12, each means is arranged under the above-mentioned second condition. The illumination light emitted from the light source 3 and transmitted through the light projecting lens group 4 enters the prism 5 from the end surface 8 of the prism. Since the illumination light is incident on the detection surface 7 at an angle larger than the critical angle, the illumination light is totally reflected at the portion corresponding to the wrinkle and is emitted from the other end surface 6 of the prism to the outside of the prism. A part of the illumination light scattered at the portion corresponding to the raised portion is emitted from the end face 8 to the outside of the prism and reaches the image receiving element 10 via the imaging lens group 9.

【0042】図13に示す実施例4では、上記の第3の
条件で各手段が配置されてる。光源3から発して投光レ
ンズ群4を透過した照明光は、プリズム5の端面6から
入射して検出面7に対して臨界角より小さい角度で入射
する。照明光は、皺部に対応する部分では一部が検出面
で反射すると共に、残部はプリズム外へ射出し、隆起部
に対応する部分では散乱する。
In the fourth embodiment shown in FIG. 13, the respective means are arranged under the above third condition. Illumination light emitted from the light source 3 and transmitted through the light projecting lens group 4 enters from the end surface 6 of the prism 5 and enters the detection surface 7 at an angle smaller than the critical angle. A part of the illumination light is reflected by the detection surface at the portion corresponding to the wrinkle, the rest is emitted outside the prism, and is scattered at the portion corresponding to the raised portion.

【0043】受像手段である結像レンズ群9と受像素子
10とは、臨界角より大きな角度範囲に配置されている
ため、受像手段には皺部からの反射光は入射せず、端面
8から射出した隆起部からの散乱光のみが入射する。
Since the image forming lens group 9 and the image receiving element 10 which are image receiving means are arranged in an angle range larger than the critical angle, the reflected light from the wrinkles does not enter the image receiving means and the end face 8 is formed. Only the scattered light emitted from the raised portion is incident.

【0044】第3の条件を満たすためには、図13に破
線で示したように端面8側から照明光を入射させるよう
光源3と投光レンズ群4とを配置してもよいし、実線で
示した光源と破線で示した光源とを同時に点灯させても
よい。また、図14に示す実施例5のように、プリズム
5の真下から照明してもよい。ただし、図13の破線位
置や図14の位置に照明手段を設ける場合には、端面8
で直接反射された光束が受像手段に達しないよう配慮す
る必要がある。
In order to satisfy the third condition, the light source 3 and the light projecting lens group 4 may be arranged so that the illumination light enters from the end face 8 side as shown by the broken line in FIG. The light source shown by and the light source shown by the broken line may be turned on at the same time. Further, as in the fifth embodiment shown in FIG. 14, illumination may be performed from directly below the prism 5. However, when the illumination means is provided at the position shown by the broken line in FIG. 13 or the position shown in FIG.
It is necessary to take care so that the light beam directly reflected by does not reach the image receiving means.

【0045】図15に示す実施例6、および図16に示
す実施例7は、いずれも上記の条件3を満たす配置であ
る。底面6から入射した照明光は、検出面7の頂点の接
平面に対して垂直に入射し、隆起部からの散乱光が端面
8から射出して受像素子10に達する。
The sixth embodiment shown in FIG. 15 and the seventh embodiment shown in FIG. 16 are both arranged to satisfy the above condition 3. The illumination light that has entered from the bottom surface 6 enters perpendicularly to the tangent plane of the apex of the detection surface 7, and the scattered light from the raised portion exits from the end surface 8 and reaches the image receiving element 10.

【0046】透明体ブロックとしてのプリズム5の形状
は、三角プリズムに限られず、条件を満たせば、台形や
角錐、角錐台等の形状とすることもできる。また、プリ
ズムの検出面の曲面形状は、球面のみでなく回転対称な
非球面、楕円体面、あるいは、回転非対称な非球面であ
ってもよい。
The shape of the prism 5 as the transparent block is not limited to a triangular prism, but may be a trapezoid, a pyramid, a truncated pyramid, or the like if the conditions are satisfied. Further, the curved surface shape of the detection surface of the prism may be not only a spherical surface but also a rotationally symmetric aspherical surface, an ellipsoidal surface, or a rotationally asymmetrical aspherical surface.

【0047】なお、検出面7の周辺部から頂点までの高
さの差h(図17参照)は、掌の窪みに合わせて設定すれ
ばよいが、個人差により、また、掌への力の入れ具合に
より、1mm〜10mm程度のばらつきが認められた
(サンプル数30名)。したがって、hは2mmから8m
mの範囲に設定すれば、一般に掌にフィットする形状と
なる。また、検出面の曲面部の直径wは、45mmから
75mmの範囲にあればよい。
The height difference h (see FIG. 17) from the peripheral portion of the detection surface 7 to the apex may be set according to the depression of the palm, but it depends on the individual difference and the force applied to the palm. A variation of about 1 mm to 10 mm was recognized depending on the insertion condition.
(30 samples). Therefore, h is 2 mm to 8 m
If it is set in the range of m, the shape generally fits the palm. The diameter w of the curved surface portion of the detection surface may be in the range of 45 mm to 75 mm.

【0048】[0048]

【発明の効果】以上説明したように、この発明によれ
ば、個人を特定する識別情報として手相を用いることに
より、安全で、利用者にかかる負担を小さくしつつ、か
つ、指紋を用いるよりも少ない特徴点で、すなわち短時
間で判別が可能な個人識別装置を提供することができ
る。
As described above, according to the present invention, by using a palm as identification information for identifying an individual, it is safer and less burdens the user, and more than using a fingerprint. It is possible to provide a personal identification device that can be discriminated with a small number of characteristic points, that is, in a short time.

【0049】また、入力手段として凸の曲面を検出面と
して備える透明体ブロックを利用することにより、掌全
体の像を正確に検出することができる。
Further, by using a transparent block having a convex curved surface as a detection surface as the input means, the image of the entire palm can be accurately detected.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明にかかる個人識別装置の実施例1を
示す説明図である。
FIG. 1 is an explanatory diagram showing a first embodiment of a personal identification device according to the present invention.

【図2】 図1に示す入力装置の斜視図である。FIG. 2 is a perspective view of the input device shown in FIG.

【図3】 複数の入力装置を一台のコンピュータで管理
する場合の単位システムのシステム図である。
FIG. 3 is a system diagram of a unit system when a plurality of input devices are managed by one computer.

【図4】 1台、または複数の入力装置を管理する複数
のコンピュータ間を通信網で接続した複合システムのシ
ステム図である。
FIG. 4 is a system diagram of a complex system in which one computer or a plurality of computers that manage a plurality of input devices are connected by a communication network.

【図5】 この発明の実施例の装置の作動を示すフロー
チャートである。
FIG. 5 is a flowchart showing the operation of the apparatus according to the embodiment of the present invention.

【図6】 (a)は入力される掌の画像を示す説明図、
(b)は(a)の画像データを二値化して得られる画像を示
す説明図、(c)は(b)の画像データを膨張収縮処理して
得られる画像を示す説明図である。
6A is an explanatory diagram showing an image of an input palm, FIG.
(b) is an explanatory view showing an image obtained by binarizing the image data of (a), and (c) is an explanatory diagram showing an image obtained by expanding and contracting the image data of (b).

【図7】 図6の画像データから特徴点を抽出した状態
を示す説明図である。
7 is an explanatory diagram showing a state in which feature points are extracted from the image data of FIG.

【図8】 特徴量を特徴点間の分割点の座標として捉え
る場合の説明図である。
FIG. 8 is an explanatory diagram of a case where a feature amount is regarded as coordinates of division points between feature points.

【図9】 特徴量を特徴点の分割点間や特徴点間を結ぶ
ベクトル、あるいは、これらのベクトルのなす角度とし
て捉える場合の説明図である。
FIG. 9 is an explanatory diagram in a case where the feature amount is regarded as a vector connecting the dividing points of the feature points or a vector connecting the feature points, or an angle formed by these vectors.

【図10】 特徴量を分割点を結ぶ直線のなす角度とし
て捉える場合の説明図である。
FIG. 10 is an explanatory diagram of a case where a feature amount is regarded as an angle formed by a straight line connecting division points.

【図11】 実施例2にかかる入力装置の光学系を示す
説明図である。
FIG. 11 is an explanatory diagram showing an optical system of the input device according to the second embodiment.

【図12】 実施例3にかかる入力装置の光学系を示す
説明図である。
FIG. 12 is an explanatory diagram showing an optical system of an input device according to a third embodiment.

【図13】 実施例4にかかる入力装置の光学系を示す
説明図である。
FIG. 13 is an explanatory diagram showing an optical system of an input device according to a fourth embodiment.

【図14】 実施例5にかかる入力装置の光学系を示す
説明図である。
FIG. 14 is an explanatory diagram showing an optical system of an input device according to a fifth embodiment.

【図15】 実施例6にかかる入力装置の光学系を示す
説明図である。
FIG. 15 is an explanatory diagram showing an optical system of an input device according to a sixth embodiment.

【図16】 実施例7にかかる入力装置の光学系を示す
説明図である。
FIG. 16 is an explanatory diagram showing an optical system of an input device according to a seventh embodiment.

【図17】 プリズムの曲面の大きさを示す説明図であ
る。
FIG. 17 is an explanatory diagram showing the size of the curved surface of the prism.

【符号の説明】[Explanation of symbols]

1…手 2…入力装置 3…光源 4…投光レンズ群 5…プリズム 7…検出面 6…端面 8…端面 9…結像レンズ群 10…受像素子 14…コンピュータ DESCRIPTION OF SYMBOLS 1 ... Hand 2 ... Input device 3 ... Light source 4 ... Projection lens group 5 ... Prism 7 ... Detection surface 6 ... End surface 8 ... End surface 9 ... Imaging lens group 10 ... Image receiving element 14 ... Computer

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】手相の像を画像として取り込む入力手段
と、 取り込んだ手相の画像から個人の特徴量を抽出する抽出
手段と、 登録時に、前記特徴量を個人識別情報として記憶する記
憶手段と、 照合時に、前記記憶手段に記憶された特徴量と、前記入
力手段から出力される手相像に基づいて抽出される特徴
量とが一致するか否かを判断する判別手段とを備えるこ
とを特徴とする個人識別装置。
1. Input means for capturing a palm image as an image, extracting means for extracting a characteristic amount of an individual from the captured palm image, and storage means for storing the characteristic amount as personal identification information at the time of registration. At the time of matching, it is provided with a determination unit that determines whether or not the feature amount stored in the storage unit and the feature amount extracted based on the palm image output from the input unit match. Personal identification device.
【請求項2】前記入力装置は、掌を密着させる曲面を有
する透明体ブロックと、該透明体ブロックの内部から前
記掌を照明する照明装置と、前記掌が密着された曲面か
らの反射光を受光して手相の像を検出する撮像装置とか
ら構成されることを特徴とする請求項1に記載の個人識
別装置。
2. The input device includes a transparent block having a curved surface for closely contacting the palm, an illuminating device for illuminating the palm from the inside of the transparent block, and a reflected light from the curved surface for close contact with the palm. The personal identification device according to claim 1, comprising an imaging device that receives light and detects an image of a palm.
【請求項3】前記入力手段と、前記抽出手段と、前記記
憶手段と、前記判別手段とがそれぞれ1つづつ設けられ
て構成されることを特徴とする請求項1に記載の個人識
別装置。
3. The personal identification device according to claim 1, wherein each of the input unit, the extraction unit, the storage unit, and the determination unit is provided.
【請求項4】前記入力手段が複数設けられ、前記抽出手
段、前記記憶手段、前記判別手段はそれぞれ1つづつ設
けられ、前記複数の入力手段からの情報を一括して処理
することを特徴とする請求項1に記載の個人識別装置。
4. A plurality of the input means are provided, and one each of the extraction means, the storage means, and the determination means are provided, and the information from the plurality of input means is collectively processed. The personal identification device according to claim 1.
【請求項5】前記入力手段と、前記抽出手段と、前記記
憶手段と、前記判別手段とがそれぞれ複数設けられ、前
記複数の判別手段の間でデータ転送が可能な通信網を有
することを特徴とする請求項1に記載の個人識別装置。
5. A plurality of said input means, said extraction means, said storage means, and said discriminating means are provided respectively, and a communication network capable of data transfer between said plural discriminating means is provided. The personal identification device according to claim 1.
JP14595393A 1993-06-17 1993-06-17 Personal identification device Expired - Fee Related JP3467052B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP14595393A JP3467052B2 (en) 1993-06-17 1993-06-17 Personal identification device
US08/261,968 US5526436A (en) 1993-06-17 1994-06-17 Image detecting apparatus for an individual identifying system
DE4421242A DE4421242B4 (en) 1993-06-17 1994-06-17 Image capture device for an identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14595393A JP3467052B2 (en) 1993-06-17 1993-06-17 Personal identification device

Publications (2)

Publication Number Publication Date
JPH0721366A true JPH0721366A (en) 1995-01-24
JP3467052B2 JP3467052B2 (en) 2003-11-17

Family

ID=15396855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14595393A Expired - Fee Related JP3467052B2 (en) 1993-06-17 1993-06-17 Personal identification device

Country Status (1)

Country Link
JP (1) JP3467052B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0731426A2 (en) * 1995-03-10 1996-09-11 Neldon P. Johnson Process for encrypting a fingerprint onto an I.D. card
KR20010089241A (en) * 2000-03-10 2001-09-29 타테이시 요시오 Fingerprint Recognition Device and Fingerprint Reading Window Construction
US6370263B1 (en) 1998-01-14 2002-04-09 Nec Corporation Method and device for registering and collating palm imprints
KR100347269B1 (en) * 1999-08-26 2002-08-07 주식회사 세코닉스 Fingerprint recognition device
JP2002532809A (en) * 1998-12-17 2002-10-02 アイデンティックス・インコーポレイテッド Apparatus and method for optically imaging hand surface features
CN1111821C (en) * 1996-12-06 2003-06-18 株式会社山武 Finger print input device
CN100353380C (en) * 2004-10-08 2007-12-05 富士通株式会社 Biometrics authentication system registration method, biometrics authentication system, and program for same
KR20160011224A (en) * 2013-06-07 2016-01-29 모르포 Device for capturing an image representing an impression of a body part of a person

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0731426A2 (en) * 1995-03-10 1996-09-11 Neldon P. Johnson Process for encrypting a fingerprint onto an I.D. card
EP0731426A3 (en) * 1995-03-10 1999-01-27 Neldon P. Johnson Process for encrypting a fingerprint onto an I.D. card
CN1111821C (en) * 1996-12-06 2003-06-18 株式会社山武 Finger print input device
US6370263B1 (en) 1998-01-14 2002-04-09 Nec Corporation Method and device for registering and collating palm imprints
JP2002532809A (en) * 1998-12-17 2002-10-02 アイデンティックス・インコーポレイテッド Apparatus and method for optically imaging hand surface features
KR100347269B1 (en) * 1999-08-26 2002-08-07 주식회사 세코닉스 Fingerprint recognition device
KR20010089241A (en) * 2000-03-10 2001-09-29 타테이시 요시오 Fingerprint Recognition Device and Fingerprint Reading Window Construction
CN100353380C (en) * 2004-10-08 2007-12-05 富士通株式会社 Biometrics authentication system registration method, biometrics authentication system, and program for same
KR20160011224A (en) * 2013-06-07 2016-01-29 모르포 Device for capturing an image representing an impression of a body part of a person

Also Published As

Publication number Publication date
JP3467052B2 (en) 2003-11-17

Similar Documents

Publication Publication Date Title
JPH0721373A (en) Individual identifying device
KR100918286B1 (en) Living body guidance control method for a biometrics authentication device, and biometrics authentication device
AU776356B2 (en) User authentication apparatus which uses biometrics and user authentication method for use with user authentication apparatus
EP1780657B1 (en) Biometric system and biometric method
JP3825222B2 (en) Personal authentication device, personal authentication system, and electronic payment system
EP1387309B1 (en) Processor with personal verification function and operating device
KR101120932B1 (en) Imaging apparatus, computer-readable recording medium having imaging program recorded thereon, imaging method, authentication apparatus, computer-readable recording medium having authentication program recorded thereon, and authentication method
JPH10295674A (en) Individual identification device, individual identification method, and individual identification system
EP2755163A2 (en) Biometric information image-capturing device, biometric authentication apparatus and manufacturing method of biometric information image-capturing device
US7176973B2 (en) Iris camera module
JP3467052B2 (en) Personal identification device
JP2006309562A (en) Biological information registering device
US20220067895A1 (en) Image processing device, image processing method, and image processing system
RU2608001C2 (en) System and method for biometric behavior context-based human recognition
KR102337264B1 (en) Service using mobile digital card of app type checking biometric
JPH02191083A (en) Fingerprint picture input device
JP2007334659A (en) Individual authentication system
JP2003187235A (en) Finger vein recognition device
KR100198108B1 (en) A device of personally distinction using fingerprint and ic card
JP2001067322A (en) Individual identification system
US20020144127A1 (en) Apparatus, system and method for personal identification
JP2001056858A (en) Device and method for collating fingerprint
JP2001167280A (en) Device and method for identifying fingerprint and recording medium with fingerprint identification program recorded thereon
KR102089618B1 (en) Method and system for collecting means of publictransportation fares using bi0-information
JP2713311B2 (en) Fingerprint image input device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080829

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees