JP2009087364A - Personal authentication device and method - Google Patents

Personal authentication device and method Download PDF

Info

Publication number
JP2009087364A
JP2009087364A JP2008303419A JP2008303419A JP2009087364A JP 2009087364 A JP2009087364 A JP 2009087364A JP 2008303419 A JP2008303419 A JP 2008303419A JP 2008303419 A JP2008303419 A JP 2008303419A JP 2009087364 A JP2009087364 A JP 2009087364A
Authority
JP
Japan
Prior art keywords
image
finger
management system
blood vessel
exit management
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008303419A
Other languages
Japanese (ja)
Other versions
JP4603610B2 (en
Inventor
Naoto Miura
直人 三浦
Akio Nagasaka
晃朗 長坂
Takafumi Miyatake
孝文 宮武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2008303419A priority Critical patent/JP4603610B2/en
Publication of JP2009087364A publication Critical patent/JP2009087364A/en
Application granted granted Critical
Publication of JP4603610B2 publication Critical patent/JP4603610B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To achieve personal authentication with high precision while using a blurred finger vein pattern image which has misregistration regarding the personal authentication under circumstances where non-contact is required. <P>SOLUTION: In order to achieve the above object, a personal authentication device includes: a means for obtaining the finger vein pattern image in non-contact state, a means for performing rotation compensation by using the contour of the finger as a method of retrieving the vein pattern included in the obtained image; a means for normalizing the position of the finger image with a fingertip as a reference; a means for obtaining the overall vein pattern statistically by repeating tracing of parts where a luminance value is low just for an arbitrary length from an arbitrary position on the image; a matching means for comparing only parts where distinctive characteristics appear in the blood vessel patterns; and a means for dividing the image into small areas, performing matching for every small area independently and evaluating the amount of misregistration when they match. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、人間の指を透過した光を撮像して得られる静脈パターンを利用して個人認証
を行う装置、および方法に関する。
The present invention relates to an apparatus and method for performing personal authentication using a vein pattern obtained by imaging light transmitted through a human finger.

個人認証技術には、指紋、虹彩、音声、手の甲の静脈などに基づく方法が存在する。指
紋に基づく個人認証装置は、すでに複数の企業から製品化、販売されている。これらの製
品は、指紋を指紋センサ上に接触させることで指紋を読み取り、指紋の端点や分岐点を特
徴点として認識し、登録されている指紋の特徴点と照合することによって個人認証を行っ
ている。
In personal authentication technology, there are methods based on fingerprints, irises, voice, veins on the back of the hand, and the like. Personal authentication devices based on fingerprints have already been commercialized and sold by multiple companies. These products perform fingerprint authentication by touching the fingerprint sensor on the fingerprint sensor, recognize fingerprint endpoints and branching points as feature points, and perform personal authentication by collating them with registered fingerprint feature points. Yes.

また、特開平10-295674号公報には、手の甲の静脈に基づく個人認証装置が開示されて
いる。これによると、手の甲を撮像カメラに向け、そこから出射される光の反射光を利用
して血管パターンを取り込み、認証を行う。このとき、固定された棒状のガイドを握るこ
とによって、認証ごとに撮像する手の位置がずれないように工夫されている。
また、特開平7-21373号公報には、指静脈を用いた個人認証装置が開示され、特に、撮
影する際の光量のロスを少なくするため、光ファイバーを指に密着させて指画像を撮影す
ることが開示されている。
Japanese Patent Laid-Open No. 10-295674 discloses a personal authentication device based on the veins on the back of the hand. According to this, the back of the hand is directed to the imaging camera, and the blood vessel pattern is captured using the reflected light emitted from the imaging camera, and authentication is performed. At this time, it is devised so that the position of the hand for imaging is not shifted for each authentication by grasping the fixed rod-shaped guide.
Japanese Patent Application Laid-Open No. 7-21373 discloses a personal authentication device using a finger vein, and in particular, in order to reduce a loss of light quantity when photographing, a finger image is photographed with an optical fiber in close contact with the finger. It is disclosed.

特開平10-295674号公報JP 10-295674 A

特開平7-21373号公報Japanese Unexamined Patent Publication No. 7-21373

従来の技術では、認証の際に指紋を採取する、もしくは目の中に光を入れるなど、心理
的抵抗感の大きい方法を採用している。また前記従来の個人認証装置では、人間の体を認
証装置に接触させる必要があり、衛生面を重視する医療現場等では利用することが適当で
ない場合がある。また体の外側にさらされている特徴を利用するため、偽造される可能性
がある。
In the conventional technology, a method having a great psychological resistance such as collecting a fingerprint at the time of authentication or putting light in the eyes is adopted. Further, in the conventional personal authentication device, it is necessary to bring the human body into contact with the authentication device, and there are cases where it is not appropriate to use it in a medical field that places importance on hygiene. It can also be counterfeited because it uses features that are exposed outside the body.

本発明は、医療現場などの非接触性が求められる環境下でセキュリティシステムを構築
することを目的とする。このため、本発明では非接触で指画像を撮影し、この指画像から
指静脈パターンを抽出して個人認証を行う装置及び方法を提供する。
さらに、本発明では非接触で指を撮影する場合、回転や輝度むらが生じやすく高精度な個
人認証結果が得にくいという新たな課題に着目した。そこで、本発明では、非接触のため
回転や輝度むらが生じやすい指静脈パターン画像を用いながらも高精度な個人認証を行う
個人認証装置および方法を提供する。
An object of this invention is to construct a security system in the environment where non-contact property is calculated | required, such as a medical field. Therefore, the present invention provides an apparatus and method for photographing a finger image in a non-contact manner, extracting a finger vein pattern from the finger image, and performing personal authentication.
Furthermore, in the present invention, when a finger is photographed in a non-contact manner, attention is paid to a new problem that rotation and luminance unevenness are likely to occur and it is difficult to obtain a highly accurate personal authentication result. Therefore, the present invention provides a personal authentication apparatus and method for performing high-accuracy personal authentication while using a finger vein pattern image that is likely to cause rotation and uneven brightness due to non-contact.

上記の目的を達成するため、本発明の個人認証装置は、登録指画像の静脈パターンを格
納する記憶装置と、光源及び指透過光を撮影するカメラを備えたインターフェースと、撮
影された指透過光画像に含まれる静脈パターンを抽出し、抽出した静脈パターンを前記登
録指画像の静脈パターンと照合して個人認証を行う手段とを有し、前記インターフェース
は、指を非接触で挿入する溝を有し、前記光源と前記カメラは、該溝を挟んで対向するよ
うに配置することを特徴とする。
In order to achieve the above object, a personal authentication device of the present invention includes a storage device that stores a vein pattern of a registered finger image, an interface including a light source and a camera that captures finger transmitted light, and captured finger transmitted light. Means for extracting a vein pattern included in the image and collating the extracted vein pattern with the vein pattern of the registered finger image for personal authentication, and the interface has a groove for inserting the finger in a non-contact manner. The light source and the camera are arranged to face each other with the groove interposed therebetween.

また、前記個人認証を行う手段は、撮影された指画像について、前記指が前記インター
フェースに挿入される際に生じる撮像平面上の回転を補正し、回転補正した前記指画像に
含まれる静脈パターンを抽出して個人認証を行うことを特徴とする。
Further, the means for performing personal authentication corrects a rotation on the imaging plane that occurs when the finger is inserted into the interface with respect to the photographed finger image, and a vein pattern included in the rotation-corrected finger image. Extracting and performing personal authentication.

本発明によれば、装置への接触を必要とせず、また認証時の心理的抵抗感も低く、かつ
偽造のされにくい生体内部の特徴を用いた認証ができる。また非接触特有の位置ずれがあ
り不鮮明な画像を用いながらも高精度な個人認証が実現できる
ADVANTAGE OF THE INVENTION According to this invention, the authentication using the characteristic inside a living body which does not require the contact to an apparatus, has a low psychological resistance at the time of authentication, and is hard to be counterfeited can be performed. In addition, high-precision personal authentication can be realized while using a non-contact-specific positional shift and a blurred image.

以下、本発明の1実施例を詳細に説明する。図1は、本発明を実現するためのシステム
構成の概略ブロック図である。指を挿入する部分にあたる静脈パターン入力インターフェ
ース1の中には、光源2と光学フィルタ3、CCDカメラ4がある。光源2と光学フィルタ
3の間に指を挿入することで静脈パターンを獲得する。指を透過した光は光学フィルタ3
を通してCCDカメラ4で撮像される。CCDカメラ4で撮像された画像信号は画像キャプチャ
ボード5を用いてPC6に取り込まれる。PC6内部では、取り込まれた画像信号はインター
フェース7を通してメモリ8に格納される。また外部記憶装置10に保存されている登録
画像がメモリ8に格納される。そしてメモリ8に格納されているプログラムに従い、CPU9
によって取り込まれた画像と登録画像が一致するか否かの判断がなされる。なおこのプロ
グラムは、外部の記憶媒体を用いて装置に供給してもよい。記憶媒体としては、例えば、
フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、
CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
Hereinafter, an embodiment of the present invention will be described in detail. FIG. 1 is a schematic block diagram of a system configuration for realizing the present invention. In the vein pattern input interface 1 corresponding to the finger insertion portion, there are a light source 2, an optical filter 3, and a CCD camera 4. A vein pattern is acquired by inserting a finger between the light source 2 and the optical filter 3. The light transmitted through the finger is an optical filter 3
The image is picked up by the CCD camera 4. The image signal picked up by the CCD camera 4 is taken into the PC 6 using the image capture board 5. Inside the PC 6, the captured image signal is stored in the memory 8 through the interface 7. A registered image stored in the external storage device 10 is stored in the memory 8. Then, according to the program stored in the memory 8, the CPU 9
It is determined whether or not the captured image matches the registered image. This program may be supplied to the apparatus using an external storage medium. As a storage medium, for example,
Flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM,
A CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

図2は、非接触な方法で指静脈パターン画像を獲得する指静脈パターン入力インターフ
ェース1の構造の一例である。インターフェースには溝状の隙間である指挿入口22があ
り、その部分に指20を通すことで静脈パターンを獲得する。このとき装置自体に指を接
触させる必要がない。また、溝の中に複数本の指を通すことによって複数の指の静脈パタ
ーンを撮像することができる。さらに、肩、肘、手首等を中心に円の軌道を描いて指を振
り下ろすことで複数本の指20を連続的に指挿入口22に通し、指画像を撮像することも
可能である。このような非接触な撮像方法をとる場合、撮像された指画像は撮像平面に対
する回転が生じる。従って、撮像された指画像には、必然的に回転補正を行う必要がある

なお、溝の方向は、地面に対してどのような方向であっても良いが、特に地面に対して垂
直方向の溝を設けた場合、ユーザは重力に従って手を振り下ろすという自然な運動で、パ
ターン画像の獲得ができるので、使い勝手がよいという効果がある。
また、このように溝に指を通すようなインターフェースの構造は、指の中心軸を中心とし
た回転が生じにくくなるため、認証の精度が高くなるという効果がある
FIG. 2 is an example of the structure of the finger vein pattern input interface 1 that acquires a finger vein pattern image by a non-contact method. The interface has a finger insertion opening 22 which is a groove-like gap, and a vein pattern is acquired by passing the finger 20 through that portion. At this time, it is not necessary to bring the finger into contact with the device itself. Moreover, the vein pattern of a plurality of fingers can be imaged by passing a plurality of fingers through the groove. Furthermore, it is also possible to capture a finger image by continuously passing a plurality of fingers 20 through the finger insertion slot 22 by swinging down a finger while drawing a circular trajectory around the shoulder, elbow, wrist and the like. When such a non-contact imaging method is taken, the captured finger image is rotated with respect to the imaging plane. Therefore, it is necessary to inevitably perform rotation correction on the captured finger image.
The direction of the groove may be any direction with respect to the ground, but in particular, when a groove perpendicular to the ground is provided, the user is a natural motion of swinging his hand down according to gravity. Since the pattern image can be acquired, there is an effect that it is easy to use.
In addition, such an interface structure in which a finger is passed through the groove is less likely to rotate around the central axis of the finger, so that the accuracy of authentication is improved.

図3は、指静脈パターン入力インターフェース1の別の例である。これは穴状の指の挿
入口22がある入力インターフェースの例である。指20を指の挿入口22に挿入し、そ
の内部にある一つまたは複数の光源・撮像素子によって指の静脈を獲得する。このとき指
の中心軸に対し同心円方向に指を回転させることで多方向からの静脈パターンを獲得する
こともできる。
FIG. 3 is another example of the finger vein pattern input interface 1. This is an example of an input interface having a hole-like finger insertion slot 22. The finger 20 is inserted into the insertion slot 22 of the finger, and the vein of the finger is acquired by one or a plurality of light sources / image sensors inside the finger 20. At this time, a vein pattern from multiple directions can be obtained by rotating the finger concentrically with respect to the central axis of the finger.

図4は、認証の際及びインターフェース設置場所付近を通行する際の安全性を考慮した
、上記の非接触型の指静脈パターン入力インターフェースの一例である。(a)は指静脈パ
ターン入力インターフェースの角を面取りして、指、手、腕などが接触した場合でも安全
な形状にしたものである。また、設置場所によっては装置が突出していると危険な場合も
ある。その場合は(b)に示すように溝を横向きに設けることでインターフェースの突出の
幅を狭める、もしくは(c)に示すように設置する壁面自体に指の挿入口を設ける。ただし(
c)においては腕を振り下ろして通すのに十分な幅の溝を有する。また、腕を振り下ろして
指を撮像することに対応するために、(d)に示すように指の挿入口の奥を指の軌道に合わ
せて円弧状にする。このような構造にすることで、腕の円運動に対して指が装置に接触し
にくい構造となる。また、装置の表面及び指の挿入口の内部をクッションのような柔らか
い材質のもので覆うことで、指の接触に対する安全性を高めることができる。この図では
、円弧状の部分にクッション38が並べて貼り付けられている様子が示されている。なお
、上述した指静脈パターン入力インターフェースは、溝が縦方向に開けられ、上下方向に
指を動かすことで静脈パターンを獲得する例であるが、装置の設置条件により溝の開けら
れる向き及び指を動かす向きは任意とすることができる。
FIG. 4 shows an example of the non-contact type finger vein pattern input interface in consideration of safety during authentication and when passing near the interface installation location. (a) Chamfers the corners of the finger vein pattern input interface so that it is safe even when fingers, hands, arms, etc. come into contact. Also, depending on the installation location, it may be dangerous if the device protrudes. In that case, as shown in (b), the groove is provided sideways to narrow the width of the protrusion of the interface, or as shown in (c), a finger insertion opening is provided in the wall surface to be installed. However (
c) has a groove of sufficient width to allow the arm to swing down. Further, in order to cope with imaging of the finger by swinging down the arm, as shown in (d), the back of the insertion slot of the finger is formed in an arc shape in accordance with the trajectory of the finger. By adopting such a structure, the finger is less likely to contact the device with respect to the circular movement of the arm. Moreover, the safety | security with respect to a finger contact can be improved by covering the surface of an apparatus and the inside of the insertion slot of a finger | toe with a soft material like a cushion. In this figure, a state in which the cushion 38 is affixed side by side to the arc-shaped portion is shown. The finger vein pattern input interface described above is an example in which the groove is opened in the vertical direction and the vein pattern is acquired by moving the finger in the vertical direction. The moving direction can be arbitrary.

図5は、上記指静脈パターン入力インターフェース1内部における、複数の光源・撮像
素子によって多方向から静脈パターンを撮像するための構成の一例である。指20の中心
軸に対して同心円状に、お互いが対面する位置に光源2と光学フィルタ3の付いたCCDカ
メラ4が複数個並んでいる。指20が入力インターフェース1に挿入されるとそれらの撮
像素子が多方向から指画像を撮像する。この構成では指を回転させることなく多方向から
の静脈パターンが撮像できるという効果がある。光源同士の干渉によって撮影画像が乱れ
る場合には、光源の動作する時間をずらして逐次撮像してもよい。
FIG. 5 shows an example of a configuration for imaging a vein pattern from multiple directions by a plurality of light sources / imaging elements inside the finger vein pattern input interface 1. A plurality of CCD cameras 4 having a light source 2 and an optical filter 3 are arranged in a concentric manner with respect to the central axis of the finger 20 at positions facing each other. When the finger 20 is inserted into the input interface 1, those image pickup devices pick up finger images from multiple directions. With this configuration, there is an effect that vein patterns from multiple directions can be imaged without rotating the finger. When the captured image is disturbed due to interference between the light sources, the images may be sequentially captured with the light source operating time shifted.

図6は、上記の非接触型の指静脈パターン入力インターフェースと非接触型の自動ドア
を組み合わせ、認証を含めた入退室を非接触で行うことができるシステムの一例である。
指静脈パターン入力インターフェース20が自動ドア42の横の壁面に設置され、ここに
指20を挿入する。認証請求者40の静脈パターンがシステムに登録されている静脈パタ
ーンと一致した場合、自動ドア42が自動的に開く。このとき、認証から扉の開閉までの
すべてが非接触で行えることが大きな特徴である。この場合の、入力インターフェースと
しては、図4に記載の種々の構成が用いられる。
FIG. 6 shows an example of a system in which the non-contact type finger vein pattern input interface and the non-contact type automatic door are combined, and entrance / exit including authentication can be performed without contact.
The finger vein pattern input interface 20 is installed on the wall surface next to the automatic door 42, and the finger 20 is inserted therein. When the vein pattern of the authentication requester 40 matches the vein pattern registered in the system, the automatic door 42 is automatically opened. At this time, it is a great feature that everything from authentication to opening and closing of the door can be performed without contact. In this case, various configurations shown in FIG. 4 are used as the input interface.

図7は、静脈パターンと指紋、虹彩、音声、筆跡、顔などを複数組み合わせた個人認証
装置の一例である。認証請求者40は認証を受けるべき場所に設置してある認証装置によ
って認証を受ける。静脈パターンを撮像する入力インターフェース1により静脈を撮像す
るが、それに前後してその他の個人特徴を各種入力インターフェースによって入力する。
たとえば暗証番号を暗証番号入力キー43によって入力し、それから指を静脈パターン入
力インターフェース1に挿入して認証を受ける。さらに認証の精度を高めるために、指紋
入力インターフェース44によって指紋を入力し、虹彩撮像カメラ46、顔画像撮像カメ
ラ48によって被認証者の虹彩と顔画像を撮像する。そして筆跡確認のため筆跡入力ペン
50によって筆跡入力タブレット52の上に文字を書き、さらに音声を発することでマイ
ク54がその音声を拾う。これらの様々な個人の特徴をPC6によって解析し、最終的に認
証されるか否かが決定される。静脈パターンによる認証と併用して用いられる個人の特徴
情報の組み合わせ方は任意であり、当然すべてを用いる必要はないが、この例ではより認
証精度を高めるために多くの特徴情報を利用している。また、指紋の入力装置と静脈パタ
ーン撮像装置とを一体化して、所定の場所に1回指を置くだけで両方の入力が同時にでき
るようにしてもよい。これによって、ユーザの手間を省くと共に、より高精度な個人認証
が可能となる。
FIG. 7 shows an example of a personal authentication device that combines a plurality of vein patterns, fingerprints, irises, voices, handwriting, faces, and the like. The authentication requester 40 is authenticated by an authentication device installed at a place where authentication is to be performed. The vein is imaged by the input interface 1 that images the vein pattern, but before and after that, other personal features are input by various input interfaces.
For example, a personal identification number is input by the personal identification number input key 43, and then a finger is inserted into the vein pattern input interface 1 for authentication. In order to further improve the accuracy of authentication, a fingerprint is input through the fingerprint input interface 44, and the iris and face images of the person to be authenticated are captured by the iris imaging camera 46 and the face image capturing camera 48. Then, the handwriting input pen 50 writes characters on the handwriting input tablet 52 for handwriting confirmation, and the microphone 54 picks up the sound by further producing sound. These various individual characteristics are analyzed by the PC 6 and it is finally determined whether or not to be authenticated. The combination of personal feature information used in combination with vein pattern authentication is arbitrary. Of course, it is not necessary to use all of them, but in this example, a lot of feature information is used to improve authentication accuracy. . Alternatively, the fingerprint input device and the vein pattern imaging device may be integrated so that both inputs can be performed simultaneously by placing the finger once at a predetermined location. This saves the user trouble and enables more accurate personal authentication.

図8はICカードを利用して暗証番号や個人の特徴情報を認証装置に与えるシステムの一
例である。認証請求者40は暗証番号や本人の静脈パターン、指紋、音声、虹彩、筆跡、
顔などの個人の特徴情報が記録されているICカード60を保持している。この図は被接触
型のICカードを使用した例であるが、接触型ICカードを使用することも可能である。ICカ
ード60に記録されている情報はICカードリーダ62に近づくと自動的にICカードリーダ
62によって読み込まれる。このとき個人の特徴情報が個人認証装置に送られるが、個人
を識別する番号だけを装置に送り、あらかじめ外部記憶装置10に記憶されている個人の
特徴情報のうちその番号に応じたものを読み出すことで個人の特徴情報を獲得してもよい
。この図の例では静脈パターンを個人の特徴情報として与えている。その後指静脈パター
ン入力インターフェース1に指を挿入することで静脈パターンを獲得、ICカード60もし
くは外部記憶装置10から読み出された静脈パターンとのマッチングをとり、認証が行わ
れる。この図では静脈パターンとICカードの組み合わせだけを示したが、図7で示した様
々な個人の特徴情報を併用することも可能である。
FIG. 8 shows an example of a system that uses a smart card to give a personal identification number and personal characteristic information to an authentication apparatus. The authentication requester 40 can obtain a personal identification number, the vein pattern of the person, fingerprint, voice, iris, handwriting,
An IC card 60 in which personal feature information such as a face is recorded is held. This figure shows an example using a contact type IC card, but a contact type IC card can also be used. The information recorded in the IC card 60 is automatically read by the IC card reader 62 when approaching the IC card reader 62. At this time, the personal feature information is sent to the personal authentication device, but only a number for identifying the individual is sent to the device, and the personal feature information stored in advance in the external storage device 10 is read according to the number. Thus, personal feature information may be acquired. In the example of this figure, a vein pattern is given as individual feature information. Thereafter, a finger is inserted into the finger vein pattern input interface 1 to obtain a vein pattern, and matching with the vein pattern read from the IC card 60 or the external storage device 10 is performed for authentication. In this figure, only the combination of the vein pattern and the IC card is shown, but various individual feature information shown in FIG. 7 can be used together.

以下では、上記ハードウェア、特にCPU9によって実行される、先述の課題を解決する
ソフトウェアソフトウェアフローについて詳細に説明する。なおこのフローを実現するソ
フトウェアプログラムは、外部の記憶媒体を用いて装置に供給してもよい。
記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁
気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMな
どを用いることができる。 図9は、指画像が取り込まれてから認証が行われるまでの概
略フローチャートである。静脈パターンによる個人認証を行うためには、取り込まれた指
画像から静脈パターンを抽出し、登録されている静脈パターンとの比較を行う必要がある
。従って撮像された指画像はいくつかの段階を経て登録画像と比較できる形の静脈パター
ンへ変換されなければならない。まず各種の初期化(200)を行った後、画像内の指部
分だけを取り出すために指の輪郭検出(202)を行う。この時点で指がどのような角度
、位置で撮像されているかが検出できる。どのような角度や位置で撮像されていても正し
く認識できるように指の傾きを水平にする回転補正(204)を行った後、認識に必要な
部分だけを取り出す指画像の切り出し(206)を行う。このときに得られる画像は静脈
パターンだけでなく認証に不要な影や輝度むらなどが存在する。そこで静脈パターンだけ
を取り出すために、血管追跡(208)を行う。この結果を利用して、登録画像と取り込
まれた指画像との静脈パターンのマッチング(210)を行い、画像間の相関を評価値と
して算出する。評価値の大きさによって本人もしくは他人であると判断されるが、どちら
とも決めがたい評価値であった場合(212)、さらに、画像を小領域に分割してマッチ
ングを行いマッチした位置ずれを評価する分割マッチング(214)を行う。そして最終
的に本人であるか否かを判定する(216)。
Hereinafter, a software software flow executed by the hardware, particularly the CPU 9, for solving the above-described problem will be described in detail. Note that the software program for realizing this flow may be supplied to the apparatus using an external storage medium.
As the storage medium, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like can be used. FIG. 9 is a schematic flowchart from when a finger image is captured until authentication is performed. In order to perform personal authentication using a vein pattern, it is necessary to extract a vein pattern from the captured finger image and compare it with a registered vein pattern. Therefore, the captured finger image must be converted into a vein pattern that can be compared with the registered image through several stages. First, after performing various initializations (200), finger contour detection (202) is performed in order to extract only the finger portion in the image. At this time, it can be detected at what angle and position the finger is imaged. After performing the rotation correction (204) for making the finger tilt horizontal so that it can be correctly recognized no matter what angle or position the image is picked up, the finger image clipping (206) for extracting only the part necessary for recognition is performed. Do. The image obtained at this time includes not only the vein pattern but also shadows and uneven brightness that are unnecessary for authentication. Therefore, blood vessel tracking (208) is performed to extract only the vein pattern. Using this result, the vein pattern matching (210) between the registered image and the captured finger image is performed, and the correlation between the images is calculated as an evaluation value. Depending on the size of the evaluation value, it is determined that the person is the person or the other person, but if both are evaluation values that are difficult to determine (212), the image is further divided into small areas and matching is performed. Split matching (214) to be evaluated is performed. Then, it is finally determined whether or not the person is himself (216).

以下では、図9に示されたフローチャートの各項目ついて詳細に説明する。
図10は指の輪郭検出処理の一例を示したものである。(a)は撮像された画像の模式図で
ある。ここでは指が画像左側から水平方向に撮像され、指先が右側に位置している場合に
ついて説明する。初めに指20と背景部分の境界を強調するためにコントラストの調整を
行う。ただし、画像全体のコントラストを調整する必要はなく、たとえば下側の輪郭が不
鮮明である場合には画像下側だけのコントラストを調整すればよい。この処理によって指
のエッジが強調される。(a)における指20のエッジが鮮明になっている様子を(b)に示す
Below, each item of the flowchart shown in FIG. 9 is demonstrated in detail.
FIG. 10 shows an example of finger contour detection processing. (a) is a schematic diagram of a captured image. Here, a case where the finger is imaged in the horizontal direction from the left side of the image and the fingertip is positioned on the right side will be described. First, the contrast is adjusted to emphasize the boundary between the finger 20 and the background portion. However, it is not necessary to adjust the contrast of the entire image. For example, when the lower outline is unclear, it is only necessary to adjust the contrast only on the lower side of the image. This process enhances the edge of the finger. A state in which the edge of the finger 20 in (a) is clear is shown in (b).

続いて、実際に指の輪郭検出を行う。まず、画像100の中心に追跡点104を置く。
この位置から上下別々に1ピクセルずつ移動し、指の輪郭部分を検出する出発位置を求め
る。画像の中心には指部分が写っているため、その位置の上下数ピクセルはすべて比較的
明るい輝度値を持つ。上下に移動していくとやがて指部分と背景部分の境界に到達する。
このとき、画像内側(指側)にある数ピクセルの輝度値は比較的高いが、画像外側(背景
側)にある数ピクセルの輝度値は低いはずである。従って、追跡点104の現在位置にお
ける内側nピクセルの輝度値の和から、外側nピクセルの輝度値の和を減じて差分を求め
、画像の上端または下端まで追跡点104を移動した中で、最も高い差分値を示した位置
が背景と指との境界であると判断することができる。
(c)は追跡点104が上下に移動し、指と背景の境界にたどり着いたところを表している
。次にこの位置から指の輪郭をたどる。この場合は右方向と左方向の2通りについてたど
る必要がある。左方向をたどる場合は、現在位置の左、左上、左下の3点について、上方
nピクセルと下方nピクセルの輝度値の差分を計算し、最も大きい差分値を持つ位置を次
の位置とする。このようにして画像の左端までたどっていくと、その軌跡が輪郭となる。
右方向については、指先部分をたどる必要があるため、上側の輪郭追跡については現在位
置の右下のさらに下数ピクセル、かつ現在位置の真下についても探索範囲とし、下側の輪
郭追跡については現在位置の右上のさらに上数ピクセル、かつ現在位置の真上についても
探索範囲とした。これにより、指先の曲率の高いカーブまで検出できることになる。
(d)は最終的に追跡点104が指の輪郭をたどった結果を表している。尚、上記では撮像
画像が定型的に決められているため単純な追跡方法を採用したが、画像処理で利用される
他の様々な輪郭追跡方法を利用して精度を向上できることはいうまでもない。
Subsequently, finger contour detection is actually performed. First, the tracking point 104 is placed at the center of the image 100.
The starting position for detecting the contour portion of the finger is obtained by moving one pixel upward and downward from this position. Since the finger portion is shown in the center of the image, all the pixels above and below that position have relatively bright luminance values. As you move up and down, you will eventually reach the border between your finger and background.
At this time, the luminance values of several pixels inside the image (finger side) should be relatively high, but the luminance values of several pixels outside the image (background side) should be low. Accordingly, the sum of the luminance values of the inner n pixels at the current position of the tracking point 104 is subtracted from the sum of the luminance values of the outer n pixels to obtain a difference, and the tracking point 104 is moved to the upper or lower end of the image. It can be determined that the position showing a high difference value is the boundary between the background and the finger.
(c) shows the tracking point 104 moving up and down to reach the boundary between the finger and the background. Next, the outline of the finger is traced from this position. In this case, it is necessary to follow the right direction and the left direction. When tracing in the left direction, the difference between the luminance values of the upper n pixels and the lower n pixels is calculated for the three points on the left, upper left, and lower left of the current position, and the position having the largest difference value is set as the next position. In this way, when the image is traced to the left end, the locus becomes an outline.
For the right direction, it is necessary to follow the fingertip part, so for the upper contour tracking, several pixels below the lower right of the current position and the search range is also directly under the current position, and the lower contour tracking is the current The search range was also set for several pixels in the upper right of the position and just above the current position. As a result, even a curve with a high curvature of the fingertip can be detected.
(d) represents the result of the tracking point 104 finally following the contour of the finger. In the above, since a captured image is fixedly determined, a simple tracking method is adopted, but it goes without saying that various other contour tracking methods used in image processing can be used to improve accuracy. .

図11は先述の方法で得られた指の輪郭情報を用いた指の回転補正処理の一例を示して
いる。(a)は指の回転補正前の画像を表している。撮像されたときの指の傾きはその輪郭
の形状を調べることで分かる。すべての指画像においてその傾きが一定となるように補正
することで、カメラの撮影平面に対する二次元的な回転に対する正規化がなされる。
指の傾きは、指を直線で近似したときの線と水平線とのなす角と考えられるが、ここでは
その一例として上側の輪郭線を利用した回転補正方法について説明する。指の輪郭線は、
同じ指の場合、挿入の傾きが異なっていてもその形状は同じである。ここでその輪郭線の
近似直線を求める。一般的に、曲線とその近似直線との相対的位置関係は常に一定である
。従って、傾きが異なり、かつ同じ形状の輪郭線は、その近似直線によって傾きの正規化
ができる。このときできるだけ直線に近い状態の曲線から近似直線を求めた方がより精度
が上がるため、直線的な上側の輪郭線から近似的な直線を求める。具体的には、たとえば
指先から16ピクセルほど指の根元方向へ進んだ位置から、同方向へ128ピクセル進んだ位
置の間にある輪郭だけを利用する。あえて指先を避けるようにしたのは、曲率の高い部分
を避けるためである。
FIG. 11 shows an example of a finger rotation correction process using the finger contour information obtained by the above-described method. (a) represents an image before finger rotation correction. The inclination of the finger when the image is taken can be found by examining the shape of the outline. By correcting so that the tilt is constant in all finger images, normalization with respect to two-dimensional rotation with respect to the imaging plane of the camera is performed.
The tilt of the finger is considered to be an angle formed by a line obtained by approximating the finger with a straight line and a horizontal line. Here, as an example, a rotation correction method using the upper contour line will be described. The outline of the finger is
In the case of the same finger, the shape is the same even if the inclination of insertion is different. Here, an approximate straight line of the contour line is obtained. In general, the relative positional relationship between a curve and its approximate straight line is always constant. Therefore, the contour lines having different inclinations and the same shape can be normalized by the approximate straight line. At this time, since it is more accurate to obtain an approximate straight line from a curve that is as close to a straight line as possible, an approximate straight line is obtained from a straight upper contour line. Specifically, for example, only the contour between the position advanced 16 pixels from the fingertip and the position advanced 128 pixels in the same direction is used. The purpose of avoiding the fingertip is to avoid a portion with a high curvature.

次に、利用する輪郭部分のピクセルを等間隔に数点ほど取り出し、最小二乗法によって
上側輪郭の近似直線106を求める。最後にこの直線が画像に対して水平になるように全
体を回転する。ただし回転中心は仮にこの直線と画像の左端との交点とする。また位置の
正規化については後述する。(b)は上側輪郭の近似直線106を水平に回転補正した結果
である。図12は回転補正した指画像から認証に必要となる部分を切り出す処理の一例を
示している。通常、指の撮像されている水平・垂直方向の位置は指を撮像するたびに異な
る。従って指画像をマッチングに利用しやすくするために、指の位置を正規化する必要が
ある。一方、認識を行うには画像内に静脈パターンが撮像されていればよく、その他の不
要な部分は保持しておく必要は無い。そこで、元画像より小さなサイズの画像を元画像か
ら切り出す。このとき、切り出す位置を常に指の同じ部分に合わせれば、指の位置を正規
化したことになる。切り出し部分の位置決めには指の輪郭情報を利用する。まず左右方向
の位置は、輪郭情報から得られる指先110を利用して、たとえば指先110が切り出す
画像の右端に一致する位置と決める。次に、上下方向の位置は、指の上下の輪郭を利用し
て指の中心軸108を求め、その中心軸108が、切り出す画像の中心を通るような位置
とする。このような位置決めにより、切り出し画像114が得られる。この切り出し画像
114は画像100のどの位置に指20が撮像されていても毎回同じ指部分を切り出すこ
とになり、指位置の正規化がなされたことになる。
Next, several pixels of the contour portion to be used are extracted at equal intervals, and the approximate straight line 106 of the upper contour is obtained by the least square method. Finally, the whole is rotated so that this straight line is horizontal to the image. However, the rotation center is assumed to be the intersection of this straight line and the left end of the image. The normalization of the position will be described later. (b) is the result of horizontal rotation correction of the approximate straight line 106 of the upper contour. FIG. 12 shows an example of a process for cutting out a part necessary for authentication from a rotation-corrected finger image. Usually, the horizontal and vertical positions where the finger is imaged differ each time the finger is imaged. Therefore, in order to make it easy to use the finger image for matching, it is necessary to normalize the finger position. On the other hand, in order to perform recognition, it is only necessary to capture a vein pattern in the image, and it is not necessary to hold other unnecessary portions. Therefore, an image having a smaller size than the original image is cut out from the original image. At this time, if the cutout position is always matched with the same part of the finger, the finger position is normalized. The finger outline information is used for positioning the cutout portion. First, the position in the left-right direction is determined as a position that matches, for example, the right edge of the image cut out by the fingertip 110 using the fingertip 110 obtained from the contour information. Next, the position in the vertical direction is determined such that the central axis 108 of the finger is obtained using the vertical contours of the finger and the central axis 108 passes through the center of the image to be cut out. A clipped image 114 is obtained by such positioning. This cutout image 114 cuts out the same finger portion every time the finger 20 is imaged at any position in the image 100, and the finger position is normalized.

図13は切り出された指画像に対する血管追跡処理の流れを示すフローチャートである
。CCDカメラにより撮像された指画像には、認証に必要な静脈パターンが鮮明に映し出さ
れている訳ではない。得られる画像には、背景のノイズ、指の骨や肉の厚さが不均一なた
めに不規則に生じる影、輝度むらなど、認証に不要な情報が多く含まれている。従って、
このような画像を認証に用いるためには、画像から静脈パターンだけを取り出す、あるい
は静脈パターンを強調する必要がある。指画像は指を透過した光を撮像したものである。
透過光は血中ヘモグロビンに吸収される波長であるため、血管部分は暗い輝度値となる。
また関節部分からは明るい光が漏れ出している。従って、バックグラウンドの輝度は空間
的に大きく変化しており、単純にエッジを強調することで血管だけを強調することができ
ない。しかし、空間的に局所的な範囲に限れば血管部分は周囲よりも暗い。従って、ある
位置からより暗い部分へ移動し続けたときの軌跡が血管である可能性は高い。通常血管は
1本ではなく複数本存在し、さらにその本数や長さは事前に知ることはできない。そこで
、本実施例では、様々な位置で、様々な長さの軌跡を多数求め、それらを重ね合わせるこ
とで統計的に血管パターンを浮かび上がらせることとする。
このような考えに基づいて、以下のような方法で血管を追跡した。まず初めに血管を追跡
した経歴を保持するための、画像と同じ大きさの得点表を用意し、そのすべてを0に初期
化する(300)。全体の血管パターンを浮かび上がらせるために必要な回数jだけ繰り
返し実行される血管追跡のループ(302)の中においては、まず1回分の血管追跡を行
う追跡点の出発位置を乱数によって決定(304)する。ただし背景、指先、指の根元、
指の輪郭付近を出発点とすると血管を正しくたどることができなくなるため、指の輪郭情
報を利用して、それらが出発点とならないようにする。
FIG. 13 is a flowchart showing the flow of blood vessel tracking processing for a cut finger image. The finger image captured by the CCD camera does not clearly show the vein pattern necessary for authentication. The obtained image contains a lot of information unnecessary for authentication, such as background noise, irregular shadows due to uneven thickness of finger bones and flesh, and uneven brightness. Therefore,
In order to use such an image for authentication, it is necessary to extract only the vein pattern from the image or to emphasize the vein pattern. The finger image is an image of light transmitted through the finger.
Since the transmitted light has a wavelength that is absorbed by hemoglobin in blood, the blood vessel portion has a dark luminance value.
Bright light leaks from the joints. Therefore, the background luminance varies greatly in space, and it is not possible to emphasize only blood vessels by simply enhancing the edges. However, the blood vessel portion is darker than the surroundings if limited to a spatially local range. Therefore, there is a high possibility that the locus when moving from a certain position to a darker portion is a blood vessel. Usually blood vessels
There are multiple, not one, and the number and length cannot be known in advance. Therefore, in this embodiment, a large number of trajectories having various lengths are obtained at various positions, and the blood vessel pattern is statistically emerged by superimposing them.
Based on this idea, blood vessels were tracked by the following method. First, a score table having the same size as the image is prepared to hold the history of tracking blood vessels, and all of them are initialized to 0 (300). In the blood vessel tracking loop (302), which is repeatedly executed as many times as necessary j to raise the entire blood vessel pattern, first, the starting position of the tracking point for performing one blood vessel tracking is determined by a random number (304). To do. However, the background, fingertips,
Since the blood vessel cannot be traced correctly when the vicinity of the finger contour is taken as the starting point, the contour information of the finger is used so that they do not become the starting point.

また出発点は血管上に配置したほうがより血管をたどりやすい。そこで複数の出発点候
補を決め、その中で最も暗い輝度値のピクセルを出発点とする。ただし常にこの条件で出
発点を決定すると明るい部分に存在する血管が追跡されにくくなるため、複数の出発点候
補のうちで最も暗い輝度値のピクセルを常に出発点とするのでなく、一定の確率で最も明
るい輝度値を持つピクセルを出発点とする。この確率は乱数によって決定する。次にこの
追跡点の移動しやすい向きを決定する(306)。この性質は後述の移動可能点の決定に
用いられる。この決定法の一例として、乱数によって、右または左、かつ上または下へ移
動しやすい性質を持つと決定する。続い「寿命」を決定(308)し、同時にその値を初
期値として追跡点に与える。追跡は、上記寿命により定まる距離だけ追跡した時点で打ち
切る。つまり、追跡の長さを追跡点の寿命とて、追跡点の追跡の長さを表すし、1ピクセ
ルをたどるごとに寿命を減らし寿命が尽きた時点で追跡を終了させる。この寿命は乱数を
用いて決定される。
It is easier to follow the blood vessel if the starting point is placed on the blood vessel. Therefore, a plurality of starting point candidates are determined, and the pixel having the darkest luminance value among them is set as the starting point. However, if the starting point is always determined under this condition, it is difficult to track the blood vessels that exist in the bright area. The pixel with the brightest luminance value is taken as the starting point. This probability is determined by a random number. Next, the direction in which the tracking point is easy to move is determined (306). This property is used to determine the movable point described later. As an example of this determination method, it is determined by random numbers that it has a property of easily moving right or left and upward or downward. Subsequently, “life” is determined (308), and at the same time, the value is given to the tracking point as an initial value. The tracking is stopped when the tracking is performed for a distance determined by the lifetime. In other words, the tracking length represents the tracking point life, and the tracking point tracking length is represented. The tracking time is reduced every time one pixel is traced, and the tracking is terminated when the lifetime is exhausted. This lifetime is determined using a random number.

続いてこの追跡点を移動させる。はじめに、追跡点が次に移動することのできる点を決
定(310)する。血管の多くは指の長軸方向を走っているが、追跡点の移動する傾向を
血管の走る方向の傾向に合わせることで血管がより強調される。そこで、次に移動するこ
とのできる点の候補にある傾向をもたせることで、移動点の移動の傾向を制御する。
移動の傾向の一例として、50%の確率で左右の長軸方向に移動しやすくするため左また
は右の3近傍を移動可能点とし、残りの50%のうち30%については指の短軸方向に移
動しやすくするため上または下の3近傍を移動可能点とする。
それ以外は8近傍を移動可能点とする。ただし、いずれの場合も今までたどってきた軌跡
や指の外側へは移動できない。このようにして移動可能点を求めるが、もし移動可能点が
存在しない場合(312)は現在の追跡点での追跡を終了する。
続いて移動可能点のうち、最も暗い輝度値を持つピクセルへ移動(314)する。そして
現在の追跡点が過去にたどってきた軌跡を再びたどらないよう、現在の位置を軌跡情報と
して登録、更新(316)する。このとき、そのピクセルの座標に対応した得点表の位置
に、得点を加算(318)する。ここでは例として5点を加算する。さらにこの追跡点の
追跡の長さである寿命を1つ減らす(320)。この追跡点の寿命の有無を判定(322
)し、寿命があるならば再び移動可能点の決定(310)へ戻り、移動、得点の加算、軌
跡情報の更新を繰り返す。寿命が尽きた場合、たどった軌跡の情報を初期化(324)し
、現在の追跡点での追跡が終了する。このような血管追跡のプロセスを多数繰り返し実行
する。この繰り返しがすべて終了したとき、たどった回数が多いピクセル、すなわち血管
である確率が高い部分であるほどその位置に対応する得点表の得点は高くなっている。逆
に得点の低い位置は血管でない確率が高いことになる。従って、この得点表には静脈パタ
ーンそのものが現れていることになる。従って、この得点表を画像として捉えることで、
静脈パターンだけを取り出した画像が得られることになる。
Subsequently, the tracking point is moved. First, a point at which the tracking point can be moved next is determined (310). Many of the blood vessels run in the long axis direction of the finger, but the blood vessels are more emphasized by matching the tendency of the tracking point to move in the direction of the blood vessel running direction. Therefore, the tendency of movement of the moving point is controlled by giving a tendency to the candidate point that can be moved next.
As an example of the movement tendency, in order to make it easy to move in the left and right major axis directions with a probability of 50%, the left or right three neighborhoods are set as movable points, and 30% of the remaining 50% are in the minor axis direction of the finger. In order to make it easier to move to, the upper or lower three neighborhoods are set as movable points.
Otherwise, the vicinity of 8 is a movable point. However, in any case, it cannot move to the outside of the trajectory or finger that has been followed. In this way, the movable point is obtained. If there is no movable point (312), the tracking at the current tracking point is terminated.
Subsequently, the movable point is moved to the pixel having the darkest luminance value (314). Then, the current position is registered and updated (316) as the trajectory information so that the trajectory traced by the current tracking point does not follow again. At this time, the score is added to the position of the score table corresponding to the coordinates of the pixel (318). Here, 5 points are added as an example. Further, the lifetime which is the length of tracking of the tracking point is reduced by one (320). Determine whether the tracking point has a lifetime (322)
If there is a lifetime, the process returns to the determination of the movable point (310) again, and the movement, the addition of the score, and the update of the trajectory information are repeated. When the lifetime is exhausted, the trace information traced is initialized (324), and the tracking at the current tracking point ends. Such a blood vessel tracking process is repeated many times. When all of the repetitions are completed, the score of the score table corresponding to the position becomes higher as the pixel that has been traced more frequently, that is, the portion having a higher probability of being a blood vessel. Conversely, a position with a low score has a high probability that it is not a blood vessel. Therefore, the vein pattern itself appears in this score table. Therefore, by capturing this score table as an image,
An image obtained by extracting only the vein pattern is obtained.

このようにして得られた静脈パターンをマッチングに利用しやすい形にするために、静
脈パターンとしての得点表の各欄をその得点に応じて分類する。ここでは例として4種に
分類する(328)。まず得点の低いピクセル位置には全く血管が存在しないものとする
。また得点の高いピクセル位置は血管である可能性が高いとする。そして中間的な得点を
持つピクセル位置は、血管である可能性はあるが確実に血管であるとは言いがたいあいま
いな領域であるとする。さらに指の輪郭の外側に位置するピクセルを背景とする。これら
4種類を輝度値に対応させることで、静脈パターンの画像が得られる。
最後に、偶然追跡されなかったピクセルの穴を埋めるために、血管部分、そしてあいまい
な部分に対して膨張処理(330)を施した。膨張処理は、画像中に存在するすべてのピ
クセルについて、血管部分またはあいまいな部分のピクセルの8近傍を調べ、血管でない
部分のピクセルの個数が4つ以下ならば、それらの血管でない部分をあいまいな部分に変
換することで行われる。
In order to make the vein pattern thus obtained easy to use for matching, each column of the score table as a vein pattern is classified according to the score. Here, it is classified into four types as an example (328). First, it is assumed that there is no blood vessel at a pixel position with a low score. Further, it is assumed that a pixel position having a high score is likely to be a blood vessel. A pixel position having an intermediate score is an ambiguous region that may be a blood vessel but is not surely a blood vessel. Furthermore, the pixel located outside the outline of the finger is used as the background. these
By associating the four types with luminance values, a vein pattern image can be obtained.
Finally, in order to fill the hole of the pixel that was not tracked accidentally, the blood vessel part and the ambiguous part were subjected to dilation (330). The dilation process examines all pixels in the image for 8 neighborhoods of vascular or ambiguous pixels, and if the number of non-vascular parts is 4 or less, those non-vascular parts are ambiguous. This is done by converting into parts.

以上のような手順により得点表が静脈パターンの画像へ変換され、同時にマッチングに
利用しやすい形に変換された。図14は上述の手法により得られた静脈パターンが登録さ
れた静脈パターンと一致するか否かを判定する手法の一例を示したフローチャートである
。2枚の画像を比較するアルゴリズムにはSSDA(sequential similarity detection algor
ithm)を採用した。これはミスマッチが単調増加する性質を利用し、ある閾値を越えた時
点で計算を打ち切る手法である。初めに各種の初期化(400)を行う。続いて比較する
2枚の静脈パターン画像の片方について画像の外周nピクセルを切り落とし(402)、
画像サイズを小さくする。次にこの2枚の画像の中心部分を一致させて重ねあわせ、重な
ったピクセル同士の輝度値を比較する(404)。このとき、血管である可能性が高いピ
クセルと、血管でない可能性が高いピクセルが重なった場合、このピクセルはミスマッチ
する、という。このミスマッチするピクセルの個数を、画像全体について数え上げる。た
だし、大きい方の画像について、小さい方の画像と重ならなかったピクセルは無視する。
このときのミスマッチ数を最小ミスマッチ数の初期値とする。続いて、サイズを小さくし
た方の画像が大きい画像からはみ出ない範囲(画像中央を基点に上下左右nピクセル)に
おいて画像を1ピクセルもしくは数ピクセル単位でずらし、各位置それぞれについてミス
マッチの個数を数え上げる。その際、現在の重なりにおけるミスマッチを画像全体におい
て1ピクセル単位で数え上げる(410)が、ミスマッチの数え上げの途中でも、現在の
最小ミスマッチ数を越えた場合、より小さなミスマッチ数を得ることができないためミス
マッチの数え上げを中止する(412)。現時点のミスマッチ数が最小ミスマッチ数を超
えなかった場合、過去の最小ミスマッチ数を現在のミスマッチ数に書き換える(416)
。全範囲で画像を重ねあわせ、最終的に得られた最小ミスマッチ数が、この2枚の画像の
ミスマッチ数となる。
The score table was converted into a vein pattern image by the above procedure, and at the same time converted into a form that could be easily used for matching. FIG. 14 is a flowchart showing an example of a method for determining whether or not the vein pattern obtained by the above method matches the registered vein pattern. The algorithm for comparing two images is SSDA (sequential similarity detection algor
ithm) was adopted. This is a technique that uses the property that the mismatch increases monotonically and terminates the calculation when a certain threshold is exceeded. First, various initializations (400) are performed. Subsequently, the outer n pixels of the image are cut off for one of the two vein pattern images to be compared (402),
Reduce the image size. Next, the central portions of the two images are matched and overlapped, and the luminance values of the overlapped pixels are compared (404). At this time, if a pixel that has a high possibility of being a blood vessel and a pixel that has a high possibility of not being a blood vessel overlap, this pixel is said to be mismatched. The number of mismatched pixels is counted for the entire image. However, for the larger image, the pixels that did not overlap the smaller image are ignored.
The number of mismatches at this time is set as the initial value of the minimum number of mismatches. Subsequently, the image is shifted by one pixel or in units of several pixels within a range where the smaller image does not protrude from the larger image (up and down, left and right n pixels from the center of the image), and the number of mismatches is counted for each position. At that time, the mismatch in the current overlap is counted in units of one pixel in the entire image (410). However, if the current minimum mismatch number is exceeded even during the counting of mismatches, a smaller mismatch number cannot be obtained. Counting is stopped (412). If the current number of mismatches does not exceed the minimum number of mismatches, the past minimum number of mismatches is rewritten to the current number of mismatches (416).
. The minimum number of mismatches finally obtained by superimposing images over the entire range is the number of mismatches between the two images.

最後に、この結果からミスマッチ率を求める。まず2枚の画像の血管である可能性が高
いピクセルの個数の総和を求める(420)。ただし、大きい方の画像については、外周
nピクセルの部分を無視する。この結果とミスマッチ数を利用して、2枚の静脈パターン
のミスマッチ率を求めることができる(422)。ここで、ミスマッチ率を(ミスマッチ
数)/(2枚の画像における血管である可能性が高いピクセルの総数)と定義する。2つ
の静脈パターンが同じ場合、ミスマッチ率は0もしくは非常に小さな値となる。しかし、
静脈パターンが異なる場合はミスマッチ率が非常に大きくなる。この数値がある閾値より
小さい場合を本人、大きい場合を他人と判定する。
Finally, the mismatch rate is obtained from this result. First, the sum of the number of pixels that are highly likely to be blood vessels in two images is obtained (420). However, for the larger image, the outer peripheral n pixel portion is ignored. Using this result and the number of mismatches, the mismatch rate of the two vein patterns can be obtained (422). Here, the mismatch rate is defined as (mismatch number) / (total number of pixels that are highly likely to be blood vessels in two images). When the two vein patterns are the same, the mismatch rate is 0 or a very small value. But,
When the vein patterns are different, the mismatch rate becomes very large. When this numerical value is smaller than a certain threshold, it is determined that the person is the person, and when the numerical value is larger, the person is the other person.

図15は上述したマッチング手法におけるミスマッチ率では本人か他人か決めがたいも
のについて、別の手法にてマッチングを行う手法の一例をフローチャートに示したもので
ある。画像全体のミスマッチを求める手法は多くのケースにおいて安定して本人と他人を
区別することができる。しかし、中には閾値付近のあいまいなデータも存在する。そこで
閾値近傍のデータを別のマッチング手法によって認証することができれば、全体としてさ
らに認識率の向上が見込まれる。
FIG. 15 is a flowchart showing an example of a technique for performing matching using another technique for a mismatch rate in the above-described matching technique that cannot be determined by the person himself / herself or others. In many cases, the method for obtaining the mismatch of the entire image can stably distinguish the person from the other person. However, there are some ambiguous data near the threshold. Therefore, if the data in the vicinity of the threshold can be authenticated by another matching method, the recognition rate as a whole can be further improved.

分割マッチングの方法は次のとおりである。2枚の画像の片方について、画像を2つ以
上のm個の小領域に分割する(502)。各小領域のそれぞれについて、もう一方の画像
とのマッチングを取る(506)。ここでは単純にピクセルの輝度値が一致した個数を数
える。最もマッチしたピクセルの個数の多い位置をマッチした位置とする。このとき位置
的に明らかにマッチし得ない部分と偶然マッチすることのないよう、移動する範囲を限定
しておく。そして小領域が最もマッチした位置の情報を得る(508)。すなわち、各小
領域において初期位置からどれだけずれた位置でマッチしたかを2次元ベクトルの形で保
持する。すべての小領域についてマッチングが終了したら、m個のマッチ位置の情報を平
面にプロット(512)し、各点の密集度を評価する。これらの点が密集している場合は
2枚の画像に大きな相関があり、逆にまばらな場合はほとんど相関はないと考えられる。
The method of division matching is as follows. For one of the two images, the image is divided into two or more m small regions (502). Each small area is matched with the other image (506). Here, the number of pixels whose luminance values match is simply counted. The position with the largest number of matched pixels is taken as the matched position. At this time, the moving range is limited so as not to accidentally match a portion that cannot be clearly matched in position. Then, information on the position where the small area is most matched is obtained (508). That is, how much each small area matches from the initial position is held in the form of a two-dimensional vector. When matching is completed for all the small regions, the information on the m matching positions is plotted on a plane (512), and the density of each point is evaluated. When these points are dense, there is a large correlation between the two images, and conversely, when they are sparse, there is almost no correlation.

密集度の評価のために、プロットした点に重みp、その点から1ピクセル離れるごとに
Δpだけ小さな値を加算(514)する。プロットした点が密集している場合はその重み
値が繰り返し加算されるため、より大きな値が平面上に現れる。m個の小領域のマッチ位
置がすべて同じである場合、加算される重み値の最大値はm*pとなる。逆に、マッチ位
置がまばらである場合、評価値の最大値はpとなる。偶然マッチ位置が重なる場合もある
ため、無相関の画像でも評価値の最大値はpより大きくなる。このように平面に得点を付
け、最も大きい得点を探す(516)。この値が2つの静脈パターンの相関となる。この
値が大きい場合は本人である確率が高く、逆に小さい場合は他人である確率が高い。ただ
し、偶然マッチ位置が一致したために大きな相関を持つ場合もある。このときは他人を本
人であると間違える確率が大きくなってしまう。そのため、評価値の最大値を生じる位置
からある半径の円内にプロットされた点が少ない場合は、偶然評価値が高くなったものと
判断(518)し、他人であると判定する(520)。
In order to evaluate the density, a weighted value p is added to the plotted points, and a value smaller by Δp is added (514) every time one pixel moves away from the point. If the plotted points are dense, the weight values are repeatedly added, so that a larger value appears on the plane. When the match positions of the m small regions are all the same, the maximum value of the added weight value is m * p. Conversely, when the match positions are sparse, the maximum evaluation value is p. Since coincidence match positions may overlap, the maximum evaluation value is larger than p even in an uncorrelated image. In this way, the plane is scored and the largest score is searched (516). This value is the correlation between the two vein patterns. When this value is large, the probability of being a person is high, and when the value is small, the probability of being a stranger is high. However, there may be a large correlation due to coincidence of the match position. At this time, the probability of mistaking another person as the person is increased. Therefore, when there are few points plotted in a circle of a certain radius from the position where the maximum evaluation value is generated, it is determined that the evaluation value has increased accidentally (518), and it is determined that the person is another person (520). .

図16は本発明を実施した際の性能評価と別方式による性能評価の比較結果である。別
方式とは、指画像を獲得してから認証が終了するまでの手法が本発明とは異なる。その手
法とは、獲得した画像に対して一様にフィルタをかけることで静脈パターンを強調し、登
録テンプレートと画像の2次元畳み込み演算を行い、指の短軸方向におけるピークの鋭さ
を評価する方法である。性能評価にあたり、678人の被験者の小指を各人4枚ずつ撮像し
、そのうちの1枚を登録テンプレートと見做し、本人及び他人の指画像との照合を行った
。照合の方法は、全被験者の登録テンプレートすべての組み合わせを照合することで本人
と他人の静脈パターンの照合を行う。また登録テンプレートではない指画像とその同一人
物の登録テンプレートとの照合を行う。
FIG. 16 is a comparison result of performance evaluation when the present invention is implemented and performance evaluation by another method. The different method is different from the present invention in the method from the acquisition of the finger image to the end of the authentication. The method emphasizes the vein pattern by uniformly filtering the acquired image, performs a two-dimensional convolution operation between the registered template and the image, and evaluates the sharpness of the peak in the short axis direction of the finger It is. In the performance evaluation, four little fingers of each of 678 subjects were imaged, and one of them was regarded as a registered template and collated with the finger images of the person and others. The collation method collates the vein patterns of the person and the other person by collating all combinations of registered templates of all subjects. Also, a finger image that is not a registered template is compared with a registered template of the same person.

照合の結果、本人を他人と誤る本人拒否率(FRR: False Reject Rate)と、他人を本人と
誤る他人受入率(FAR: False Accept Rate)が求められる。ここでは性能評価として、FRR
とFARの関係を用いる。(a)は登録テンプレートとその同一人物の別画像の照合において、
別画像を1枚だけ利用した場合の性能評価の比較結果である。FRRとFARは共に小さいほど
良いが、本発明におけるFRRとFARは、全体マッチングを行った時点で既に別手法による結
果よりも10分の1程度に小さくなっていることが分かる。さらに、分割マッチングまで行
った場合はさらに良い結果が生じている。(b)は登録テンプレートとその同一人物の別画
像の照合において、別画像の3枚のうち最も良い結果を生じる画像を選んだ場合の性能評
価の比較結果である。別手法による結果では、依然として本人と他人を正しく区別できな
いデータが存在するが、本発明による手法では完全に本人と他人を正しく区別することが
できる。これらの結果より、本発明の効果は大きいことが結論付けられる。
As a result of the verification, a false rejection rate (FRR: False Reject Rate) in which the person is mistaken for the other person and a false acceptance rate (FAR: false acceptance rate) in which the other person is mistaken for the person are required. Here, as a performance evaluation, FRR
And the FAR relationship. (a) is for matching the registered template with another image of the same person.
This is a comparison result of performance evaluation when only one image is used. Both FRR and FAR are better as they are smaller, but it can be seen that FRR and FAR in the present invention are already about one-tenth smaller than the result of another method when the whole matching is performed. Furthermore, even better results are obtained when split matching is performed. (b) is a comparison result of performance evaluation when an image that produces the best result among the three images of different images is selected in the verification of the registered template and another image of the same person. As a result of another method, there is still data that cannot correctly distinguish the principal from the other, but the method according to the present invention can completely distinguish the principal from the other. From these results, it can be concluded that the effect of the present invention is great.

本発明を実現するためのシステム構成の一例である。It is an example of the system configuration | structure for implement | achieving this invention. 指の静脈を獲得するための入力インターフェース構成の一例である。It is an example of the input interface structure for acquiring the vein of a finger. 指の静脈を獲得するための入力インターフェース構成の一例である。It is an example of the input interface structure for acquiring the vein of a finger. 安全性を配慮した指静脈パターン入力インターフェース構成の一例である。It is an example of the finger vein pattern input interface configuration in consideration of safety. 多方向から静脈パターンを撮像するための、入力インターフェース内での光源とCCDカメラの配置の一例である。It is an example of arrangement | positioning of the light source and CCD camera in an input interface for imaging a vein pattern from multiple directions. 認証を含めた入退出が非接触で行えるシステム構成の一例である。It is an example of a system configuration in which entry / exit including authentication can be performed without contact. 静脈パターンのほかに、暗証番号、指紋、虹彩、音声、筆跡、顔といった個人の特徴情報を組み合わせて認証を行うシステム構成の一例である。This is an example of a system configuration that performs authentication by combining personal feature information such as a personal identification number, fingerprint, iris, voice, handwriting, and face in addition to a vein pattern. ICカードを利用して静脈パターンのテンプレート画像を獲得するシステム構成の一例である。It is an example of a system configuration for acquiring a template image of a vein pattern using an IC card. 本発明を実現するためのソフトウェアによる処理の概要を示したフローチャートである。It is the flowchart which showed the outline | summary of the process by the software for implement | achieving this invention. 指画像の輪郭追跡方法を示したイメージ図である。It is the image figure which showed the outline tracking method of a finger image. 指画像の傾きを回転補正する方法を示したイメージ図である。It is the image figure which showed the method of carrying out the rotation correction | amendment of the inclination of a finger image. 指画像の切り出し部分を正規化する方法を示したイメージ図である。It is the image figure which showed the method of normalizing the cutout part of a finger image. 指画像から静脈パターンを取り出すためのフローチャートの一例である。It is an example of the flowchart for taking out a vein pattern from a finger image. 2つの静脈パターンのミスマッチ率を求めるためのフローチャートの一例である。It is an example of the flowchart for calculating | requiring the mismatch rate of two vein patterns. 2つの静脈パターンの部分画像を利用して静脈パターンの相関を求めるためのフローチャートの一例である。It is an example of the flowchart for calculating | requiring the correlation of a vein pattern using the partial image of two vein patterns. 認証システムの他人受入率(FAR)と本人拒否率(FRR)の関係における、本発明による手法と別手法との性能比較である。It is a performance comparison with the method by this invention, and another method in the relationship between the other party acceptance rate (FAR) of an authentication system, and a principal rejection rate (FRR).

符号の説明Explanation of symbols

1…指静脈パターン入力インターフェース、2…光源、3…光学フィルタ、4…CCDカメラ、5…画像キャプチャボード、6…計算機、7…インターフェース、
8…メモリ、9…CPU、10…外部記憶装置、20…指、22…指挿入口、30
…角を面取りした指静脈パターン入力インターフェース、32…横向きに指挿入口の開い
ている指静脈パターン入力インターフェース、33…壁、34…壁面に指挿入口を開けた
指静脈パターン入力インターフェース、36…指挿入口の奥が円弧状の指静脈パターン入
力インターフェース、38…クッション、40…認証請求者、42…自動ドア、43…暗
証番号入力キー、44…指紋入力インターフェース、46…虹彩撮像カメラ、48…顔画
像撮像カメラ、50…筆跡入力ペン、52…筆跡入力タブレット、54…マイク、60…ICカード、62…ICカードリーダ、
100…指画像、104…追跡点、106…指の上側輪郭の近似直線、108…指の中心
軸、110…指先、112…切り出す指画像の中心、114…切り出された指画像。
DESCRIPTION OF SYMBOLS 1 ... Finger vein pattern input interface, 2 ... Light source, 3 ... Optical filter, 4 ... CCD camera, 5 ... Image capture board, 6 ... Calculator, 7 ... Interface,
8 ... Memory, 9 ... CPU, 10 ... External storage device, 20 ... Finger, 22 ... Finger insertion slot, 30
... finger vein pattern input interface with chamfered corners, 32 ... finger vein pattern input interface with a finger insertion opening open sideways, 33 ... wall, 34 ... finger vein pattern input interface with a finger insertion opening opened on a wall surface, 36 ... Finger vein pattern input interface having a circular arc shape at the back of the finger insertion slot, 38 ... cushion, 40 ... authentication requester, 42 ... automatic door, 43 ... PIN number input key, 44 ... fingerprint input interface, 46 ... iris imaging camera, 48 ... Face imaging camera, 50 ... Handwriting input pen, 52 ... Handwriting input tablet, 54 ... Microphone, 60 ... IC card, 62 ... IC card reader,
DESCRIPTION OF SYMBOLS 100 ... Finger image, 104 ... Tracking point, 106 ... Approximate straight line of upper side outline of finger, 108 ... Finger central axis, 110 ... Finger tip, 112 ... Center of extracted finger image, 114 ... Extracted finger image

Claims (9)

個人の血管パターンを含む画像を取得できる入力インターフェースと、
当該取得された画像から血管パターン画像を生成し、予め記憶されている血管パターンとの照合を実行し、個人認証を実行する手段と、
上記予め記憶されている血管パターンと上記取得された血管パターンとが一致した場合に、
開閉可能な扉と、
当該扉の開閉動作を制御する手段とを備える入退室管理システムにおいて、
上記入力インターフェースは、
光源と、
当該光源から照射され上記個人の生体の一部を透過する光を撮像する撮像部と、
上記光源と上記撮像部とを内部に有する筐体とを少なくとも備え、
当該筐体には生体の一部を挿入可能な溝部ないし開口部を備え、
当該溝部ないし開口部に挿入される生体を挟んで側方に上記光源と撮像部が配置されていることを特徴とする入退室管理システム。
An input interface that can acquire an image including a personal blood vessel pattern;
Means for generating a blood vessel pattern image from the acquired image, performing collation with a previously stored blood vessel pattern, and executing personal authentication;
When the previously stored blood vessel pattern matches the acquired blood vessel pattern,
A door that can be opened and closed;
In an entrance / exit management system comprising means for controlling the opening and closing operation of the door,
The above input interface is
A light source;
An imaging unit that images light emitted from the light source and transmitted through a part of the living body of the individual;
A housing having at least the light source and the imaging unit;
The housing includes a groove or opening into which a part of the living body can be inserted,
An entrance / exit management system, characterized in that the light source and the imaging unit are arranged laterally across a living body inserted into the groove or opening.
請求項1に記載の入退室管理システムにおいて、
上記生体が挿入される開口部ないし溝部は、その両端が解放されていることを特徴とする入退室管理システム。
In the entrance / exit management system of Claim 1,
An entrance / exit management system, wherein both ends of the opening or groove into which the living body is inserted are opened.
請求項1に記載の入退室管理システムにおいて、
前記撮像部は、カメラと光学フィルターを少なくとも有することを特徴とする入退室管理システム。
In the entrance / exit management system of Claim 1,
The entrance / exit management system, wherein the imaging unit includes at least a camera and an optical filter.
請求項1に記載の入退室管理システムにおいて、
上記個人認証を実行する手段は、上記予め記憶される血管パターンと当該血管パターンに対応する個人の情報が格納された記憶手段を備えることを特徴とする入退室管理システム。
In the entrance / exit management system of Claim 1,
The entry / exit management system according to claim 1, wherein the means for executing personal authentication comprises storage means for storing the blood vessel pattern stored in advance and personal information corresponding to the blood vessel pattern.
請求項4に記載の入退室管理システムにおいて、
上記個人認証を実行する手段には、上記予め記憶される血管パターンと当該血管パターンに対応する個人の情報が格納された外部記憶手段が接続可能であることを特徴とする入退室管理システム。
In the entrance / exit management system of Claim 4,
The entrance / exit management system characterized in that the means for executing personal authentication can be connected to the previously stored blood vessel pattern and external storage means for storing personal information corresponding to the blood vessel pattern.
請求項1に記載の入退室管理システムにおいて、
上記入力インターフェースは、その角部が面取りされていることを特徴とする入退室管理システム。
In the entrance / exit management system of Claim 1,
The entry / exit management system, wherein the input interface has chamfered corners.
請求項1に記載の入退室管理システムにおいて、
キー操作もしくはICカードにより情報入力を受け付ける入力部を更に有することを特徴とする入退室管理システム。
In the entrance / exit management system of Claim 1,
An entry / exit management system further comprising an input unit for receiving information input by key operation or an IC card.
請求項7に記載の入退室管理システムにおいて、
上記入力部を介して暗証番号もしくはICカードによる情報入力を受付け、当該暗証番号の入力後に上記入力インターフェースを介して個人認証を実行することを特徴する入退室管理システム。
In the entrance / exit management system of Claim 7,
An entry / exit management system that receives information input by a personal identification number or an IC card through the input unit, and performs personal authentication through the input interface after the personal identification number is input.
個人の血管パターンを含む画像を取得できる入力インターフェースと、
当該取得された画像から血管パターン画像を生成し、予め記憶されている血管パターンとの照合を実行し、個人認証を実行する手段を有することを特徴とする個人認証装置。
An input interface that can acquire an image including a personal blood vessel pattern;
A personal authentication apparatus comprising means for generating a blood vessel pattern image from the acquired image, executing collation with a previously stored blood vessel pattern, and executing personal authentication.
JP2008303419A 2008-11-28 2008-11-28 Entrance / exit management system Expired - Lifetime JP4603610B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008303419A JP4603610B2 (en) 2008-11-28 2008-11-28 Entrance / exit management system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008303419A JP4603610B2 (en) 2008-11-28 2008-11-28 Entrance / exit management system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003401002A Division JP4251067B2 (en) 2003-12-01 2003-12-01 Personal authentication device and blood vessel pattern extraction device for personal authentication

Publications (2)

Publication Number Publication Date
JP2009087364A true JP2009087364A (en) 2009-04-23
JP4603610B2 JP4603610B2 (en) 2010-12-22

Family

ID=40660631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008303419A Expired - Lifetime JP4603610B2 (en) 2008-11-28 2008-11-28 Entrance / exit management system

Country Status (1)

Country Link
JP (1) JP4603610B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01281583A (en) * 1988-05-09 1989-11-13 Fujitsu Ltd Method and device for detecting rugged shape
JPH021242A (en) * 1988-06-09 1990-01-05 Fujitsu Ltd Contact type fingerprint detector
JPH0721373A (en) * 1993-06-17 1995-01-24 Asahi Optical Co Ltd Individual identifying device
JPH07171137A (en) * 1993-11-02 1995-07-11 Hamamatsu Photonics Kk Fingerprint reading device
JPH09134419A (en) * 1995-11-08 1997-05-20 Nippon Telegr & Teleph Corp <Ntt> Method for illuminating finger print and image pickup device for finger print
WO1997024066A1 (en) * 1995-12-27 1997-07-10 Toa Medical Electronics Co., Ltd. Noninvasive blood examination apparatus
JPH11203452A (en) * 1998-01-19 1999-07-30 Hitachi Ltd Personal feature pattern detector and personal identification device using the detector

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01281583A (en) * 1988-05-09 1989-11-13 Fujitsu Ltd Method and device for detecting rugged shape
JPH021242A (en) * 1988-06-09 1990-01-05 Fujitsu Ltd Contact type fingerprint detector
JPH0721373A (en) * 1993-06-17 1995-01-24 Asahi Optical Co Ltd Individual identifying device
JPH07171137A (en) * 1993-11-02 1995-07-11 Hamamatsu Photonics Kk Fingerprint reading device
JPH09134419A (en) * 1995-11-08 1997-05-20 Nippon Telegr & Teleph Corp <Ntt> Method for illuminating finger print and image pickup device for finger print
WO1997024066A1 (en) * 1995-12-27 1997-07-10 Toa Medical Electronics Co., Ltd. Noninvasive blood examination apparatus
JPH11203452A (en) * 1998-01-19 1999-07-30 Hitachi Ltd Personal feature pattern detector and personal identification device using the detector

Also Published As

Publication number Publication date
JP4603610B2 (en) 2010-12-22

Similar Documents

Publication Publication Date Title
JP3558025B2 (en) Personal authentication device and method
JP4251067B2 (en) Personal authentication device and blood vessel pattern extraction device for personal authentication
JP5134655B2 (en) Personal authentication system, personal authentication device, and blood vessel image capturing device
JP4389505B2 (en) Personal authentication device and blood vessel pattern extraction device
JP5789691B2 (en) Personal authentication device and blood vessel image capturing device
JP4555561B2 (en) Personal authentication system and device
JP2012128868A (en) Feature image photographing device and personal identification device
KR100937800B1 (en) System and apparatus for personal identification
JP6082766B2 (en) Blood vessel imaging device
JP4603610B2 (en) Entrance / exit management system
JP4603609B2 (en) Personal authentication device
JP5752175B2 (en) Blood vessel imaging device
JP4961492B2 (en) Personal authentication apparatus and method
JP2013168171A (en) Biological imaging device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090928

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100914

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101001

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4603610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

EXPY Cancellation because of completion of term