JP2012128868A - Feature image photographing device and personal identification device - Google Patents

Feature image photographing device and personal identification device Download PDF

Info

Publication number
JP2012128868A
JP2012128868A JP2012031373A JP2012031373A JP2012128868A JP 2012128868 A JP2012128868 A JP 2012128868A JP 2012031373 A JP2012031373 A JP 2012031373A JP 2012031373 A JP2012031373 A JP 2012031373A JP 2012128868 A JP2012128868 A JP 2012128868A
Authority
JP
Japan
Prior art keywords
finger
image
personal authentication
imaging
blood vessel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012031373A
Other languages
Japanese (ja)
Inventor
Naoto Miura
直人 三浦
Akio Nagasaka
晃朗 長坂
Takafumi Miyatake
孝文 宮武
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2012031373A priority Critical patent/JP2012128868A/en
Publication of JP2012128868A publication Critical patent/JP2012128868A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Input (AREA)

Abstract

PROBLEM TO BE SOLVED: To achieve highly accurate personal identification while using an unclear finger vein pattern image with position deviation concerning personal identification under an environment where non-contact property is requested.SOLUTION: This feature image photographing device includes: means for acquiring a finger vein pattern image in a non-contact state; means for performing spin compensation by using the outline of the finger as a method of extracting a vein pattern included in the acquired image; means for normalizing the position of a finger image by using the fingertip as a reference; means for acquiring a statistically overall vein pattern by repeatedly tracing the dark section of a luminance place only by arbitrary length from the arbitrary position of the image; matching means for comparing only the sections where strong features are shown in a blood vessel pattern; and means for dividing the image into small areas, and for independently performing matching for every small area, and for evaluating a position deviation value in the case of matching.

Description

本発明は、人間の指を透過した光を撮像して得られる静脈パターンを利用して個人認証を行う装置、および方法に関する。 The present invention relates to an apparatus and method for performing personal authentication using a vein pattern obtained by imaging light transmitted through a human finger.

個人認証技術には、指紋、虹彩、音声、手の甲の静脈などに基づく方法が存在する。指紋に基づく個人認証装置は、すでに複数の企業から製品化、販売されている。これらの製品は、指紋を指紋センサ上に接触させることで指紋を読み取り、指紋の端点や分岐点を特徴点として認識し、登録されている指紋の特徴点と照合することによって個人認証を行っている。 In personal authentication technology, there are methods based on fingerprints, irises, voice, veins on the back of the hand, and the like. Personal authentication devices based on fingerprints have already been commercialized and sold by multiple companies. These products perform fingerprint authentication by touching the fingerprint sensor on the fingerprint sensor, recognize fingerprint endpoints and branching points as feature points, and perform personal authentication by collating them with registered fingerprint feature points. Yes.

また、特開平10-295674号公報には、手の甲の静脈に基づく個人認証装置が開示されている。これによると、手の甲を撮像カメラに向け、そこから出射される光の反射光を利用して血管パターンを取り込み、認証を行う。このとき、固定された棒状のガイドを握ることによって、認証ごとに撮像する手の位置がずれないように工夫されている。 Japanese Patent Laid-Open No. 10-295674 discloses a personal authentication device based on the veins on the back of the hand. According to this, the back of the hand is directed to the imaging camera, and the blood vessel pattern is captured using the reflected light emitted from the imaging camera, and authentication is performed. At this time, it is devised so that the position of the hand for imaging is not shifted for each authentication by grasping the fixed rod-shaped guide.

また、特開平7-21373号公報には、指静脈を用いた個人認証装置が開示され、特に、撮影する際の光量のロスを少なくするため、光ファイバーを指に密着させて指画像を撮影することが開示されている。 Japanese Patent Application Laid-Open No. 7-21373 discloses a personal authentication device using a finger vein, and in particular, in order to reduce a loss of light quantity when photographing, a finger image is photographed with an optical fiber in close contact with the finger. It is disclosed.

特開平10−295674号公報JP-A-10-295664 特開平7−21373号公報JP 7-21373 A

従来の技術では、認証の際に指紋を採取する、もしくは目の中に光を入れるなど、心理的抵抗感の大きい方法を採用している。また前記従来の個人認証装置では、人間の体を認証装置に接触させる必要があり、衛生面を重視する医療現場等では利用することが適当でない場合がある。また体の外側にさらされている特徴を利用するため、偽造される可能性がある。 In the conventional technology, a method having a great psychological resistance such as collecting a fingerprint at the time of authentication or putting light in the eyes is adopted. Further, in the conventional personal authentication device, it is necessary to bring the human body into contact with the authentication device, and there are cases where it is not appropriate to use it in a medical field that places importance on hygiene. It can also be counterfeited because it uses features that are exposed outside the body.

本発明は、医療現場などの非接触性が求められる環境下でセキュリティシステムを構築することを目的とする。このため、本発明では非接触で指画像を撮影し、この指画像から指静脈パターンを抽出して個人認証を行う装置及び方法を提供する。
さらに、本発明では非接触で指を撮影する場合、回転や輝度むらが生じやすく高精度な個人認証結果が得にくいという新たな課題に着目した。そこで、本発明では、非接触のため回転や輝度むらが生じやすい指静脈パターン画像を用いながらも高精度な個人認証を行う個人認証装置および方法を提供する。
An object of this invention is to construct a security system in the environment where non-contact property is calculated | required, such as a medical field. Therefore, the present invention provides an apparatus and method for photographing a finger image in a non-contact manner, extracting a finger vein pattern from the finger image, and performing personal authentication.
Furthermore, in the present invention, when a finger is photographed in a non-contact manner, attention is paid to a new problem that rotation and luminance unevenness are likely to occur and it is difficult to obtain a highly accurate personal authentication result. Therefore, the present invention provides a personal authentication apparatus and method for performing high-accuracy personal authentication while using a finger vein pattern image that is likely to cause rotation and uneven brightness due to non-contact.

上記の目的を達成するため、本発明の個人認証装置は、登録指画像の静脈パターンを格納する記憶装置と、光源及び指透過光を撮影するカメラを備えたインターフェースと、撮影された指透過光画像に含まれる静脈パターンを抽出し、抽出した静脈パターンを前記登録指画像の静脈パターンと照合して個人認証を行う手段とを有し、前記インターフェースは、指を非接触で挿入する溝を有し、前記光源と前記カメラは、該溝を挟んで対向するように配置することを特徴とする。 In order to achieve the above object, a personal authentication device of the present invention includes a storage device that stores a vein pattern of a registered finger image, an interface including a light source and a camera that captures finger transmitted light, and captured finger transmitted light. Means for extracting a vein pattern included in the image and collating the extracted vein pattern with the vein pattern of the registered finger image for personal authentication, and the interface has a groove for inserting the finger in a non-contact manner. The light source and the camera are arranged to face each other with the groove interposed therebetween.

また、前記個人認証を行う手段は、撮影された指画像について、前記指が前記インターフェースに挿入される際に生じる撮像平面上の回転を補正し、回転補正した前記指画像に含まれる静脈パターンを抽出して個人認証を行うことを特徴とする。 Further, the means for performing personal authentication corrects a rotation on the imaging plane that occurs when the finger is inserted into the interface with respect to the photographed finger image, and a vein pattern included in the rotation-corrected finger image. Extracting and performing personal authentication.

本発明によれば、装置への接触を必要とせず、また認証時の心理的抵抗感も低く、かつ偽造のされにくい生体内部の特徴を用いた認証ができる。また非接触特有の位置ずれがあり不鮮明な画像を用いながらも高精度な個人認証が実現できる。 ADVANTAGE OF THE INVENTION According to this invention, the authentication using the characteristic inside a living body which does not require the contact to an apparatus, has a low psychological resistance at the time of authentication, and is hard to be counterfeited can be performed. In addition, high-precision personal authentication can be realized while using a non-contact-specific positional shift and a blurred image.

本発明を実現するためのシステム構成の一例である。It is an example of the system configuration | structure for implement | achieving this invention. 指の静脈を獲得するための入力インターフェース構成の一例である。It is an example of the input interface structure for acquiring the vein of a finger. 指の静脈を獲得するための入力インターフェース構成の一例である。It is an example of the input interface structure for acquiring the vein of a finger. 安全性を配慮した指静脈パターン入力インターフェース構成の一例である。It is an example of the finger vein pattern input interface configuration in consideration of safety. 多方向から静脈パターンを撮像するための、入力インターフェース内での光源とCCDカメラの配置の一例である。It is an example of arrangement | positioning of the light source and CCD camera in an input interface for imaging a vein pattern from multiple directions. 認証を含めた入退出が非接触で行えるシステム構成の一例である。It is an example of a system configuration in which entry / exit including authentication can be performed without contact. 静脈パターンのほかに、暗証番号、指紋、虹彩、音声、筆跡、顔といった個人の特徴情報を組み合わせて認証を行うシステム構成の一例である。This is an example of a system configuration that performs authentication by combining personal feature information such as a personal identification number, fingerprint, iris, voice, handwriting, and face in addition to a vein pattern. ICカードを利用して静脈パターンのテンプレート画像を獲得するシステム構成の一例である。It is an example of a system configuration for acquiring a template image of a vein pattern using an IC card. 本発明を実現するためのソフトウェアによる処理の概要を示したフローチャートである。It is the flowchart which showed the outline | summary of the process by the software for implement | achieving this invention. 指画像の輪郭追跡方法を示したイメージ図である。It is the image figure which showed the outline tracking method of a finger image. 指画像の傾きを回転補正する方法を示したイメージ図である。It is the image figure which showed the method of carrying out the rotation correction | amendment of the inclination of a finger image. 指画像の切り出し部分を正規化する方法を示したイメージ図である。It is the image figure which showed the method of normalizing the cutout part of a finger image. 指画像から静脈パターンを取り出すためのフローチャートの一例である。It is an example of the flowchart for taking out a vein pattern from a finger image. 2つの静脈パターンのミスマッチ率を求めるためのフローチャートの一例である。It is an example of the flowchart for calculating | requiring the mismatch rate of two vein patterns. 2つの静脈パターンの部分画像を利用して静脈パターンの相関を求めるためのフローチャートの一例である。It is an example of the flowchart for calculating | requiring the correlation of a vein pattern using the partial image of two vein patterns. 認証システムの他人受入率(FAR)と本人拒否率(FRR)の関係における、本発明による手法と別手法との性能比較である。It is a performance comparison with the method by this invention, and another method in the relationship between the other party acceptance rate (FAR) of an authentication system, and a principal rejection rate (FRR).

以下、本発明の1実施例を詳細に説明する。図1は、本発明を実現するためのシステム構成の概略ブロック図である。指を挿入する部分にあたる静脈パターン入力インターフェース1の中には、光源2と光学フィルタ3、CCDカメラ4がある。光源2と光学フィルタ3の間に指を挿入することで静脈パターンを獲得する。指を透過した光は光学フィルタ3を通してCCDカメラ4で撮像される。CCDカメラ4で撮像された画像信号は画像キャプチャボード5を用いてPC6に取り込まれる。PC6内部では、取り込まれた画像信号はインターフェース7を通してメモリ8に格納される。また外部記憶装置10に保存されている登録画像がメモリ8に格納される。そしてメモリ8に格納されているプログラムに従い、CPU9によって取り込まれた画像と登録画像が一致するか否かの判断がなされる。なおこのプログラムは、外部の記憶媒体を用いて装置に供給してもよい。記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。 Hereinafter, an embodiment of the present invention will be described in detail. FIG. 1 is a schematic block diagram of a system configuration for realizing the present invention. In the vein pattern input interface 1 corresponding to the finger insertion portion, there are a light source 2, an optical filter 3, and a CCD camera 4. A vein pattern is acquired by inserting a finger between the light source 2 and the optical filter 3. The light transmitted through the finger is imaged by the CCD camera 4 through the optical filter 3. The image signal picked up by the CCD camera 4 is taken into the PC 6 using the image capture board 5. Inside the PC 6, the captured image signal is stored in the memory 8 through the interface 7. A registered image stored in the external storage device 10 is stored in the memory 8. Then, according to the program stored in the memory 8, it is determined whether or not the image captured by the CPU 9 matches the registered image. This program may be supplied to the apparatus using an external storage medium. As the storage medium, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like can be used.

図2は、非接触な方法で指静脈パターン画像を獲得する指静脈パターン入力インターフェース1の構造の一例である。インターフェースには溝状の隙間である指挿入口22があり、その部分に指20を通すことで静脈パターンを獲得する。このとき装置自体に指を接触させる必要がない。また、溝の中に複数本の指を通すことによって複数の指の静脈パターンを撮像することができる。さらに、肩、肘、手首等を中心に円の軌道を描いて指を振り下ろすことで複数本の指20を連続的に指挿入口22に通し、指画像を撮像することも可能である。このような非接触な撮像方法をとる場合、撮像された指画像は撮像平面に対する回転が生じる。従って、撮像された指画像には、必然的に回転補正を行う必要がある。
なお、溝の方向は、地面に対してどのような方向であっても良いが、特に地面に対して垂直方向の溝を設けた場合、ユーザは重力に従って手を振り下ろすという自然な運動で、パターン画像の獲得ができるので、使い勝手がよいという効果がある。
また、このように溝に指を通すようなインターフェースの構造は、指の中心軸を中心とした回転が生じにくくなるため、認証の精度が高くなるという効果がある。
FIG. 2 is an example of the structure of the finger vein pattern input interface 1 that acquires a finger vein pattern image by a non-contact method. The interface has a finger insertion opening 22 which is a groove-like gap, and a vein pattern is acquired by passing the finger 20 through that portion. At this time, it is not necessary to bring the finger into contact with the device itself. Moreover, the vein pattern of a plurality of fingers can be imaged by passing a plurality of fingers through the groove. Furthermore, it is also possible to capture a finger image by continuously passing a plurality of fingers 20 through the finger insertion slot 22 by swinging down a finger while drawing a circular trajectory around the shoulder, elbow, wrist and the like. When such a non-contact imaging method is taken, the captured finger image is rotated with respect to the imaging plane. Therefore, it is necessary to inevitably perform rotation correction on the captured finger image.
The direction of the groove may be any direction with respect to the ground, but in particular, when a groove perpendicular to the ground is provided, the user is a natural motion of swinging his hand down according to gravity. Since the pattern image can be acquired, there is an effect that it is easy to use.
In addition, such an interface structure in which a finger is passed through the groove is less likely to rotate around the central axis of the finger, so that the accuracy of authentication is improved.

図3は、指静脈パターン入力インターフェース1の別の例である。これは穴状の指の挿入口22がある入力インターフェースの例である。指20を指の挿入口22に挿入し、その内部にある一つまたは複数の光源・撮像素子によって指の静脈を獲得する。このとき指の中心軸に対し同心円方向に指を回転させることで多方向からの静脈パターンを獲得することもできる。 FIG. 3 is another example of the finger vein pattern input interface 1. This is an example of an input interface having a hole-like finger insertion slot 22. The finger 20 is inserted into the insertion slot 22 of the finger, and the vein of the finger is acquired by one or a plurality of light sources / image sensors inside the finger 20. At this time, a vein pattern from multiple directions can be obtained by rotating the finger concentrically with respect to the central axis of the finger.

図4は、認証の際及びインターフェース設置場所付近を通行する際の安全性を考慮した、上記の非接触型の指静脈パターン入力インターフェースの一例である。(a)は指静脈パターン入力インターフェースの角を面取りして、指、手、腕などが接触した場合でも安全な形状にしたものである。また、設置場所によっては装置が突出していると危険な場合もある。その場合は(b)に示すように溝を横向きに設けることでインターフェースの突出の幅を狭める、もしくは(c)に示すように設置する壁面自体に指の挿入口を設ける。ただし(c)においては腕を振り下ろして通すのに十分な幅の溝を有する。また、腕を振り下ろして指を撮像することに対応するために、(d)に示すように指の挿入口の奥を指の軌道に合わせて円弧状にする。このような構造にすることで、腕の円運動に対して指が装置に接触しにくい構造となる。また、装置の表面及び指の挿入口の内部をクッションのような柔らかい材質のもので覆うことで、指の接触に対する安全性を高めることができる。この図では、円弧状の部分にクッション38が並べて貼り付けられている様子が示されている。なお、上述した指静脈パターン入力インターフェースは、溝が縦方向に開けられ、上下方向に指を動かすことで静脈パターンを獲得する例であるが、装置の設置条件により溝の開けられる向き及び指を動かす向きは任意とすることができる。 FIG. 4 shows an example of the non-contact type finger vein pattern input interface in consideration of safety during authentication and when passing near the interface installation location. (a) Chamfers the corners of the finger vein pattern input interface so that it is safe even when fingers, hands, arms, etc. come into contact. Also, depending on the installation location, it may be dangerous if the device protrudes. In that case, as shown in (b), the groove is provided sideways to narrow the width of the protrusion of the interface, or as shown in (c), a finger insertion opening is provided on the wall surface itself. However, in (c), there is a groove of sufficient width to swing the arm down and pass through. Further, in order to cope with imaging of the finger by swinging down the arm, as shown in (d), the back of the insertion slot of the finger is formed in an arc shape in accordance with the trajectory of the finger. By adopting such a structure, the finger is less likely to contact the device with respect to the circular movement of the arm. Moreover, the safety | security with respect to a finger contact can be improved by covering the surface of an apparatus and the inside of the insertion slot of a finger | toe with a soft material like a cushion. In this figure, a state in which the cushion 38 is affixed side by side to the arc-shaped portion is shown. The above-described finger vein pattern input interface is an example in which the groove is opened in the vertical direction and the vein pattern is obtained by moving the finger in the vertical direction. The moving direction can be arbitrary.

図5は、上記指静脈パターン入力インターフェース1内部における、複数の光源・撮像素子によって多方向から静脈パターンを撮像するための構成の一例である。指20の中心軸に対して同心円状に、お互いが対面する位置に光源2と光学フィルタ3の付いたCCDカメラ4が複数個並んでいる。指20が入力インターフェース1に挿入されるとそれらの撮像素子が多方向から指画像を撮像する。この構成では指を回転させることなく多方向からの静脈パターンが撮像できるという効果がある。光源同士の干渉によって撮影画像が乱れる場合には、光源の動作する時間をずらして逐次撮像してもよい。 FIG. 5 shows an example of a configuration for imaging a vein pattern from multiple directions by a plurality of light sources / imaging elements inside the finger vein pattern input interface 1. A plurality of CCD cameras 4 having a light source 2 and an optical filter 3 are arranged in a concentric manner with respect to the central axis of the finger 20 at positions facing each other. When the finger 20 is inserted into the input interface 1, those image pickup devices pick up finger images from multiple directions. With this configuration, there is an effect that vein patterns from multiple directions can be imaged without rotating the finger. When the captured image is disturbed due to interference between the light sources, the images may be sequentially captured with the light source operating time shifted.

図6は、上記の非接触型の指静脈パターン入力インターフェースと非接触型の自動ドアを組み合わせ、認証を含めた入退室を非接触で行うことができるシステムの一例である。指静脈パターン入力インターフェース20が自動ドア42の横の壁面に設置され、ここに指20を挿入する。認証請求者40の静脈パターンがシステムに登録されている静脈パターンと一致した場合、自動ドア42が自動的に開く。このとき、認証から扉の開閉までのすべてが非接触で行えることが大きな特徴である。この場合の、入力インターフェースとしては、図4に記載の種々の構成が用いられる。 FIG. 6 shows an example of a system in which the non-contact type finger vein pattern input interface and the non-contact type automatic door are combined, and entrance / exit including authentication can be performed without contact. The finger vein pattern input interface 20 is installed on the wall surface next to the automatic door 42, and the finger 20 is inserted therein. When the vein pattern of the authentication requester 40 matches the vein pattern registered in the system, the automatic door 42 is automatically opened. At this time, it is a great feature that everything from authentication to opening and closing of the door can be performed without contact. In this case, various configurations shown in FIG. 4 are used as the input interface.

図7は、静脈パターンと指紋、虹彩、音声、筆跡、顔などを複数組み合わせた個人認証装置の一例である。認証請求者40は認証を受けるべき場所に設置してある認証装置によって認証を受ける。静脈パターンを撮像する入力インターフェース1により静脈を撮像するが、それに前後してその他の個人特徴を各種入力インターフェースによって入力する。たとえば暗証番号を暗証番号入力キー43によって入力し、それから指を静脈パターン入力インターフェース1に挿入して認証を受ける。さらに認証の精度を高めるために、指紋入力インターフェース44によって指紋を入力し、虹彩撮像カメラ46、顔画像撮像カメラ48によって被認証者の虹彩と顔画像を撮像する。そして筆跡確認のため筆跡入力ペン50によって筆跡入力タブレット52の上に文字を書き、さらに音声を発することでマイク54がその音声を拾う。これらの様々な個人の特徴をPC6によって解析し、最終的に認証されるか否かが決定される。静脈パターンによる認証と併用して用いられる個人の特徴情報の組み合わせ方は任意であり、当然すべてを用いる必要はないが、この例ではより認証精度を高めるために多くの特徴情報を利用している。また、指紋の入力装置と静脈パターン撮像装置とを一体化して、所定の場所に1回指を置くだけで両方の入力が同時にできるようにしてもよい。これによって、ユーザの手間を省くと共に、より高精度な個人認証が可能となる。 FIG. 7 shows an example of a personal authentication device that combines a plurality of vein patterns, fingerprints, irises, voices, handwriting, faces, and the like. The authentication requester 40 is authenticated by an authentication device installed at a place where authentication is to be performed. The vein is imaged by the input interface 1 that images the vein pattern, but before and after that, other personal features are input by various input interfaces. For example, a personal identification number is input by the personal identification number input key 43, and then a finger is inserted into the vein pattern input interface 1 for authentication. In order to further improve the accuracy of authentication, a fingerprint is input through the fingerprint input interface 44, and the iris and face images of the person to be authenticated are captured by the iris imaging camera 46 and the face image capturing camera 48. Then, the handwriting input pen 50 writes characters on the handwriting input tablet 52 for handwriting confirmation, and the microphone 54 picks up the sound by further producing sound. These various individual characteristics are analyzed by the PC 6 and it is finally determined whether or not to be authenticated. The combination of personal feature information used in combination with vein pattern authentication is arbitrary. Of course, it is not necessary to use all of them, but in this example, a lot of feature information is used to improve authentication accuracy. . Alternatively, the fingerprint input device and the vein pattern imaging device may be integrated so that both inputs can be performed simultaneously by placing the finger once at a predetermined location. This saves the user trouble and enables more accurate personal authentication.

図8はICカードを利用して暗証番号や個人の特徴情報を認証装置に与えるシステムの一例である。認証請求者40は暗証番号や本人の静脈パターン、指紋、音声、虹彩、筆跡、顔などの個人の特徴情報が記録されているICカード60を保持している。この図は被接触型のICカードを使用した例であるが、接触型ICカードを使用することも可能である。ICカード60に記録されている情報はICカードリーダ62に近づくと自動的にICカードリーダ62によって読み込まれる。このとき個人の特徴情報が個人認証装置に送られるが、個人を識別する番号だけを装置に送り、あらかじめ外部記憶装置10に記憶されている個人の特徴情報のうちその番号に応じたものを読み出すことで個人の特徴情報を獲得してもよい。この図の例では静脈パターンを個人の特徴情報として与えている。その後指静脈パターン入力インターフェース1に指を挿入することで静脈パターンを獲得、ICカード60もしくは外部記憶装置10から読み出された静脈パターンとのマッチングをとり、認証が行われる。この図では静脈パターンとICカードの組み合わせだけを示したが、図7で示した様々な個人の特徴情報を併用することも可能である。 FIG. 8 shows an example of a system that uses a smart card to give a personal identification number and personal characteristic information to an authentication apparatus. The authentication requester 40 holds an IC card 60 in which personal feature information such as a personal identification number, a vein pattern of the person, a fingerprint, voice, iris, handwriting, and face is recorded. This figure shows an example using a contact type IC card, but a contact type IC card can also be used. The information recorded in the IC card 60 is automatically read by the IC card reader 62 when approaching the IC card reader 62. At this time, the personal feature information is sent to the personal authentication device, but only a number for identifying the individual is sent to the device, and the personal feature information stored in advance in the external storage device 10 is read according to the number. Thus, personal feature information may be acquired. In the example of this figure, a vein pattern is given as individual feature information. Thereafter, a finger is inserted into the finger vein pattern input interface 1 to obtain a vein pattern, and matching with the vein pattern read from the IC card 60 or the external storage device 10 is performed for authentication. In this figure, only the combination of the vein pattern and the IC card is shown, but various individual feature information shown in FIG. 7 can be used together.

以下では、上記ハードウェア、特にCPU9によって実行される、先述の課題を解決するソフトウェアソフトウェアフローについて詳細に説明する。なおこのフローを実現するソフトウェアプログラムは、外部の記憶媒体を用いて装置に供給してもよい。記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。 図9は、指画像が取り込まれてから認証が行われるまでの概略フローチャートである。静脈パターンによる個人認証を行うためには、取り込まれた指画像から静脈パターンを抽出し、登録されている静脈パターンとの比較を行う必要がある。従って撮像された指画像はいくつかの段階を経て登録画像と比較できる形の静脈パターンへ変換されなければならない。まず各種の初期化(200)を行った後、画像内の指部分だけを取り出すために指の輪郭検出(202)を行う。この時点で指がどのような角度、位置で撮像されているかが検出できる。どのような角度や位置で撮像されていても正しく認識できるように指の傾きを水平にする回転補正(204)を行った後、認識に必要な部分だけを取り出す指画像の切り出し(206)を行う。このときに得られる画像は静脈パターンだけでなく認証に不要な影や輝度むらなどが存在する。そこで静脈パターンだけを取り出すために、血管追跡(208)を行う。この結果を利用して、登録画像と取り込まれた指画像との静脈パターンのマッチング(210)を行い、画像間の相関を評価値として算出する。評価値の大きさによって本人もしくは他人であると判断されるが、どちらとも決めがたい評価値であった場合(212)、さらに、画像を小領域に分割してマッチングを行いマッチした位置ずれを評価する分割マッチング(214)を行う。そして最終的に本人であるか否かを判定する(216)。 Hereinafter, a software software flow executed by the hardware, particularly the CPU 9, for solving the above-described problem will be described in detail. Note that the software program for realizing this flow may be supplied to the apparatus using an external storage medium. As the storage medium, for example, a flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like can be used. FIG. 9 is a schematic flowchart from when a finger image is captured until authentication is performed. In order to perform personal authentication using a vein pattern, it is necessary to extract a vein pattern from the captured finger image and compare it with a registered vein pattern. Therefore, the captured finger image must be converted into a vein pattern that can be compared with the registered image through several stages. First, after performing various initializations (200), finger contour detection (202) is performed in order to extract only the finger portion in the image. At this time, it can be detected at what angle and position the finger is imaged. After performing the rotation correction (204) for making the finger tilt horizontal so that it can be correctly recognized no matter what angle or position the image is picked up, the finger image clipping (206) for extracting only the part necessary for recognition is performed. Do. The image obtained at this time includes not only the vein pattern but also shadows and uneven brightness that are unnecessary for authentication. Therefore, blood vessel tracking (208) is performed to extract only the vein pattern. Using this result, the vein pattern matching (210) between the registered image and the captured finger image is performed, and the correlation between the images is calculated as an evaluation value. Depending on the size of the evaluation value, it is determined that the person is the person or the other person, but if both are evaluation values that are difficult to determine (212), the image is further divided into small areas and matching is performed. Split matching (214) to be evaluated is performed. Then, it is finally determined whether or not the person is himself (216).

以下では、図9に示されたフローチャートの各項目ついて詳細に説明する。
図10は指の輪郭検出処理の一例を示したものである。(a)は撮像された画像の模式図である。ここでは指が画像左側から水平方向に撮像され、指先が右側に位置している場合について説明する。初めに指20と背景部分の境界を強調するためにコントラストの調整を行う。ただし、画像全体のコントラストを調整する必要はなく、たとえば下側の輪郭が不鮮明である場合には画像下側だけのコントラストを調整すればよい。この処理によって指のエッジが強調される。(a)における指20のエッジが鮮明になっている様子を(b)に示す。
Below, each item of the flowchart shown in FIG. 9 is demonstrated in detail.
FIG. 10 shows an example of finger contour detection processing. (a) is a schematic diagram of a captured image. Here, a case where the finger is imaged in the horizontal direction from the left side of the image and the fingertip is positioned on the right side will be described. First, the contrast is adjusted to emphasize the boundary between the finger 20 and the background portion. However, it is not necessary to adjust the contrast of the entire image. For example, when the lower outline is unclear, it is only necessary to adjust the contrast only on the lower side of the image. This process enhances the edge of the finger. A state in which the edge of the finger 20 in (a) is clear is shown in (b).

続いて、実際に指の輪郭検出を行う。まず、画像100の中心に追跡点104を置く。この位置から上下別々に1ピクセルずつ移動し、指の輪郭部分を検出する出発位置を求める。画像の中心には指部分が写っているため、その位置の上下数ピクセルはすべて比較的明るい輝度値を持つ。上下に移動していくとやがて指部分と背景部分の境界に到達する。このとき、画像内側(指側)にある数ピクセルの輝度値は比較的高いが、画像外側(背景側)にある数ピクセルの輝度値は低いはずである。従って、追跡点104の現在位置における内側nピクセルの輝度値の和から、外側nピクセルの輝度値の和を減じて差分を求め、画像の上端または下端まで追跡点104を移動した中で、最も高い差分値を示した位置が背景と指との境界であると判断することができる。(c)は追跡点104が上下に移動し、指と背景の境界にたどり着いたところを表している。次にこの位置から指の輪郭をたどる。この場合は右方向と左方向の2通りについてたどる必要がある。左方向をたどる場合は、現在位置の左、左上、左下の3点について、上方nピクセルと下方nピクセルの輝度値の差分を計算し、最も大きい差分値を持つ位置を次の位置とする。このようにして画像の左端までたどっていくと、その軌跡が輪郭となる。右方向については、指先部分をたどる必要があるため、上側の輪郭追跡については現在位置の右下のさらに下数ピクセル、かつ現在位置の真下についても探索範囲とし、下側の輪郭追跡については現在位置の右上のさらに上数ピクセル、かつ現在位置の真上についても探索範囲とした。これにより、指先の曲率の高いカーブまで検出できることになる。(d)は最終的に追跡点104が指の輪郭をたどった結果を表している。尚、上記では撮像画像が定型的に決められているため単純な追跡方法を採用したが、画像処理で利用される他の様々な輪郭追跡方法を利用して精度を向上できることはいうまでもない。 Subsequently, finger contour detection is actually performed. First, the tracking point 104 is placed at the center of the image 100. The starting position for detecting the contour portion of the finger is obtained by moving one pixel upward and downward from this position. Since the finger portion is shown in the center of the image, all the pixels above and below that position have relatively bright luminance values. As you move up and down, you will eventually reach the border between your finger and background. At this time, the luminance values of several pixels inside the image (finger side) should be relatively high, but the luminance values of several pixels outside the image (background side) should be low. Accordingly, the sum of the luminance values of the inner n pixels at the current position of the tracking point 104 is subtracted from the sum of the luminance values of the outer n pixels to obtain a difference, and the tracking point 104 is moved to the upper or lower end of the image. It can be determined that the position showing a high difference value is the boundary between the background and the finger. (c) shows the tracking point 104 moving up and down to reach the boundary between the finger and the background. Next, the outline of the finger is traced from this position. In this case, it is necessary to follow the right direction and the left direction. When tracing in the left direction, the difference between the luminance values of the upper n pixels and the lower n pixels is calculated for the three points on the left, upper left, and lower left of the current position, and the position having the largest difference value is set as the next position. In this way, when the image is traced to the left end, the locus becomes an outline. For the right direction, it is necessary to follow the fingertip part, so the upper contour tracking is set to the lower several pixels below the current position and the search range is also directly below the current position, and the lower contour tracking is The search range was also set for several pixels in the upper right of the position and just above the current position. As a result, even a curve with a high curvature of the fingertip can be detected. (d) represents the result of the tracking point 104 finally following the contour of the finger. In the above, since a captured image is fixedly determined, a simple tracking method is adopted, but it goes without saying that various other contour tracking methods used in image processing can be used to improve accuracy. .

図11は先述の方法で得られた指の輪郭情報を用いた指の回転補正処理の一例を示している。(a)は指の回転補正前の画像を表している。撮像されたときの指の傾きはその輪郭の形状を調べることで分かる。すべての指画像においてその傾きが一定となるように補正することで、カメラの撮影平面に対する二次元的な回転に対する正規化がなされる。指の傾きは、指を直線で近似したときの線と水平線とのなす角と考えられるが、ここではその一例として上側の輪郭線を利用した回転補正方法について説明する。指の輪郭線は、同じ指の場合、挿入の傾きが異なっていてもその形状は同じである。ここでその輪郭線の近似直線を求める。一般的に、曲線とその近似直線との相対的位置関係は常に一定である。従って、傾きが異なり、かつ同じ形状の輪郭線は、その近似直線によって傾きの正規化ができる。このときできるだけ直線に近い状態の曲線から近似直線を求めた方がより精度が上がるため、直線的な上側の輪郭線から近似的な直線を求める。具体的には、たとえば指先から16ピクセルほど指の根元方向へ進んだ位置から、同方向へ128ピクセル進んだ位置の間にある輪郭だけを利用する。あえて指先を避けるようにしたのは、曲率の高い部分を避けるためである。 FIG. 11 shows an example of a finger rotation correction process using the finger contour information obtained by the above-described method. (a) represents an image before finger rotation correction. The inclination of the finger when the image is taken can be found by examining the shape of the outline. By correcting so that the tilt is constant in all finger images, normalization with respect to two-dimensional rotation with respect to the imaging plane of the camera is performed. The tilt of the finger is considered to be an angle formed by a line obtained by approximating the finger with a straight line and a horizontal line. Here, as an example, a rotation correction method using the upper contour line will be described. In the case of the same finger, the shape of the finger outline is the same even if the inclination of insertion is different. Here, an approximate straight line of the contour line is obtained. In general, the relative positional relationship between a curve and its approximate straight line is always constant. Therefore, the contour lines having different inclinations and the same shape can be normalized by the approximate straight line. At this time, since it is more accurate to obtain an approximate straight line from a curve that is as close to a straight line as possible, an approximate straight line is obtained from a straight upper contour line. Specifically, for example, only the contour between the position advanced 16 pixels from the fingertip and the position advanced 128 pixels in the same direction is used. The purpose of avoiding the fingertip is to avoid a portion with a high curvature.

次に、利用する輪郭部分のピクセルを等間隔に数点ほど取り出し、最小二乗法によって上側輪郭の近似直線106を求める。最後にこの直線が画像に対して水平になるように全体を回転する。ただし回転中心は仮にこの直線と画像の左端との交点とする。また位置の正規化については後述する。(b)は上側輪郭の近似直線106を水平に回転補正した結果である。図12は回転補正した指画像から認証に必要となる部分を切り出す処理の一例を示している。通常、指の撮像されている水平・垂直方向の位置は指を撮像するたびに異なる。従って指画像をマッチングに利用しやすくするために、指の位置を正規化する必要がある。一方、認識を行うには画像内に静脈パターンが撮像されていればよく、その他の不要な部分は保持しておく必要は無い。そこで、元画像より小さなサイズの画像を元画像から切り出す。このとき、切り出す位置を常に指の同じ部分に合わせれば、指の位置を正規化したことになる。切り出し部分の位置決めには指の輪郭情報を利用する。まず左右方向の位置は、輪郭情報から得られる指先110を利用して、たとえば指先110が切り出す画像の右端に一致する位置と決める。次に、上下方向の位置は、指の上下の輪郭を利用して指の中心軸108を求め、その中心軸108が、切り出す画像の中心を通るような位置とする。このような位置決めにより、切り出し画像114が得られる。この切り出し画像114は画像100のどの位置に指20が撮像されていても毎回同じ指部分を切り出すことになり、指位置の正規化がなされたことになる。 Next, several pixels of the contour portion to be used are extracted at equal intervals, and the approximate straight line 106 of the upper contour is obtained by the least square method. Finally, the whole is rotated so that this straight line is horizontal to the image. However, the rotation center is assumed to be the intersection of this straight line and the left end of the image. The normalization of the position will be described later. (b) is the result of horizontal rotation correction of the approximate straight line 106 of the upper contour. FIG. 12 shows an example of a process for cutting out a part necessary for authentication from a rotation-corrected finger image. Usually, the horizontal and vertical positions where the finger is imaged differ each time the finger is imaged. Therefore, in order to make it easy to use the finger image for matching, it is necessary to normalize the finger position. On the other hand, in order to perform recognition, it is only necessary to capture a vein pattern in the image, and it is not necessary to hold other unnecessary portions. Therefore, an image having a smaller size than the original image is cut out from the original image. At this time, if the cutout position is always matched with the same part of the finger, the finger position is normalized. The finger outline information is used for positioning the cutout portion. First, the position in the left-right direction is determined as a position that matches, for example, the right edge of the image cut out by the fingertip 110 using the fingertip 110 obtained from the contour information. Next, the position in the vertical direction is determined such that the central axis 108 of the finger is obtained using the vertical contours of the finger and the central axis 108 passes through the center of the image to be cut out. A clipped image 114 is obtained by such positioning. This cutout image 114 cuts out the same finger portion every time the finger 20 is imaged at any position in the image 100, and the finger position is normalized.

図13は切り出された指画像に対する血管追跡処理の流れを示すフローチャートである。CCDカメラにより撮像された指画像には、認証に必要な静脈パターンが鮮明に映し出されている訳ではない。得られる画像には、背景のノイズ、指の骨や肉の厚さが不均一なために不規則に生じる影、輝度むらなど、認証に不要な情報が多く含まれている。従って、このような画像を認証に用いるためには、画像から静脈パターンだけを取り出す、あるいは静脈パターンを強調する必要がある。指画像は指を透過した光を撮像したものである。透過光は血中ヘモグロビンに吸収される波長であるため、血管部分は暗い輝度値となる。また関節部分からは明るい光が漏れ出している。従って、バックグラウンドの輝度は空間的に大きく変化しており、単純にエッジを強調することで血管だけを強調することができない。しかし、空間的に局所的な範囲に限れば血管部分は周囲よりも暗い。従って、ある位置からより暗い部分へ移動し続けたときの軌跡が血管である可能性は高い。通常血管は1本ではなく複数本存在し、さらにその本数や長さは事前に知ることはできない。そこで、本実施例では、様々な位置で、様々な長さの軌跡を多数求め、それらを重ね合わせるこ
とで統計的に血管パターンを浮かび上がらせることとする。
このような考えに基づいて、以下のような方法で血管を追跡した。まず初めに血管を追跡した経歴を保持するための、画像と同じ大きさの得点表を用意し、そのすべてを0に初期化する(300)。全体の血管パターンを浮かび上がらせるために必要な回数jだけ繰り返し実行される血管追跡のループ(302)の中においては、まず1回分の血管追跡を行う追跡点の出発位置を乱数によって決定(304)する。ただし背景、指先、指の根元、指の輪郭付近を出発点とすると血管を正しくたどることができなくなるため、指の輪郭情報を利用して、それらが出発点とならないようにする。
FIG. 13 is a flowchart showing the flow of blood vessel tracking processing for a cut finger image. The finger image captured by the CCD camera does not clearly show the vein pattern necessary for authentication. The obtained image contains a lot of information unnecessary for authentication, such as background noise, irregular shadows due to uneven thickness of finger bones and flesh, and uneven brightness. Therefore, in order to use such an image for authentication, it is necessary to extract only the vein pattern from the image or to emphasize the vein pattern. The finger image is an image of light transmitted through the finger. Since the transmitted light has a wavelength that is absorbed by hemoglobin in blood, the blood vessel portion has a dark luminance value. Bright light leaks from the joints. Therefore, the background luminance varies greatly in space, and it is not possible to emphasize only blood vessels by simply enhancing the edges. However, the blood vessel portion is darker than the surroundings if limited to a spatially local range. Therefore, there is a high possibility that the locus when moving from a certain position to a darker portion is a blood vessel. Usually there are multiple blood vessels instead of one, and the number and length of them are not known in advance. Therefore, in this embodiment, a large number of trajectories of various lengths are obtained at various positions, and the blood vessel pattern is statistically emerged by superimposing them.
Based on this idea, blood vessels were tracked by the following method. First, a score table having the same size as the image is prepared to hold the history of tracking blood vessels, and all of them are initialized to 0 (300). In the blood vessel tracking loop (302), which is repeatedly executed as many times as necessary j to reveal the entire blood vessel pattern, first, the starting position of the tracking point for one blood vessel tracking is determined by a random number (304). To do. However, since the blood vessel cannot be traced correctly if the background, the fingertip, the base of the finger, or the vicinity of the contour of the finger is used as a starting point, the contour information of the finger is used so that they do not become the starting point.

また出発点は血管上に配置したほうがより血管をたどりやすい。そこで複数の出発点候補を決め、その中で最も暗い輝度値のピクセルを出発点とする。ただし常にこの条件で出発点を決定すると明るい部分に存在する血管が追跡されにくくなるため、複数の出発点候補のうちで最も暗い輝度値のピクセルを常に出発点とするのでなく、一定の確率で最も明るい輝度値を持つピクセルを出発点とする。この確率は乱数によって決定する。次にこの追跡点の移動しやすい向きを決定する(306)。この性質は後述の移動可能点の決定に用いられる。この決定法の一例として、乱数によって、右または左、かつ上または下へ移動しやすい性質を持つと決定する。続いて「寿命」を決定(308)し、同時にその値を初期値として追跡点に与える。追跡は、上記寿命により定まる距離だけ追跡した時点で打ち切る。つまり、追跡の長さを追跡点の寿命とて、追跡点の追跡の長さを表すし、1ピクセルをたどるごとに寿命を減らし寿命が尽きた時点で追跡を終了させる。この寿命は乱数を用いて決定される。 It is easier to follow the blood vessel if the starting point is placed on the blood vessel. Therefore, a plurality of starting point candidates are determined, and the pixel having the darkest luminance value among them is set as the starting point. However, if the starting point is always determined under this condition, it is difficult to track the blood vessels in the bright part.Therefore, the pixel with the darkest luminance value among the multiple starting point candidates is not always set as the starting point, but with a certain probability. The pixel with the brightest luminance value is taken as the starting point. This probability is determined by a random number. Next, the direction in which the tracking point is easy to move is determined (306). This property is used to determine the movable point described later. As an example of this determination method, it is determined by random numbers that it has a property of easily moving right or left and upward or downward. Subsequently, “life” is determined (308), and at the same time, the value is given to the tracking point as an initial value. The tracking is stopped when the tracking is performed for a distance determined by the lifetime. In other words, the tracking length represents the tracking point life, and the tracking point tracking length is represented, and the tracking is terminated when the lifetime is exhausted every time one pixel is traced. This lifetime is determined using a random number.

続いてこの追跡点を移動させる。はじめに、追跡点が次に移動することのできる点を決定(310)する。血管の多くは指の長軸方向を走っているが、追跡点の移動する傾向を血管の走る方向の傾向に合わせることで血管がより強調される。そこで、次に移動することのできる点の候補にある傾向をもたせることで、移動点の移動の傾向を制御する。移動の傾向の一例として、50%の確率で左右の長軸方向に移動しやすくするため左または右の3近傍を移動可能点とし、残りの50%のうち30%については指の短軸方向に移動しやすくするため上または下の3近傍を移動可能点とする。それ以外は8近傍を移動可能点とする。ただし、いずれの場合も今までたどってきた軌跡や指の外側へは移動できない。このようにして移動可能点を求めるが、もし移動可能点が存在しない場合(312)は現在の追跡点での追跡を終了する。続いて移動可能点のうち、最も暗い輝度値を持つピクセルへ移動(314)する。そして現在の追跡点が過去にたどってきた軌跡を再びたどらないよう、現在の位置を軌跡情報として登録、更新(316)する。このとき、そのピクセルの座標に対応した得点表の位置に、得点を加算(318)する。ここでは例として5点を加算する。さらにこの追跡点の追跡の長さである寿命を1つ減らす(320)。この追跡点の寿命の有無を判定(322)し、寿命があるならば再び移動可能点の決定(310)へ戻り、移動、得点の加算、軌跡情報の更新を繰り返す。寿命が尽きた場合、たどった軌跡の情報を初期化(324)し、現在の追跡点での追跡が終了する。このような血管追跡のプロセスを多数繰り返し実行する。この繰り返しがすべて終了したとき、たどった回数が多いピクセル、すなわち血管である確率が高い部分であるほどその位置に対応する得点表の得点は高くなっている。逆に得点の低い位置は血管でない確率が高いことになる。従って、この得点表には静脈パターンそのものが現れていることになる。従って、この得点表を画像として捉えることで、静脈パターンだけを取り出した画像が得られることになる。 Subsequently, the tracking point is moved. First, a point at which the tracking point can be moved next is determined (310). Many of the blood vessels run in the long axis direction of the finger, but the blood vessels are more emphasized by matching the tendency of the tracking point to move in the direction of the blood vessel running direction. Therefore, the tendency of movement of the moving point is controlled by giving a tendency to the candidate point that can be moved next. As an example of the movement tendency, in order to make it easy to move in the left and right major axis directions with a probability of 50%, the left or right three neighborhoods are made movable points, and 30% of the remaining 50% are in the minor axis direction of the finger. In order to make it easier to move to, the upper or lower three neighborhoods are set as movable points. Otherwise, the vicinity of 8 is a movable point. However, in any case, it cannot move to the outside of the trajectory or finger that has been followed. In this way, the movable point is obtained. If there is no movable point (312), the tracking at the current tracking point is terminated. Subsequently, the movable point is moved to the pixel having the darkest luminance value (314). Then, the current position is registered and updated (316) as the trajectory information so that the trajectory traced by the current tracking point does not follow again. At this time, the score is added to the position of the score table corresponding to the coordinates of the pixel (318). Here, 5 points are added as an example. Further, the lifetime which is the length of tracking of the tracking point is reduced by one (320). The presence / absence of the life of the tracking point is determined (322). If there is a life, the process returns to the determination of the movable point (310) again, and the movement, the addition of the score, and the update of the trajectory information are repeated. When the lifetime is exhausted, the trace information traced is initialized (324), and the tracking at the current tracking point ends. Such a blood vessel tracking process is repeated many times. When all of the repetitions are completed, the score of the score table corresponding to the position becomes higher as the pixel that has been traced more frequently, that is, the portion having a higher probability of being a blood vessel. Conversely, a position with a low score has a high probability that it is not a blood vessel. Therefore, the vein pattern itself appears in this score table. Therefore, by capturing this score table as an image, an image obtained by extracting only the vein pattern can be obtained.

このようにして得られた静脈パターンをマッチングに利用しやすい形にするために、静脈パターンとしての得点表の各欄をその得点に応じて分類する。ここでは例として4種に分類する(328)。まず得点の低いピクセル位置には全く血管が存在しないものとする。また得点の高いピクセル位置は血管である可能性が高いとする。そして中間的な得点を持つピクセル位置は、血管である可能性はあるが確実に血管であるとは言いがたいあいまいな領域であるとする。さらに指の輪郭の外側に位置するピクセルを背景とする。これら4種類を輝度値に対応させることで、静脈パターンの画像が得られる。最後に、偶然追跡されなかったピクセルの穴を埋めるために、血管部分、そしてあいまいな部分に対して膨張処理(330)を施した。膨張処理は、画像中に存在するすべてのピクセルについて、血管部分またはあいまいな部分のピクセルの8近傍を調べ、血管でない部分のピクセルの個数が4つ以下ならば、それらの血管でない部分をあいまいな部分に変換することで行われる。 In order to make the vein pattern thus obtained easy to use for matching, each column of the score table as a vein pattern is classified according to the score. Here, it is classified into four types as an example (328). First, it is assumed that there is no blood vessel at a pixel position with a low score. Further, it is assumed that a pixel position having a high score is likely to be a blood vessel. A pixel position having an intermediate score is an ambiguous region that may be a blood vessel but is not surely a blood vessel. Furthermore, the pixel located outside the outline of the finger is used as the background. By associating these four types with luminance values, a vein pattern image can be obtained. Finally, in order to fill the hole of the pixel that was not tracked accidentally, the blood vessel part and the ambiguous part were subjected to dilation (330). The dilation process examines all pixels in the image for 8 neighborhoods of vascular or ambiguous pixels, and if the number of non-vascular parts is 4 or less, those non-vascular parts are ambiguous. This is done by converting into parts.

以上のような手順により得点表が静脈パターンの画像へ変換され、同時にマッチングに利用しやすい形に変換された。図14は上述の手法により得られた静脈パターンが登録された静脈パターンと一致するか否かを判定する手法の一例を示したフローチャートである。2枚の画像を比較するアルゴリズムにはSSDA(sequential similarity detection algorithm)を採用した。これはミスマッチが単調増加する性質を利用し、ある閾値を越えた時点で計算を打ち切る手法である。初めに各種の初期化(400)を行う。続いて比較する2枚の静脈パターン画像の片方について画像の外周nピクセルを切り落とし(402)、画像サイズを小さくする。次にこの2枚の画像の中心部分を一致させて重ねあわせ、重なったピクセル同士の輝度値を比較する(404)。このとき、血管である可能性が高いピクセルと、血管でない可能性が高いピクセルが重なった場合、このピクセルはミスマッチする、という。このミスマッチするピクセルの個数を、画像全体について数え上げる。ただし、大きい方の画像について、小さい方の画像と重ならなかったピクセルは無視する。このときのミスマッチ数を最小ミスマッチ数の初期値とする。続いて、サイズを小さくした方の画像が大きい画像からはみ出ない範囲(画像中央を基点に上下左右nピクセル)において画像を1ピクセルもしくは数ピクセル単位でずらし、各位置それぞれについてミスマッチの個数を数え上げる。その際、現在の重なりにおけるミスマッチを画像全体において1ピクセル単位で数え上げる(410)が、ミスマッチの数え上げの途中でも、現在の最小ミスマッチ数を越えた場合、より小さなミスマッチ数を得ることができないためミスマッチの数え上げを中止する(412)。現時点のミスマッチ数が最小ミスマッチ数を超えなかった場合、過去の最小ミスマッチ数を現在のミスマッチ数に書き換える(416)。全範囲で画像を重ねあわせ、最終的に得られた最小ミスマッチ数が、この2枚の画像のミスマッチ数となる。 The score table was converted into a vein pattern image by the above procedure, and at the same time converted into a form that could be easily used for matching. FIG. 14 is a flowchart showing an example of a method for determining whether or not the vein pattern obtained by the above method matches the registered vein pattern. SSDA (sequential similarity detection algorithm) was adopted as an algorithm for comparing two images. This is a technique that uses the property that the mismatch increases monotonically and terminates the calculation when a certain threshold is exceeded. First, various initializations (400) are performed. Subsequently, the outer peripheral n pixels of the two vein pattern images to be compared are cut off (402) to reduce the image size. Next, the central portions of the two images are matched and overlapped, and the luminance values of the overlapped pixels are compared (404). At this time, if a pixel that has a high possibility of being a blood vessel and a pixel that has a high possibility of not being a blood vessel overlap, this pixel is said to be mismatched. The number of mismatched pixels is counted for the entire image. However, for the larger image, the pixels that did not overlap the smaller image are ignored. The number of mismatches at this time is set as the initial value of the minimum number of mismatches. Subsequently, the image is shifted by one pixel or in units of several pixels within a range where the smaller image does not protrude from the larger image (up and down, left and right n pixels from the center of the image), and the number of mismatches is counted for each position. At this time, the mismatch in the current overlap is counted in units of one pixel in the entire image (410). However, if the current minimum mismatch number is exceeded even during the counting of mismatches, a smaller mismatch number cannot be obtained. Counting is stopped (412). If the current number of mismatches does not exceed the minimum number of mismatches, the past minimum number of mismatches is rewritten to the current number of mismatches (416). The minimum number of mismatches finally obtained by superimposing images over the entire range is the number of mismatches between the two images.

最後に、この結果からミスマッチ率を求める。まず2枚の画像の血管である可能性が高いピクセルの個数の総和を求める(420)。ただし、大きい方の画像については、外周nピクセルの部分を無視する。この結果とミスマッチ数を利用して、2枚の静脈パターンのミスマッチ率を求めることができる(422)。ここで、ミスマッチ率を(ミスマッチ数)/(2枚の画像における血管である可能性が高いピクセルの総数)と定義する。2つの静脈パターンが同じ場合、ミスマッチ率は0もしくは非常に小さな値となる。しかし、静脈パターンが異なる場合はミスマッチ率が非常に大きくなる。この数値がある閾値より小さい場合を本人、大きい場合を他人と判定する。 Finally, the mismatch rate is obtained from this result. First, the sum of the number of pixels that are highly likely to be blood vessels in two images is obtained (420). However, for the larger image, the outer peripheral n pixel portion is ignored. Using this result and the number of mismatches, the mismatch rate of the two vein patterns can be obtained (422). Here, the mismatch rate is defined as (mismatch number) / (total number of pixels that are highly likely to be blood vessels in two images). When the two vein patterns are the same, the mismatch rate is 0 or a very small value. However, the mismatch rate becomes very large when the vein patterns are different. When this numerical value is smaller than a certain threshold, it is determined that the person is the person, and when the numerical value is larger, the person is the other person.

図15は上述したマッチング手法におけるミスマッチ率では本人か他人か決めがたいものについて、別の手法にてマッチングを行う手法の一例をフローチャートに示したものである。画像全体のミスマッチを求める手法は多くのケースにおいて安定して本人と他人を区別することができる。しかし、中には閾値付近のあいまいなデータも存在する。そこで閾値近傍のデータを別のマッチング手法によって認証することができれば、全体としてさらに認識率の向上が見込まれる。 FIG. 15 is a flowchart showing an example of a technique for performing matching using another technique for a mismatch rate in the above-described matching technique that cannot be determined by the person himself / herself or others. In many cases, the method for obtaining the mismatch of the entire image can stably distinguish the person from the other person. However, there are some ambiguous data near the threshold. Therefore, if the data in the vicinity of the threshold can be authenticated by another matching method, the recognition rate as a whole can be further improved.

分割マッチングの方法は次のとおりである。2枚の画像の片方について、画像を2つ以上のm個の小領域に分割する(502)。各小領域のそれぞれについて、もう一方の画像とのマッチングを取る(506)。ここでは単純にピクセルの輝度値が一致した個数を数える。最もマッチしたピクセルの個数の多い位置をマッチした位置とする。このとき位置的に明らかにマッチし得ない部分と偶然マッチすることのないよう、移動する範囲を限定しておく。そして小領域が最もマッチした位置の情報を得る(508)。すなわち、各小領域において初期位置からどれだけずれた位置でマッチしたかを2次元ベクトルの形で保持する。すべての小領域についてマッチングが終了したら、m個のマッチ位置の情報を平面にプロット(512)し、各点の密集度を評価する。これらの点が密集している場合は2枚の画像に大きな相関があり、逆にまばらな場合はほとんど相関はないと考えられる。 The method of division matching is as follows. For one of the two images, the image is divided into two or more m small regions (502). Each small area is matched with the other image (506). Here, the number of pixels whose luminance values match is simply counted. The position with the largest number of matched pixels is taken as the matched position. At this time, the moving range is limited so as not to accidentally match a portion that cannot be clearly matched in position. Then, information on the position where the small area is most matched is obtained (508). That is, how much each small area matches from the initial position is held in the form of a two-dimensional vector. When matching is completed for all the small regions, the information on the m matching positions is plotted on a plane (512), and the density of each point is evaluated. When these points are dense, there is a large correlation between the two images, and conversely, when they are sparse, there is almost no correlation.

密集度の評価のために、プロットした点に重みp、その点から1ピクセル離れるごとにΔpだけ小さな値を加算(514)する。プロットした点が密集している場合はその重み値が繰り返し加算されるため、より大きな値が平面上に現れる。m個の小領域のマッチ位置がすべて同じである場合、加算される重み値の最大値はm*pとなる。逆に、マッチ位置がまばらである場合、評価値の最大値はpとなる。偶然マッチ位置が重なる場合もあるため、無相関の画像でも評価値の最大値はpより大きくなる。このように平面に得点を付け、最も大きい得点を探す(516)。この値が2つの静脈パターンの相関となる。この値が大きい場合は本人である確率が高く、逆に小さい場合は他人である確率が高い。ただし、偶然マッチ位置が一致したために大きな相関を持つ場合もある。このときは他人を本人であると間違える確率が大きくなってしまう。そのため、評価値の最大値を生じる位置からある半径の円内にプロットされた点が少ない場合は、偶然評価値が高くなったものと判断(518)し、他人であると判定する(520)。 In order to evaluate the density, a weighted value p is added to the plotted points, and a value smaller by Δp is added (514) every time one pixel moves away from the point. If the plotted points are dense, the weight values are repeatedly added, so that a larger value appears on the plane. When the match positions of the m small regions are all the same, the maximum value of the added weight value is m * p. Conversely, when the match positions are sparse, the maximum evaluation value is p. Since coincidence match positions may overlap, the maximum evaluation value is larger than p even in an uncorrelated image. In this way, the plane is scored and the largest score is searched (516). This value is the correlation between the two vein patterns. When this value is large, the probability of being a person is high, and when the value is small, the probability of being a stranger is high. However, there may be a large correlation due to coincidence of the match position. At this time, the probability of mistaking another person as the person is increased. Therefore, when there are few points plotted in a circle of a certain radius from the position where the maximum evaluation value is generated, it is determined that the evaluation value has increased accidentally (518), and it is determined that the person is another person (520). .

図16は本発明を実施した際の性能評価と別方式による性能評価の比較結果である。別方式とは、指画像を獲得してから認証が終了するまでの手法が本発明とは異なる。その手法とは、獲得した画像に対して一様にフィルタをかけることで静脈パターンを強調し、登録テンプレートと画像の2次元畳み込み演算を行い、指の短軸方向におけるピークの鋭さを評価する方法である。性能評価にあたり、678人の被験者の小指を各人4枚ずつ撮像し、そのうちの1枚を登録テンプレートと見做し、本人及び他人の指画像との照合を行った。照合の方法は、全被験者の登録テンプレートすべての組み合わせを照合することで本人と他人の静脈パターンの照合を行う。また登録テンプレートではない指画像とその同一人物の登録テンプレートとの照合を行う。 FIG. 16 is a comparison result of performance evaluation when the present invention is implemented and performance evaluation by another method. The different method is different from the present invention in the method from the acquisition of the finger image to the end of the authentication. The method emphasizes the vein pattern by uniformly filtering the acquired image, performs a two-dimensional convolution operation between the registered template and the image, and evaluates the sharpness of the peak in the short axis direction of the finger It is. In the performance evaluation, four little fingers of each of 678 subjects were imaged, and one of them was regarded as a registered template and collated with the finger images of the person and others. The collation method collates the vein patterns of the person and the other person by collating all combinations of registered templates of all subjects. Also, a finger image that is not a registered template is compared with a registered template of the same person.

照合の結果、本人を他人と誤る本人拒否率(FRR: False Reject Rate)と、他人を本人と誤る他人受入率(FAR: False Accept Rate)が求められる。ここでは性能評価として、FRRとFARの関係を用いる。(a)は登録テンプレートとその同一人物の別画像の照合において、別画像を1枚だけ利用した場合の性能評価の比較結果である。FRRとFARは共に小さいほど良いが、本発明におけるFRRとFARは、全体マッチングを行った時点で既に別手法による結果よりも10分の1程度に小さくなっていることが分かる。さらに、分割マッチングまで行った場合はさらに良い結果が生じている。(b)は登録テンプレートとその同一人物の別画像の照合において、別画像の3枚のうち最も良い結果を生じる画像を選んだ場合の性能評価の比較結果である。別手法による結果では、依然として本人と他人を正しく区別できないデータが存在するが、本発明による手法では完全に本人と他人を正しく区別することができる。これらの結果より、本発明の効果は大きいことが結論付けられる。 As a result of the verification, a false rejection rate (FRR: False Reject Rate) in which the person is mistaken for the other person and a false acceptance rate (FAR: false acceptance rate) in which the other person is mistaken for the person are required. Here, the relationship between FRR and FAR is used for performance evaluation. (a) is a comparison result of performance evaluation when only one image is used in the collation of the registered template and another image of the same person. Both FRR and FAR are better as they are smaller, but it can be seen that FRR and FAR in the present invention are already about one-tenth smaller than the result of another method when the whole matching is performed. Furthermore, even better results are obtained when split matching is performed. (b) is a comparison result of performance evaluation when an image that produces the best result among the three images of different images is selected in the verification of the registered template and another image of the same person. As a result of another method, there is still data that cannot correctly distinguish the principal from the other, but the method according to the present invention can completely distinguish the principal from the other. From these results, it can be concluded that the effect of the present invention is great.

本発明は、人間の指を透過した光を撮像して得られる静脈パターンを利用して個人認証を行う技術として有用である。 The present invention is useful as a technique for performing personal authentication using a vein pattern obtained by imaging light transmitted through a human finger.

1…指静脈パターン入力インターフェース、2…光源、3…光学フィルタ、4…CCDカメラ、5…画像キャプチャボード、6…計算機、7…インターフェース、8…メモリ、9…CPU、10…外部記憶装置、20…指、22…指挿入口、30…角を面取りした指静脈パターン入力インターフェース、32…横向きに指挿入口の開いている指静脈パターン入力インターフェース、33…壁、34…壁面に指挿入口を開けた指静脈パターン入力インターフェース、36…指挿入口の奥が円弧状の指静脈パターン入力インターフェース、38…クッション、40…認証請求者、42…自動ドア、43…暗証番号入力キー、44…指紋入力インターフェース、46…虹彩撮像カメラ、48…顔画像撮像カメラ、50…筆跡入力ペン、52…筆跡入力タブレット、54…マイク、60…ICカード、62…ICカードリーダ、100…指画像、104…追跡点、106…指の上側輪郭の近似直線、108…指の中心軸、110…指先、112…切り出す指画像の中心、114…切り出された指画像。 DESCRIPTION OF SYMBOLS 1 ... Finger vein pattern input interface, 2 ... Light source, 3 ... Optical filter, 4 ... CCD camera, 5 ... Image capture board, 6 ... Computer, 7 ... Interface, 8 ... Memory, 9 ... CPU, 10 ... External storage device, DESCRIPTION OF SYMBOLS 20 ... Finger, 22 ... Finger insertion port, 30 ... Finger vein pattern input interface with chamfered corners, 32 ... Finger vein pattern input interface with finger insertion port open sideways, 33 ... Wall, 34 ... Finger insertion port on wall surface Finger vein pattern input interface 36: finger vein pattern input interface having a circular arc at the back of the finger insertion slot, 38 ... cushion, 40 ... authentication requester, 42 ... automatic door, 43 ... PIN code input key, 44 ... Fingerprint input interface, 46 ... Iris imaging camera, 48 ... Face imaging camera, 50 ... Handwriting input pen, 52 ... Handwriting input Tablet, 54 ... Microphone, 60 ... IC card, 62 ... IC card reader, 100 ... Finger image, 104 ... Tracking point, 106 ... Approximate straight line of the upper contour of the finger, 108 ... Finger central axis, 110 ... Fingertip, 112 ... The center of the finger image to be cut out, 114...

Claims (11)

指を置く領域を有する筺体と、
指に対して光を照射する光源と、
当該光源から光を照射して前記指の特徴情報を撮像できる撮像手段とを有し、
前記特徴情報は、指の血管と指紋を含み、
前記指を置く領域に対する1回の指置きで前記特徴情報を撮像可能である
ことを特徴とする特徴画像撮影装置。
A housing having an area for placing a finger;
A light source that emits light to the finger;
Imaging means capable of imaging feature information of the finger by irradiating light from the light source;
The feature information includes a finger blood vessel and a fingerprint,
The feature image photographing apparatus characterized in that the feature information can be imaged with one finger placement for the finger placement region.
請求項1に記載の特徴画像撮影装置において、
演算部をさらに備え、
当該演算部は、前記撮像された指の血管に基づく第一の生体情報と、前記指紋に基づく第二の生体情報とを抽出する
ことを特徴とする特徴画像撮影装置。
In the characteristic image photographing device according to claim 1,
It further includes an arithmetic unit,
The said calculating part extracts the 1st biological information based on the imaged finger blood vessel, and the 2nd biological information based on the said fingerprint, The characteristic image imaging device characterized by the above-mentioned.
請求項2に記載の特徴画像撮影装置において、
前記演算部は、抽出した前記第一の生体情報と前記第二の生体情報と、予め記憶された情報とを比較して個人認証を実行できる
ことを特徴とする特徴画像撮影装置。
In the characteristic image photographing device according to claim 2,
The said calculating part can perform said personal authentication by comparing said extracted 1st biometric information, said 2nd biometric information, and the information memorize | stored previously, The characteristic image imaging device characterized by the above-mentioned.
請求項1に記載の特徴画像撮影装置において、
前記筺体の内部に前記光源と、前記撮像手段が設けられている
ことを特徴とする特徴画像撮影装置。
In the characteristic image photographing device according to claim 1,
A characteristic image photographing apparatus, wherein the light source and the imaging means are provided inside the housing.
請求項1に記載の特徴画像撮影装置において、
前記撮像手段は、血管を含む画像を撮像できる撮像装置と、指紋を含む画像を撮影できる入力装置とを含む
ことを特徴とする特徴画像撮影装置。
In the characteristic image photographing device according to claim 1,
The image pickup device includes an image pickup device that can pick up an image including blood vessels and an input device that can pick up an image including a fingerprint.
指を所定位置に導く指設置部と、
指に光を照射する光源と、
当該指に照射され、当該指を通過した光と反射した光とを撮像可能な撮像手段とを備え、前記指設置部に対する一度の指置きで、前記撮像手段で撮像された画像から、指の血管に基づく生体特徴と指紋に基づく生体特徴とを算出可能な演算部を有する
ことを特徴とする個人認証装置。
A finger placement section for guiding the finger to a predetermined position;
A light source that illuminates the finger;
Imaging means capable of imaging light that has been irradiated to the finger and passed through the finger and reflected light, and from the image captured by the imaging means by one finger placement on the finger placement unit, A personal authentication device comprising a calculation unit capable of calculating a biometric feature based on a blood vessel and a biometric feature based on a fingerprint.
請求項6に記載の個人認証装置において、
前記演算部は、前記指の血管に基づく生体特徴と前記指紋に基づく生体特徴とを用いて個人認証を実行する
ことを特徴とする個人認証装置。
The personal authentication device according to claim 6,
The said calculating part performs personal authentication using the biometric feature based on the blood vessel of the said finger | toe, and the biometric feature based on the said fingerprint, The personal authentication apparatus characterized by the above-mentioned.
光源と、
撮像手段と、
指設置部とを有し、
前記指設置部に対して指を提示している間に、前記撮像手段で撮像される血管に基づく生体特徴と指紋に基づく生体特徴とを、前記撮像手段で撮像された画像から取得可能な演算部を有する
ことを特徴とする個人認証装置。
A light source;
Imaging means;
A finger placement unit,
An arithmetic operation capable of acquiring a biometric feature based on a blood vessel and a biometric feature based on a fingerprint captured by the imaging unit from an image captured by the imaging unit while presenting a finger to the finger placement unit. A personal authentication device characterized by comprising a unit.
指の指紋と血管を含む特徴情報をそれぞれ獲得するために、指が提示される共通の指提示部と、
本体筺体と、
当該本体筺体内部に設けられた光源と、撮像手段とを有し、
前記指提示部対する1回の指提示で前記特徴情報を獲得可能である
ことを特徴とする個人認証装置。
A common finger presentation unit on which fingers are presented in order to acquire feature information including fingerprints and blood vessels of the fingers,
The body housing,
A light source provided inside the main body housing and an imaging means;
The personal authentication apparatus characterized in that the feature information can be acquired by one finger presentation to the finger presentation unit.
請求項6、8、9のいずれかに記載の個人認証装置において、
前記撮像手段は、血管を含む画像を撮像できる撮像装置と、指紋を含む画像を撮像できる入力装置とを含む
ことを特徴とする個人認証装置。
The personal authentication device according to any one of claims 6, 8, and 9,
The personal authentication device, wherein the imaging means includes an imaging device capable of capturing an image including a blood vessel and an input device capable of capturing an image including a fingerprint.
光源と撮像部とを有し、
前記撮像部において撮像された画像に基づき血管パターンを抽出し、当該血管パターンに基づいて個人認証を実行する
ことを特徴とする個人認証装置。
A light source and an imaging unit;
A personal authentication device that extracts a blood vessel pattern based on an image captured by the imaging unit and performs personal authentication based on the blood vessel pattern.
JP2012031373A 2012-02-16 2012-02-16 Feature image photographing device and personal identification device Pending JP2012128868A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012031373A JP2012128868A (en) 2012-02-16 2012-02-16 Feature image photographing device and personal identification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012031373A JP2012128868A (en) 2012-02-16 2012-02-16 Feature image photographing device and personal identification device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2010161315A Division JP4961492B2 (en) 2010-07-16 2010-07-16 Personal authentication apparatus and method

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2013090848A Division JP5752175B2 (en) 2013-04-24 2013-04-24 Blood vessel imaging device
JP2013090849A Division JP2013168171A (en) 2013-04-24 2013-04-24 Biological imaging device

Publications (1)

Publication Number Publication Date
JP2012128868A true JP2012128868A (en) 2012-07-05

Family

ID=46645743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012031373A Pending JP2012128868A (en) 2012-02-16 2012-02-16 Feature image photographing device and personal identification device

Country Status (1)

Country Link
JP (1) JP2012128868A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106790808A (en) * 2016-12-22 2017-05-31 上海摩软通讯技术有限公司 A kind of terminal and its fingerprint identification method with camera module
CN109475328A (en) * 2016-06-09 2019-03-15 因赛特系统公司 For detecting the integrated light-emitting display and sensor of biological nature

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04502717A (en) * 1989-01-16 1992-05-21 ブリティッシュ・テクノロジー・グループ・リミテッド biometrics
JPH10127609A (en) * 1996-11-06 1998-05-19 Hitachi Ltd Living body identifying device
JPH11347015A (en) * 1998-06-11 1999-12-21 Hitachi Ltd Individual pattern detecting device
JP2000020684A (en) * 1998-06-30 2000-01-21 Mitsubishi Electric Corp Fingerprint image input device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04502717A (en) * 1989-01-16 1992-05-21 ブリティッシュ・テクノロジー・グループ・リミテッド biometrics
JPH10127609A (en) * 1996-11-06 1998-05-19 Hitachi Ltd Living body identifying device
JPH11347015A (en) * 1998-06-11 1999-12-21 Hitachi Ltd Individual pattern detecting device
JP2000020684A (en) * 1998-06-30 2000-01-21 Mitsubishi Electric Corp Fingerprint image input device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109475328A (en) * 2016-06-09 2019-03-15 因赛特系统公司 For detecting the integrated light-emitting display and sensor of biological nature
CN106790808A (en) * 2016-12-22 2017-05-31 上海摩软通讯技术有限公司 A kind of terminal and its fingerprint identification method with camera module

Similar Documents

Publication Publication Date Title
JP3558025B2 (en) Personal authentication device and method
JP4251067B2 (en) Personal authentication device and blood vessel pattern extraction device for personal authentication
JP5134655B2 (en) Personal authentication system, personal authentication device, and blood vessel image capturing device
JP4389505B2 (en) Personal authentication device and blood vessel pattern extraction device
JP5789691B2 (en) Personal authentication device and blood vessel image capturing device
JP4555561B2 (en) Personal authentication system and device
JP2012128868A (en) Feature image photographing device and personal identification device
KR100937800B1 (en) System and apparatus for personal identification
JP6082766B2 (en) Blood vessel imaging device
JP5752175B2 (en) Blood vessel imaging device
JP4961492B2 (en) Personal authentication apparatus and method
JP4603609B2 (en) Personal authentication device
JP4603610B2 (en) Entrance / exit management system
JP2013168171A (en) Biological imaging device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130424

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140227

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20140307

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20140328