JP2008299678A - Personal identification apparatus and personal identification program for use in the same - Google Patents

Personal identification apparatus and personal identification program for use in the same Download PDF

Info

Publication number
JP2008299678A
JP2008299678A JP2007146286A JP2007146286A JP2008299678A JP 2008299678 A JP2008299678 A JP 2008299678A JP 2007146286 A JP2007146286 A JP 2007146286A JP 2007146286 A JP2007146286 A JP 2007146286A JP 2008299678 A JP2008299678 A JP 2008299678A
Authority
JP
Japan
Prior art keywords
data
unit
vein pattern
hand
personal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007146286A
Other languages
Japanese (ja)
Inventor
Tateaki Ro
建明 呂
Xue Yuan
雪 袁
Takashi Yahagi
隆嗣 谷萩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chiba University NUC
Original Assignee
Chiba University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chiba University NUC filed Critical Chiba University NUC
Priority to JP2007146286A priority Critical patent/JP2008299678A/en
Publication of JP2008299678A publication Critical patent/JP2008299678A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a personal identification apparatus which is simple and highly precise for a person to be identified, and to provide a personal identification program for use in the same. <P>SOLUTION: The personal identification apparatus includes a handle part with a built-in light source, a light reception part for receiving light emitted from the light source, and an information processing part for identifying a person on the basis of the light received by the light reception part. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、個人認証技術に関し、より具体的には個人認証装置及びそれに用いられる個人認証プログラムに関し、特に、人間の手の静脈の血管パターンに基づき個人認証を行なうための装置及びそれに用いられるプログラムに関する。   The present invention relates to a personal authentication technique, and more particularly to a personal authentication device and a personal authentication program used therefor, and more particularly, a device for performing personal authentication based on a blood vessel pattern of a human hand vein and a program used therefor About.

従来、本人の認証には、パスワード、PIN(Personal Identification Number)といった記憶に頼る知識やカードや印鑑といった本人の所有する物品が利用されてきた。しかし、これらには忘却、類推、紛失、盗用などの危険性がある。そこで、これらの危険性がない本人そのものの情報として生体情報に基づく本人認証、いわゆるバイオメトリクス認証の研究開発、製品化が進んでいる。バイオメトリクス認証に用いられる生体情報としては、指紋、虹彩、顔、静脈などが例えば下記非特許文献1乃至9に記載されている。   Conventionally, knowledge that relies on memory such as passwords and PINs (Personal Identification Numbers) and articles owned by the person such as cards and seals have been used for authentication of the person. However, there are risks such as forgetting, analogy, loss, and plagiarism. Therefore, research and development and commercialization of personal authentication based on biometric information, so-called biometrics authentication, are progressing as information of the person who does not have these risks. As biometric information used for biometric authentication, fingerprints, irises, faces, veins, and the like are described in Non-Patent Documents 1 to 9, for example.

これら生体情報の中でも、体の中にあって他人に知られにくい安全な情報の一つが静脈の血管パターンである。静脈の血管パターンを用いるバイオメトリクス認証(以下「静脈認証」という。)は、原理的に非接触認証が実現でき、また肉眼では確認しにくい体内の情報を用いているため偽造が困難であるという利点がある。より具体的には、静脈の血管パターンは双子の間でも異なると言われており、皮膚の下、表皮、真皮、脂肪層の奥に存在する体中の情報であるため、顔や指紋、虹彩のように外部から容易に観察したり、撮影、接触などの簡単な手段では他人に盗まれたりしないため、より安全な情報であるといわれている。なおここで「静脈の血管パターン」とは、静脈の血管が織りなす網目のような複雑な模様を意味する。   Among these biological information, one of the safe information that is in the body and is difficult to be known by others is the vein blood vessel pattern. Biometric authentication (hereinafter referred to as “vein authentication”) using vein patterns of veins can be performed in principle without contact and is difficult to counterfeit because it uses in-vivo information that is difficult to identify with the naked eye. There are advantages. More specifically, it is said that the venous blood vessel pattern is different between twins, and it is information in the body that exists under the skin, in the epidermis, dermis, and deep in the fat layer. Thus, it is said that the information is safer because it is not easily observed from the outside by a simple means such as photographing and contact, as described above. Here, the “venous blood vessel pattern” means a complicated pattern such as a mesh woven by veins of veins.

静脈認証では、毛細血管など不安定な細い血管を使わず、模様の安定した太い血管のパターンを用いることが一般的である。静脈の血管パターンの撮影には、2種類の近赤外線照射方法がある。一つは近赤外線を認証対象となる部位に照射し、反射光を撮影する「反射型」であり(下記非特許文献3乃至5参照)、もう一つは、認証対象となる部位を通り抜けた光を撮影する「透過型」(下記非特許文献6参照)である。   In vein authentication, it is common to use a thick and stable blood vessel pattern without using an unstable thin blood vessel such as a capillary blood vessel. There are two types of near-infrared irradiation methods for photographing the vein blood vessel pattern. One is a “reflective type” that irradiates near infrared rays to a site to be authenticated and captures reflected light (see Non-Patent Documents 3 to 5 below), and the other has passed through the site to be authenticated. It is a “transmission type” (see Non-Patent Document 6 below) for photographing light.

一方、認証の際に静脈の血管パターンの撮影をしやすい部位として、手のひら(下記非特許文献5参照)、手の甲(下記非特許文献3、4参照)、指の静脈(下記非特許文献6参照)が考えられている。手のひらを採用する静脈認証は、装置に全く触れない状態で個人識別が可能となるといった利点がある(完全非接触型)。この認証操作は、センサの上方に手をかざすだけで済み、反射型撮影方式の良さを生かした便利性の高いものである。また、指の静脈を採用する静脈認証は、主として指の第二関節部分に近赤外線を透過させて、指の静脈の血管パターンを撮影し、認証するものである。また手の甲の部分の静脈パターンを採用する静脈認証は、限定されるわけではないが、主に入退出管理向けの製品に好適である。手握り冶金やセンサ口を甲でふさぎ、手の甲サイズに開けたセンサ口に手の甲を押し当てて認証する。センサ口にマイクロスイッチが付いており、甲でセンサ口をふさぐと、撮影される仕組みとなっているのが一般的である。   On the other hand, palms (see Non-Patent Document 5 below), backs of hands (see Non-Patent Documents 3 and 4 below), and finger veins (see Non-Patent Document 6 below) are easy to capture vein blood vessel patterns during authentication. ) Is considered. Vein authentication using a palm has the advantage that personal identification is possible without touching the device at all (fully contactless type). This authentication operation requires only a hand over the sensor, and is highly convenient taking advantage of the goodness of the reflection type photographing method. In addition, vein authentication using a finger vein is a technique in which a near-infrared ray is transmitted mainly through a second joint portion of a finger, and a blood vessel pattern of the finger vein is photographed and authenticated. In addition, vein authentication using the vein pattern on the back of the hand is not limited, but is suitable mainly for products for entry / exit management. The hand metallurgy and the sensor mouth are closed with the back, and the back of the hand is pressed against the sensor mouth that is opened to the size of the back of the hand for authentication. In general, a micro switch is attached to the sensor port, and when the sensor port is closed with an instep, the image is taken.

X.Yuan,J.M.Lu,T.Yahagi,“A Method of Face Recognition Based on Contour Maps”,IEEJ Trans. EIS,vol.125,no.3,426−434,March 2005X. Yuan, J .; M.M. Lu, T .; Yahagi, “A Method of Face Recognition Based on Control Map”, IEEE Trans. EIS, vol. 125, no. 3,426-434, March 2005 J.M.Lu,X.Yuan,T.Yahagi,“A Method of Face Recognition Based on Fuzzy Clustering and Parallel Neural Networks”,Signal Processing,vol.86,no.8,2026−2039,Aug.2006.J. et al. M.M. Lu, X .; Yuan, T .; Yahagi, “A Method of Face Recognition Based on Futzing Clustering and Parallel Neural Networks”, Signal Processing, vol. 86, no. 8, 2026-2039, Aug. 2006. S.K.Im,H.M.Park,Y.W.Kim,S.C.Han,S.W.Kim and C.H.Hang,“An Biometric Identification System by Extracting Hand Vein Patterns”,Journal of the Korean Physical Society,vol.38,268−272,March 2001S. K. Im, H .; M.M. Park, Y .; W. Kim, S .; C. Han, S .; W. Kim and C.M. H. Hang, “An Biometric Identification System by Extraction Hand Vein Patterns”, Journal of the Korean Physical Society, vol. 38, 268-272, March 2001 C.L.Lin and K.C.Fan,“Biometric Verification Using Thermal Images of Palmーdorsa Veinーpatterns”,IEEE Trans. on circuits and systems for video technology,vol.14,no.2,199−213,Feb.2004C. L. Lin and K. C. Fan, “Biometric Verification Using Thermal Images of Palmorsor Vein-patterns”, IEEE Trans. on circuits and systems for video technology, vol. 14, no. 2, 199-213, Feb. 2004 佐々木繁,川合裕昭,若林晃,“手のひら静脈認証技術の製品展”,FUJITSU,vol.56,no.4,346−357,2005Shigeru Sasaki, Hiroaki Kawai, Satoshi Wakabayashi, “Product Exhibition of Palm Vein Authentication Technology”, FUJITSU, vol. 56, no. 4,346-357,2005 三浦直人,長坂晃朗,宮武孝文,“線追跡の反複試行に基づく指静脈パターンの抽出と個人認証への応用”,電子情報通信学会論文誌,vol.J86ーDーII,no.5,678−687,2003Naoto Miura, Goro Nagasaka, Takafumi Miyatake, “Finger vein pattern extraction based on repeated trials of line tracking and its application to personal authentication”, IEICE Transactions, vol. J86-D-II, no. 5,678-687,2003 C.L.Lin,T.C.Chuang and K.C.Fan,“Palmprint Verification Using Hierarchical Decomposition”,Pattern Recognition,vol.38,2639−2652,2005C. L. Lin, T .; C. Chuang and K.K. C. Fan, “Palprint Verification Using Hierarchical Decomposition”, Pattern Recognition, vol. 38, 2639-2652, 2005 小畑秀文,モルフォロジー,コロナ社,1996Hidefumi Obata, Morphology, Corona, 1996 M.Niemeijer,B.V.Ginneken and J. Staal,“Automatic Detection of Red Lesions in Digital Color Fundus Photographs”,IEEE Trans. on medical imaging,vol.24,no.5,584−592,May 2005M.M. Niemeier, B.M. V. Ginneken and J.M. Staal, “Automatic Detection of Red Relations in Digital Color Fundus Photographs”, IEEE Trans. on medical imaging, vol. 24, no. 5,584-592, May 2005

しかしながら、上記文献においても、センサ口に手の甲を押し当てて認証するなど認証対象となる個人に対して特別の手間が必要となるため煩雑になってしまうといった課題がある。従って、新たな認証方法及びそれに必要とされる新たな認証処理が必要となる。   However, even in the above-mentioned document, there is a problem that a special effort is required for an individual to be authenticated, for example, authentication is performed by pressing the back of the hand against the sensor port. Therefore, a new authentication method and a new authentication process required for it are required.

そこで、本発明は上記課題を鑑み、認証対象となる個人に対しより簡便で精度の高い個人認証装置及びそれに用いられる個人認証プログラムを提供することを目的とする。   In view of the above problems, an object of the present invention is to provide a personal authentication device that is simpler and more accurate for an individual to be authenticated and a personal authentication program used therefor.

上記課題を解決するための一手段として、本発明に係る個人認証装置は、光源が内蔵されたハンドル部と、光源から放出される光を受光する受光部と、受光部が受光した光に基づき個人認証を行う情報処理部と、を有することを特徴とする。   As a means for solving the above-described problems, a personal authentication device according to the present invention is based on a handle portion with a built-in light source, a light receiving portion that receives light emitted from the light source, and light received by the light receiving portion. And an information processing unit for performing personal authentication.

なお、本手段において、限定されるわけではないが、ハンドル部と受光部との間に設けられる可視光カットフィルタを有することが好ましい。   In addition, although not necessarily limited in this means, it is preferable to have a visible light cut filter provided between the handle portion and the light receiving portion.

また、本手段において、限定されるわけではないが、情報処理部は、受光部が受光した光に基づき手の甲画像データを作成する手の甲画像データ作成部と、手の甲画像データから複数の指ウェブデータを作成する指ウェブデータ作成部と、手の甲画像データに対し回転処理及び移動処理の少なくともいずれかを行う回転・移動処理部と、回転処理又は移動処理の少なくともいずれかが行われた手の甲画像データからROI領域データを抽出するROI領域データ抽出部と、抽出したROI領域データから静脈パターンデータを抽出する静脈パターンデータ抽出部と、認証対象となる個人の静脈パターンデータを予め記憶してなる個人静脈パターンデータベース部と、静脈パターンデータ抽出部が抽出した静脈パターンデータと、個人静脈パターンデータベース部における個人静脈パターンデータとの相関を計算する相関計算部と、を有することも好ましい。   Further, in this means, the information processing unit is not limited, but the information processing unit generates a back of the hand image data based on the light received by the light receiving unit, and a plurality of finger web data from the back of the hand image data. ROI from the finger web data creation unit to be created, the rotation / movement processing unit that performs at least one of rotation processing and movement processing on the back image data of the hand, and the back image data of at least one of the rotation processing or movement processing ROI region data extraction unit for extracting region data, vein pattern data extraction unit for extracting vein pattern data from the extracted ROI region data, and a personal vein pattern database in which individual vein pattern data to be authenticated is stored in advance Sections, vein pattern data extracted by the vein pattern data extraction section, and personal vein patterns It is also preferred to have a correlation calculation unit for calculating the correlation between the personal vein pattern data in the emissions database unit.

また、上記課題を解決する他の一手段として、本発明に係る個人認証プログラムは、コンピュータに、人間の手を透過した光の強度データに基づき手の甲画像データを作成する手の甲画像データ作成部、手の甲画像データから複数の指ウェブデータを作成する指ウェブデータ作成部、手の甲画像データに対し回転処理及び移動処理の少なくともいずれかを行う回転・移動処理部、回転処理又は移動処理の少なくともいずれかが行われた手の甲画像データからROI領域データを抽出するROI領域データ抽出部、抽出した前記ROI領域データから静脈パターンデータを抽出する静脈パターンデータ抽出部、認証対象となる個人の静脈パターンデータを予め記憶してなる個人静脈パターンデータベース部、静脈パターンデータ抽出部が抽出した静脈パターンデータと、個人静脈パターンデータベース部における個人静脈パターンデータとの相関を計算する判定部、として機能させることを特徴とする。   Further, as another means for solving the above-described problem, a personal authentication program according to the present invention includes a back-of-hand image data creation unit for creating back-of-hand image data based on intensity data of light transmitted through a human hand on a computer. Performs at least one of a finger web data creation unit that creates a plurality of finger web data from image data, a rotation / movement processing unit that performs at least one of rotation processing and movement processing on the back of the hand image data, and rotation processing or movement processing. ROI region data extracting unit for extracting ROI region data from the back image data of the hand, vein pattern data extracting unit for extracting vein pattern data from the extracted ROI region data, and storing vein pattern data of an individual to be authenticated The personal vein pattern database section and vein pattern data extraction section A vein pattern data, the determination unit for calculating the correlation between the personal vein pattern data in the personal vein pattern database unit, characterized in that to function as a.

以上、本発明により、認証対象となる個人に対しより簡便で精度の高い個人認証装置及びそれに用いられる個人認証プログラムを提供することができる。   As described above, according to the present invention, it is possible to provide a simpler and more accurate personal authentication device and a personal authentication program used therefor for an individual to be authenticated.

以下、本実施形態に係る個人識別プログラムについて説明する。図1は、本実施形態に係る個人認証装置の概略を示す図である。本実施形態に係る個人認証装置は、図1で示されるとおり、光源11が内蔵されたハンドル部1と、ハンドル部1の光源11から放出される光を受光する受光部2と、ハンドル部1と受光部2との間に設けられる可視光カットフィルタ3と、受光部が受光した光に基づき個人識別を行う情報処理部4と、を有する。   Hereinafter, the personal identification program according to the present embodiment will be described. FIG. 1 is a diagram illustrating an outline of a personal authentication device according to the present embodiment. As shown in FIG. 1, the personal authentication device according to the present embodiment includes a handle unit 1 in which a light source 11 is incorporated, a light receiving unit 2 that receives light emitted from the light source 11 of the handle unit 1, and a handle unit 1. And a visible light cut filter 3 provided between the light receiving unit 2 and an information processing unit 4 that performs personal identification based on light received by the light receiving unit.

ハンドル部1は、図1で示されるとおり、認証対象となる人が把持するための部である。またハンドル部1には光源11が内蔵されており、認証対象となる人がこのハンドル部を握った場合に、光源11から光を放出すれば光は手の甲を透過し、受光部2により受光できる。本実施形態では、人にハンドルを握らせることで手の甲側に適度の張りを生じさせ、手の甲側に明瞭な血管パターンを生じさせることができるようになり、しかも手が光源11の近傍となるため、より明瞭な血管パターンを得ることができるようになる。ハンドル部1の形状としては、限定されることなく様々な形態を採用することができ、限定されるわけではないが、例えばドアのハンドルに光源を組み込んだ形態とすることができる。この場合、ドアを開けようとする動作と個人認証動作とを一連の流れで行なうことができ、人は特段の動作を必要としなくなるためより容易に個人認証を行なうことができるという利点がある。なお、図2にハンドル部1の他の形態の例を示しておく。   As shown in FIG. 1, the handle portion 1 is a portion that is held by a person to be authenticated. The handle unit 1 has a built-in light source 11. When a person to be authenticated holds the handle unit, if the light is emitted from the light source 11, the light passes through the back of the hand and can be received by the light receiving unit 2. . In the present embodiment, by allowing a person to grip the handle, an appropriate tension can be generated on the back side of the hand, a clear blood vessel pattern can be generated on the back side of the hand, and the hand is in the vicinity of the light source 11. As a result, a clearer blood vessel pattern can be obtained. The shape of the handle portion 1 is not limited, and various forms can be adopted. For example, the shape of the handle portion 1 can be a form in which a light source is incorporated in a handle of a door. In this case, there is an advantage that the operation for opening the door and the personal authentication operation can be performed in a series of steps, and the person does not need a special operation, so that the personal authentication can be performed more easily. In addition, the example of the other form of the handle | steering-wheel part 1 is shown in FIG.

またハンドル部1に内蔵される光源11としては、限定されることなく種々のものを採用することができるが、放出される光の波長としては、近赤外領域であることが好ましく、より具体的には700nm以上800nm以下の波長を多く含む光源であることが好ましい。これは還元ヘモグロビンを多く含む静脈中の血液が近赤外光を吸収する性質を利用するためである。   The light source 11 incorporated in the handle portion 1 is not limited, and various light sources can be adopted. However, the wavelength of emitted light is preferably in the near infrared region, and more specifically. Specifically, it is preferably a light source including many wavelengths of 700 nm to 800 nm. This is because blood in veins containing a large amount of reduced hemoglobin absorbs near infrared light.

受光部2は、光源11から放出される光を受光し、情報処理部4に出力するものである。受光部2の構成としては、限定されるわけではないが、例えばCCDカメラを採用することができる。   The light receiving unit 2 receives light emitted from the light source 11 and outputs the light to the information processing unit 4. The configuration of the light receiving unit 2 is not limited, but for example, a CCD camera can be employed.

またハンドル部1と受光部2との間には可視光カットフィルタ3が設けられている。可視光カットフィルタ3を設けることで、証明条件の変化や、手の甲にある傷跡などの影響を削減することが可能となる。なお、カットする可視光の領域としては、限定されるわけではないが、750nm以下の可視光をカットする性能を有することが好ましい。また、可視光カットフィルタ3の配置は、ハンドル部1と受光部2の間であることが好ましいが、受光部2の近傍、個人認証の際に認証対象となる人の手と受光部2の間となるよう配置されることがより効果的で好ましい。   A visible light cut filter 3 is provided between the handle portion 1 and the light receiving portion 2. By providing the visible light cut filter 3, it is possible to reduce the influence of a change in the proof condition and a scar on the back of the hand. The visible light region to be cut is not limited, but preferably has the ability to cut visible light of 750 nm or less. Further, the arrangement of the visible light cut filter 3 is preferably between the handle portion 1 and the light receiving portion 2, but in the vicinity of the light receiving portion 2, between the hand of the person to be authenticated and the light receiving portion 2 during personal authentication. It is more effective and preferable that it is arranged so as to be in between.

情報処理部4は、光部が受光した光に基づき個人認識を行う部である。図3に、本実施形態に係る情報処理部4(以下「本情報処理部4」ともいう。)の機能ブロック図を示す。   The information processing unit 4 is a unit that performs personal recognition based on the light received by the light unit. FIG. 3 is a functional block diagram of the information processing unit 4 (hereinafter also referred to as “the information processing unit 4”) according to the present embodiment.

図3で示すとおり、本情報処理部4は、受光部が受光した光に基づき手の甲画像データを作成する手の甲画像データ作成部41と、手の甲画像データから複数の指ウェブデータを作成する指ウェブデータ作成部42と、手の甲画像データに対し回転処理及び移動処理の少なくともいずれかを行う回転・移動処理部43と、回転処理又は移動処理の少なくともいずれかが行われた手の甲画像データからROI領域データを抽出するROI領域データ抽出部44と、抽出した前記ROI領域データから静脈パターンデータを抽出する静脈パターンデータ抽出部45と、認証対象となる個人の静脈パターンデータを予め記憶してなる個人静脈パターンデータベース部46と、静脈パターンデータ抽出部が抽出した静脈パターンデータと個人静脈パターンデータベース部における個人静脈パターンデータとの相関を計算する判定部47とを有する。   As illustrated in FIG. 3, the information processing unit 4 includes a back-of-hand image data generation unit 41 that generates back-of-hand image data based on light received by the light-receiving unit, and finger web data that generates a plurality of finger web data from the back of the hand image data. The ROI region data is generated from the creation unit 42, the rotation / movement processing unit 43 that performs at least one of rotation processing and movement processing on the back image data of the hand, and the back image data of at least one of the rotation processing or movement processing. ROI region data extracting unit 44 for extracting, vein pattern data extracting unit 45 for extracting vein pattern data from the extracted ROI region data, and a personal vein pattern database in which individual vein pattern data to be authenticated is stored in advance Unit 46, vein pattern data extracted by vein pattern data extraction unit, and personal vein pattern And a determination unit 47 for calculating a correlation between the personal vein pattern data in the emissions database unit.

本情報処理部4は、上記の処理を用いて個人認識を行なうことができる限りにおいて限定されるわけではないが、例えば、上記各部として機能するためのプログラムをコンピュータのハードディスクなどの記録媒体に格納し、実行することで実現させても良い。   The information processing unit 4 is not limited as long as it can perform personal recognition using the above processing. For example, a program for functioning as each of the above units is stored in a recording medium such as a hard disk of a computer. However, it may be realized by executing.

手の甲画像データ作成部41は、受光部2が受光した光強度のデータに基づき手の甲画像データを作成する。なお、手の甲画像データを画像として表現した場合における手の甲画像の例を図4に示す。図4で示すとおり、この図には、人の手及び静脈パターンが現れている。   The back of the hand image data creation unit 41 creates back of the hand image data based on the light intensity data received by the light receiving unit 2. FIG. 4 shows an example of the back of the hand when the back of the hand image data is represented as an image. As shown in FIG. 4, human hands and vein patterns appear in this figure.

次に、本情報処理部4は、指ウェブデータ作成部42により、手の甲画像データから複数の指ウェブデータを作成する。ここで「指ウェブ」とは、各指の骨の間の最も窪んだ部分を意味する。この指ウェブデータを用いることで、本情報処理部4は、手の甲の向いている方向や手の甲の位置などの補正を行ない、認証の精度を高めることができるようになる。   Next, the information processing unit 4 uses the finger web data creation unit 42 to create a plurality of finger web data from the back of the hand image data. Here, the “finger web” means the most depressed portion between the bones of each finger. By using this finger web data, the information processing unit 4 can correct the direction of the back of the hand, the position of the back of the hand, and the like, thereby improving the accuracy of authentication.

なお、指ウェブデータの作成開始に先立ち、手の甲画像データに対しコントラスト調整を行なっておくことはより好ましい。このようにすることで指ウェブデータ作成の精度をより高めることができる。コントラスト調整を行った例を図5に示す。   It is more preferable to perform contrast adjustment on the back of the hand image data before starting the creation of finger web data. By doing in this way, the precision of finger web data creation can be raised more. An example of contrast adjustment is shown in FIG.

ここで、指ウェブデータの作成についてより具体的に説明する。まず、指ウェブデータ作成部42は手の輪郭線データを作成する。手の輪郭線データは、限定されるわけではないが、手の輪郭線を構成する複数の点の位置データの集合であることが好ましく、この手の輪郭線データを画像として表現した例について図6に示しておく。   Here, creation of finger web data will be described more specifically. First, the finger web data creation unit 42 creates hand outline data. Although the hand contour data is not limited, it is preferably a set of position data of a plurality of points constituting the hand contour, and an example of expressing the hand contour data as an image is shown in FIG. This is shown in FIG.

そして指ウェブデータ作成部42は、ある点、例えば手の輪郭線のうち、手首から腕側に伸びている部分と画像の下端との交点2つの中間点(Wm、図6参照)と、輪郭線の各点とのユークリッド距離をそれぞれ求め、その分布を求める。この分布グラフの例を図7に示す。そしてこの分布から局所曲率の最小値を求め、複数の指ウェブ位置データを抽出する。なお指ウェブデータは、限定されるわけではないが、人差し指と中指の間の指ウェブ(Fw1)、中指と薬指の間の指ウェブ(Fw2)、薬指と小指の間の指ウェブ(Fw3)の3つの指ウェブデータを求めることが認証精度向上の観点から好ましい(図6参照)。なお、上記輪郭線の中間点Wmと輪郭線の各点とのユークリッド距離は、以下の式で求められる。なお下記式中、D(i)はユークリッド距離を、XWmは上記中間点のx座標における位置データを、X(i)は、輪郭線の点iにおけるX座標の位置データを、Ywmは上記中間点におけるY座標の位置データを、Yb(i)は、輪郭線の点iにおけるY座標の位置データをそれぞれ示している。
Then, the finger web data creation unit 42 includes two intermediate points (Wm, see FIG. 6) of an intersection between a certain point, for example, a portion extending from the wrist to the arm side in the contour of the hand, and the contour. Find the Euclidean distance from each point of the line and find its distribution. An example of this distribution graph is shown in FIG. And the minimum value of local curvature is calculated | required from this distribution, and several finger web position data are extracted. The finger web data is not limited, but includes a finger web (Fw1) between the index finger and the middle finger, a finger web (Fw2) between the middle finger and the ring finger, and a finger web (Fw3) between the ring finger and the little finger. It is preferable to obtain three finger web data from the viewpoint of improving authentication accuracy (see FIG. 6). Note that the Euclidean distance between the intermediate point Wm of the contour line and each point of the contour line is obtained by the following equation. In the following formula, D E (i) is the Euclidean distance, X Wm is the position data of the intermediate point at the x coordinate, and X b (i) is the position data of the X coordinate at the point i of the contour line, Ywm Represents the Y coordinate position data at the intermediate point, and Yb (i) represents the Y coordinate position data at the contour point i.

このようにすることで、本実施形態係る指ウェブデータ作成部42は指ウェブの位置を確定させることが可能となり後述の様々な処理が可能となるだけでなく、個人認証の制度をより高くすることができる。   By doing in this way, the finger web data creation unit 42 according to the present embodiment can determine the position of the finger web and not only can perform various processes described later, but also raise the system of personal authentication. be able to.

次に、本実施形態に係る回転・移動処理部43は、上記で求めた指ウェブFw1、Fw2を通過する直線を求め、この直線と画像データにおけるX軸又はY軸との回転角を求め、上記の直線がX軸又はY軸と並行になるように回転処理を行う。なお、限定されるわけではないが、例えば指ウェブFw1、Fw2を通過する直線とX軸との角度は以下の式で求めることができる。なお下記式中、αは直線の傾き角を、YFw3は指ウェブFw3におけるY座標の位置データを、YFw1は指ウェブFw1におけるY座標の位置データを、XFw3は指ウェブFw3におけるX座標の位置データを、XFw1は指ウェブFw1におけるX座標の位置データをそれぞれ表す。なお、例えば図4の例で示される画像に対し回転処理を行った結果を図8に示す。
Next, the rotation / movement processing unit 43 according to the present embodiment obtains a straight line passing through the finger webs Fw1 and Fw2 obtained above, obtains a rotation angle between the straight line and the X axis or the Y axis in the image data, The rotation process is performed so that the straight line is parallel to the X axis or the Y axis. Although not limited, for example, the angle between the straight line passing through the finger webs Fw1 and Fw2 and the X axis can be obtained by the following equation. In the following formula, α is the inclination angle of the straight line, Y Fw3 is the Y coordinate position data on the finger web Fw3, Y Fw1 is the Y coordinate position data on the finger web Fw1, and X Fw3 is the X coordinate on the finger web Fw3. X Fw1 represents the position data of the X coordinate in the finger web Fw1. For example, FIG. 8 shows the result of performing the rotation process on the image shown in the example of FIG.

次にROI領域データ抽出部44は、回転処理又は移動処理の少なくともいずれかが行われた手の甲画像データからROI領域データを抽出する。ここでROI領域とは、手の甲画像の一部の領域であって、静脈の血管パターンを用いて個人認証するために特に注目する領域をいう。ROI領域は、上記機能を奏する領域であれば限定されるわけではないが、例えばFw1とFw3を通る上記直線と所定距離をおき、かつ中間点が指ウェブFw2のX座標と同じである平行な一辺を有する四角形の領域であることが好ましい。このROI領域の例を図8、図9に示しておく。   Next, the ROI area data extraction unit 44 extracts ROI area data from the back image data of the hand that has been subjected to at least one of the rotation process and the movement process. Here, the ROI region is a partial region of the back image of the hand and refers to a region of particular interest for personal authentication using a vein blood vessel pattern. The ROI region is not limited as long as it has the above-mentioned function. For example, the ROI region has a predetermined distance from the straight line passing through Fw1 and Fw3, and the parallel point is the same as the X coordinate of the finger web Fw2. A rectangular region having one side is preferable. Examples of this ROI area are shown in FIGS.

また、静脈パターンデータ抽出部45は、ROI領域データから静脈パターンデータを抽出する。具体的な処理について以下説明する。   Further, the vein pattern data extraction unit 45 extracts vein pattern data from the ROI region data. Specific processing will be described below.

本実施形態に係る個人認証装置は、手の甲の透過画像を用いている。この場合において透過光は手が厚いほど透過しにくくなるが人間の手の厚みは一様ではないため輝度むらが生じ、ノイズとなる。そのため、本実施形態に係る静脈パターン抽出部45は、限定されるわけではないがモルフォロジーによる手法を採用する。モルフォロジーによる手法は、限定されるわけではないが、対象画素を中心に一定の直径を有する円板のmin処理、max処理を行い、最初のmin処理により、当該直径より少ない縦、横の両方向の線分を消失させる。この結果、静脈部分を隠し、輝度村の分布を示す背景画像を求める。そしてこの背景画像を上記図9で示すROI領域の画像から差し引くことで輝度むらを除去する。なお、上記得た背景画像を図10に、図9で示す画像から輝度むらを除去した結果の画像を図11に示す。また、min処理、maxsy処理、opening処理の式を下記にそれぞれ示しておく。
The personal authentication device according to the present embodiment uses a transparent image of the back of the hand. In this case, the transmitted light becomes more difficult to transmit as the hand is thicker, but the thickness of the human hand is not uniform, resulting in uneven brightness and noise. Therefore, the vein pattern extraction unit 45 according to the present embodiment employs a technique based on morphology, although not limited thereto. Although the method based on the morphology is not limited, the min process and the max process are performed on a disk having a certain diameter around the target pixel, and the first min process is performed in both the vertical and horizontal directions smaller than the diameter. The line segment disappears. As a result, a background image showing the distribution of luminance villages is obtained by hiding the vein portion. Then, this background image is subtracted from the image of the ROI area shown in FIG. Note that FIG. 10 shows the obtained background image, and FIG. 11 shows an image obtained by removing luminance unevenness from the image shown in FIG. In addition, equations for min processing, maxsy processing, and opening processing are shown below.

ここでXは集合Xの構造要素Bによるopeningを表す。またBは構造要素Bの対象集合を表す。 Here, X B represents opening by the structural element B of the set X. B S represents a target set of structural elements B.

また、本実施形態に係る静脈パターンデータ抽出部45は、複数の方向に対し、所定の幅の直線を線形構造要素としてopening処理を行う(複数の方向の例については図12参照)。なお直線の所定の幅は血管の幅により定められる。図12の例は、0°、30°、60°、90°、120°、150°の例であり、それぞれに沿った線形の構造要素でopening処理を行った画像の例を図13乃至図18に示しておく。このopening処理は対象画素を中心にそれぞれ所定のmin処理、max処理を行うものであるため、最初のmin処理で、それぞれの方向において所定の画素より少ない線分長を消失させる一方、次のmax処理で所定の長さの線分を元の状態に戻す。なお、上記各方向に対するopening処理の結果得られる画像はそれぞれの画像方向性を有するため、異なる方向の線形構造要素を用いて画像強調が施されている。そこで、本実施形態に係る静脈パターンデータ抽出部45は強調画像の各点に上記複数の方向に対するopening処理の結果得られた画像における最大濃淡値を与え、新しい強調画像を作成する。この画像の例を図19に示す。   In addition, the vein pattern data extraction unit 45 according to the present embodiment performs an opening process on a plurality of directions using a straight line having a predetermined width as a linear structural element (see FIG. 12 for an example of a plurality of directions). The predetermined width of the straight line is determined by the width of the blood vessel. The example of FIG. 12 is an example of 0 °, 30 °, 60 °, 90 °, 120 °, and 150 °, and examples of images obtained by performing an opening process with linear structural elements along each of FIG. 13 to FIG. This is shown in FIG. Since this opening process is to perform predetermined min processing and max processing centering on the target pixel, the line length less than the predetermined pixel is lost in each direction in the first min processing, while the next max The line segment of a predetermined length is returned to the original state by processing. In addition, since the image obtained as a result of the opening process with respect to each direction has each image directionality, image enhancement is performed using linear structural elements in different directions. Therefore, the vein pattern data extraction unit 45 according to the present embodiment gives the maximum gray value in the image obtained as a result of the opening process for the plurality of directions to each point of the enhanced image, and creates a new enhanced image. An example of this image is shown in FIG.

次に、静脈パターンデータ抽出部45は、ここで求めた輝度画像から二値画像を作成する。この二値画像を作成する処理としては、二値化処理を挙げることができ、画像をオブジェクト領域(1の値)と背景領域(0の値)に分離する。この二値化処理としては、限定されるわけではないが、画像におけるヒストグラムを2つに分割した場合のクラス間分散が最大にある点を閾値とし、これを基準に分けることが好ましい。なおこの結果得られる二値画像を図20に示す。   Next, the vein pattern data extraction unit 45 creates a binary image from the luminance image obtained here. As a process for creating this binary image, a binarization process can be cited, and the image is separated into an object area (value of 1) and a background area (value of 0). Although this binarization processing is not limited, it is preferable to use a threshold value as a threshold value when the histogram in an image is divided into two and divide it into a reference. A binary image obtained as a result is shown in FIG.

そして、静脈パターンデータ抽出部45は、更に、求めた二値画像から幅1画素の線画像に変換する。この結果を図21に示す。   The vein pattern data extraction unit 45 further converts the obtained binary image into a line image having a width of 1 pixel. The result is shown in FIG.

なお、上記抽出した静脈パターンデータは、それだけでは個人を認証することができず、認証対象となる個人の静脈パターンデータを予め記憶してなる個人静脈パターンデータベース部46が必要である。個人静脈パターンデータベース部46は、限定されるわけではないが、個人を特定するためのデータ(例えば氏名データやIDデータ等)と、この個人を特定するためのデータに対応させた静脈パターンデータとを一又は二以上格納して構成されていることが好ましい。なお、図22に、格納される静脈パターンの細線画像の例を示す。   Note that the extracted vein pattern data alone cannot authenticate an individual, and a personal vein pattern database unit 46 that stores in advance the vein pattern data of an individual to be authenticated is necessary. The personal vein pattern database unit 46 is not limited, but data for identifying an individual (for example, name data and ID data), and vein pattern data corresponding to the data for identifying the individual, It is preferable that one or two or more are stored. FIG. 22 shows an example of a thin line image of the stored vein pattern.

判定部47は、静脈パターンデータ抽出部が抽出した静脈パターンデータと個人静脈パターンデータベース部における個人静脈パターンデータとの相関を計算することで同一人であるか否かを判定する。判定する方法としては、実現できる限りにおいて限定されるわけではないが、指紋隆線の端点又は分岐点(マニューシャ)のマッチングを用いる方法が好適である。マッチングとしては、限定されるわけではないが、マニューシャの出現位置や角度の一致度だけでなく、マニューシャ間の全ての点の出現位置や角度の一致度(精細照合)も調べることが好適である。なお図23に、図21から抽出したマニューシャの例を示しておく。なお、静脈パターンデータベース部46には、上記の静脈パターンの細線画像だけでなく、このマニューシャについても登録しておくことは非常に有用である。登録されるマニューシャの例を図24に示す。   The determination unit 47 determines whether or not they are the same person by calculating the correlation between the vein pattern data extracted by the vein pattern data extraction unit and the personal vein pattern data in the personal vein pattern database unit. The determination method is not limited as long as it can be realized, but a method using matching of an end point or a branch point (maneuver) of a fingerprint ridge is preferable. The matching is not limited, but it is preferable to check not only the appearance position and angle coincidence of the minutia but also the appearance position and angle coincidence (fine matching) of all points between the minutiae. . FIG. 23 shows an example of the minutiae extracted from FIG. It is very useful to register not only the fine line image of the vein pattern but also this minutiae in the vein pattern database unit 46. An example of registered minutiae is shown in FIG.

判定部47は、マニューシャのマッチングにおいて、まずマニューシャの抽出を行なう。マニューシャは以下の式により抽出する。なお、下記式において、R(k)は、ある点Aの8近傍の濃淡値を示し、Cn=6の場合、Aは分岐点であり、Cn=2の場合、Aは端点を意味する。
The determination unit 47 first extracts minutiae in minutia matching. The minutiae is extracted by the following formula. In the following formula, R (k) represents a gray value near 8 of a certain point A. When Cn = 6, A is a branch point, and when Cn = 2, A means an end point.

次に、判定部47では、上述の処理において発生するノイズにより生じる偽の特徴点を除去し、残った特徴点に対しマッチングを行なう。   Next, the determination unit 47 removes false feature points caused by noise generated in the above-described processing, and performs matching on the remaining feature points.

なお、本判定部47では、各マニューシャにおいて、方向コードも付与する。方向コードは、当該マニューシャにおいて右下の画素(i0+1,j0+1)を1、右の画素(i0+1,j)を2、…、下の画素(i,j0+1)を8と左回りに順番に番号をつけ、X座標、Y座標、端点、分岐点の種別と方向コードとを合わせて認識する。即ち、個人静脈パターンデータベース部46に格納される登録マニューシャP及びここで求められる入力マニューシャQは、以下の式で表される。
The determination unit 47 also assigns a direction code to each minutiae. For the direction code, the lower right pixel (i 0 + 1 , j 0 + 1 ) is 1, the right pixel (i 0 + 1 , j 0 ) is 2, ..., the lower pixel (i 0 , j 0 + 1 ) is 8 and left. Numbers are assigned in order around the X-coordinate, Y-coordinate, end point, branch point type, and direction code. That is, the registered minutiae P stored in the personal vein pattern database unit 46 and the input minutiae Q obtained here are expressed by the following equations.

ここでXi及びXjはX座標、Yi及びYjはY座標、SDi及びSDjは方向コード、Ki及びKjは端点、分岐点の種別を表す。   Here, Xi and Xj are X coordinates, Yi and Yj are Y coordinates, SDi and SDj are direction codes, and Ki and Kj are types of end points and branch points.

判定部47は、限定されるわけではないが、マニューシャのマッチングを段階的に行なう。まず、登録マニューシャと入力マニューシャとの間で以下の条件を満たすか否かを判定し、合致するものについてより詳細なマッチングを行なう。
(1)マニューシャの間の距離がしきい値Thdt以下
(2)マニューシャの間の方向差がしきい値Thθt以下
(3)マニューシャの間の種別が一致
(4)マニューシャの間の距離の総和が最小
(5)1対1の対応
Although it is not necessarily limited, the determination part 47 matches a minutiae in steps. First, it is determined whether or not the following conditions are satisfied between the registered minutiae and the input minutiar, and more detailed matching is performed for those that match.
(1) The distance between minutiae is less than or equal to threshold Th dt (2) The direction difference between minutiae is less than or equal to threshold Th θt (3) Type of minutia matches (4) Distance between minutiae Minimal sum (5) 1 to 1 correspondence

詳細なマッチングは、まず、各分岐点の位置と方向に基づいて位置ずれを微調整する(位置ずれを調整した後の画像の例を図25に示す。)。そしてその後各分岐点から静脈の連結領域毎に追跡してX、Y座標と方向コードを抽出して点を表す。各点間の方向差の総和θsumと各点間の距離の総和Dsumを以下の式に従い認証を行なう。
In the detailed matching, first, the positional deviation is finely adjusted based on the position and direction of each branch point (an example of an image after adjusting the positional deviation is shown in FIG. 25). Then, tracing is performed for each vein connection region from each branch point, and the X, Y coordinates and direction code are extracted to represent the point. The total sum θ sum of direction differences between the points and the total sum D sum of the distances between the points are authenticated according to the following equations.

ここでnum=M+N、M,Nは分岐点と端点の数を示す。またcount葉出発点から次の分岐点又は端点までの点数を示す。angle1は登録画像の各点における方向コードを示し、angle2は入力画像の各点における方向コードを示す。またX1、X2は登録画像における各点のX座標を、Y1、Y2は登録画像における各点のY座標を、をそれぞれ示す。   Here, num = M + N, M, N indicate the number of branch points and end points. It also indicates the number of points from the count leaf start point to the next branch point or end point. angle1 indicates a direction code at each point of the registered image, and angle2 indicates a direction code at each point of the input image. X1 and X2 indicate the X coordinate of each point in the registered image, and Y1 and Y2 indicate the Y coordinate of each point in the registered image.

また、照合率は次のように示される。
Moreover, the collation rate is shown as follows.

即ち、同一人であるか否かの判定は、以下の式で表現される。
That is, the determination of whether or not they are the same person is expressed by the following expression.

なお、Thd2とThθ2を増加すると、本人は認証されやすくなる一方で同時に、他人が誤って認証される率も高くなる。そのため、しきい値Thd2とThθ2は本人拒否率と他人認証率のバランスを配慮し、運用時に適切な動作点を設定する必要がある。   Increasing Thd2 and Thθ2 makes it easier for the person to be authenticated, and at the same time increases the rate at which others are mistakenly authenticated. Therefore, the threshold values Thd2 and Thθ2 need to set an appropriate operating point at the time of operation in consideration of the balance between the person rejection rate and the other person authentication rate.

よって、以上の通り、本実施形態に係る個人認証装置により、より簡便、確実に個人認証を行なうことができる。特に、本個人認証装置を用いると、ドアなどを開けようとハンドルを握るだけで個人認証を行なうことができ、特別な操作が不要となり、カードなどのキーの形態が不要になり、盗難や偽造の防止が可能となる等利便性が高くなる。更に、手の回転や位置ずれにロバストなシステムを構成することができ、ハンドルを握る方法であってもより精度が高いものとなっている。   Therefore, as described above, personal authentication can be performed more simply and reliably by the personal authentication device according to the present embodiment. In particular, with this personal authentication device, it is possible to perform personal authentication simply by grasping the handle to open the door, etc., no special operation is required, no key form such as a card is required, theft or forgery Convenience, such as being able to prevent, becomes high. Furthermore, a system that is robust against rotation and misalignment of the hand can be configured, and even a method of grasping the handle has higher accuracy.

ここで、実際に上記の個人認識装置を作成し、実際の認識処理を行った。実験は、30名の登録者が自然にドアハンドルを握る状態で行い、各人全ての画像を2回撮り、それを片手10枚ずつ、30人で合計600枚の静脈パターンを学習させ、上記登録者30名に5名の未登録者を加えて同様に800枚(登録者600枚、未登録者200枚)の静脈パターンを取得し、これについて、登録者であるか未登録者であるかの認証の是非を確認した。この結果を表1に示す。   Here, the above personal recognition device was actually created and the actual recognition process was performed. The experiment was conducted with 30 registrants holding the door handle naturally, taking each person's image twice, and learning 10 vein patterns from 10 people in each hand, totaling 600 vein patterns. In addition, five non-registered people are added to 30 registrants, and 800 vein patterns (600 registrants and 200 unregistered people) are obtained in the same manner, and this is a registered or unregistered person. I confirmed the pros and cons of such certification. The results are shown in Table 1.

表1の結果によると、登録者に対しては98%以上の認識率(600枚中、誤認識は4枚、拒否された枚数は4枚)、未登録者に対しては99%以上の拒否率(200枚中誤認識された枚数2枚)を得ることができ、本発明の有用性について確認することができた。なお、図26に、本実施例において取得された静脈パターンの細線画像の例を示しておく。
According to the results in Table 1, the recognition rate is 98% or more for registrants (out of 600, 4 are false recognitions, 4 are rejected), and 99% or more for unregistered persons. It was possible to obtain a rejection rate (two of the 200 sheets that were misrecognized), confirming the usefulness of the present invention. FIG. 26 shows an example of a fine line image of a vein pattern acquired in this embodiment.

実施形態に係る個人認証装置の概略図である。It is a schematic diagram of a personal authentication device concerning an embodiment. ハンドル部の他の例を示す図である。It is a figure which shows the other example of a handle part. 情報処理部の機能ブロック図である。It is a functional block diagram of an information processing part. 手の甲画像の例を示す図である。It is a figure which shows the example of the back image of a hand. コントラスト調整を行った手の甲画像の例を示す図である。It is a figure which shows the example of the back image of the hand which performed contrast adjustment. 手の甲の輪郭線を示す図である。It is a figure which shows the outline of the back of a hand. ユークリッド距離の分布を示す図である。It is a figure which shows distribution of Euclidean distance. 回転処理を行い、ROI領域を抽出した例の図である。It is a figure of the example which performed the rotation process and extracted the ROI area | region. ROI領域の例を示す図である。It is a figure which shows the example of a ROI area | region. ROI領域における背景画像の例を示す図である。It is a figure which shows the example of the background image in a ROI area | region. 図9から図10を用いて照明補正を行った画像の例を示す図である。It is a figure which shows the example of the image which performed illumination correction using FIGS. 9-10. 構造要素の例を示す図である。It is a figure which shows the example of a structural element. 0度の方向にopening処理を行った結果の例を示す図である。It is a figure which shows the example of the result of having performed the opening process in the 0 degree direction. 30度の方向にopening処理を行った結果の例を示す図である。It is a figure which shows the example of the result of having performed the opening process in the direction of 30 degree | times. 60度の方向にopening処理を行った結果の例を示す図である。It is a figure which shows the example of the result of having performed the opening process in the direction of 60 degree | times. 90度の方向にopening処理を行った結果の例を示す図である。It is a figure which shows the example of the result of having performed the opening process in the direction of 90 degree | times. 120度の方向にopening処理を行った結果の例を示す図である。It is a figure which shows the example of the result of having performed the opening process in the direction of 120 degree | times. 150度の方向にopening処理を行った結果の例を示す図である。It is a figure which shows the example of the result of having performed the opening process in the direction of 150 degree | times. 強調画像の例を示す図である。It is a figure which shows the example of an emphasized image. 二値画像の例を示す図である。It is a figure which shows the example of a binary image. 細線画像の例を示す図である。It is a figure which shows the example of a thin line image. 静脈パターンデータベース部に格納される細線画像の例を示す図である。It is a figure which shows the example of the thin line image stored in the vein pattern database part. マニューシャの例を示す図である。It is a figure which shows the example of a minutia. 静脈パターンデータベース部に格納されるマニューシャの例を示す図である。It is a figure which shows the example of the minutiae stored in a vein pattern database part. 位置ずれを補正したマニューシャの例を示す図である。It is a figure which shows the example of the minutia which correct | amended position shift. 実施例において取得した静脈パターンの細線画像の例を示す図である。It is a figure which shows the example of the fine line image of the vein pattern acquired in the Example.

符号の説明Explanation of symbols

1…ハンドル部、2…受光部、3…可視光カットフィルタ、4…情報処理部、11…光源
DESCRIPTION OF SYMBOLS 1 ... Handle part, 2 ... Light-receiving part, 3 ... Visible light cut filter, 4 ... Information processing part, 11 ... Light source

Claims (4)

光源が内蔵されたハンドル部と、
前記光源から放出される光を受光する受光部と、
前記受光部が受光した光に基づき個人認証を行う情報処理部と、を有する個人認証装置。
A handle portion with a built-in light source;
A light receiving unit for receiving light emitted from the light source;
An information processing unit that performs personal authentication based on light received by the light receiving unit.
前記ハンドル部と前記受光部との間に設けられる可視光カットフィルタを有する請求項1記載の個人認証装置。   The personal authentication device according to claim 1, further comprising a visible light cut filter provided between the handle portion and the light receiving portion. 前記情報処理部は、
前記受光部が受光した光に基づき手の甲画像データを作成する手の甲画像データ作成部と、
前記手の甲画像データから複数の指ウェブデータを作成する指ウェブデータ作成部と、
前記手の甲画像データに対し回転処理及び移動処理の少なくともいずれかを行う回転・移動処理部と、
回転処理又は移動処理の少なくともいずれかが行われた手の甲画像データからROI領域データを抽出するROI領域データ抽出部と、
抽出した前記ROI領域データから静脈パターンデータを抽出する静脈パターンデータ抽出部と、
認証対象となる個人の静脈パターンデータを予め記憶してなる個人静脈パターンデータベース部と、
前記静脈パターンデータ抽出部が抽出した静脈パターンデータと、前記個人静脈パターンデータベース部における個人静脈パターンデータとの相関を計算する相関計算部と、
を有する請求項1記載の個人認証装置。
The information processing unit
A back image data creating unit for creating back image data of the hand based on the light received by the light receiving unit;
A finger web data creation unit for creating a plurality of finger web data from the back image data of the hand;
A rotation / movement processing unit that performs at least one of rotation processing and movement processing on the back of the hand image data;
An ROI region data extraction unit that extracts ROI region data from back image data of a hand that has been subjected to at least one of rotation processing and movement processing;
A vein pattern data extraction unit for extracting vein pattern data from the extracted ROI region data;
A personal vein pattern database unit that prestores personal vein pattern data to be authenticated;
A correlation calculation unit for calculating a correlation between the vein pattern data extracted by the vein pattern data extraction unit and the personal vein pattern data in the personal vein pattern database unit;
The personal authentication device according to claim 1.
コンピュータに、
人間の手を透過した光の強度データに基づき手の甲画像データを作成する手の甲画像データ作成部、
前記手の甲画像データから複数の指ウェブデータを作成する指ウェブデータ作成部、
前記手の甲画像データに対し回転処理及び移動処理の少なくともいずれかを行う回転・移動処理部、
回転処理又は移動処理の少なくともいずれかが行われた手の甲画像データからROI領域データを抽出するROI領域データ抽出部、
抽出した前記ROI領域データから静脈パターンデータを抽出する静脈パターンデータ抽出部、
認証対象となる個人の静脈パターンデータを予め記憶してなる個人静脈パターンデータベース部、
前記静脈パターンデータ抽出部が抽出した静脈パターンデータと、前記個人静脈パターンデータベース部における個人静脈パターンデータとの相関を計算する判定部、として機能させるための個人認証プログラム。


On the computer,
The back image data creation unit for creating the back image data of the hand based on the intensity data of the light transmitted through the human hand,
A finger web data creation unit for creating a plurality of finger web data from the back image data of the hand;
A rotation / movement processing unit that performs at least one of rotation processing and movement processing on the back of the hand image data,
ROI region data extraction unit for extracting ROI region data from back image data of a hand that has been subjected to at least one of rotation processing and movement processing;
A vein pattern data extraction unit for extracting vein pattern data from the extracted ROI region data;
An individual vein pattern database unit that stores in advance the vein pattern data of individuals to be authenticated;
A personal authentication program for functioning as a determination unit for calculating a correlation between the vein pattern data extracted by the vein pattern data extraction unit and the personal vein pattern data in the personal vein pattern database unit.


JP2007146286A 2007-05-31 2007-05-31 Personal identification apparatus and personal identification program for use in the same Withdrawn JP2008299678A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007146286A JP2008299678A (en) 2007-05-31 2007-05-31 Personal identification apparatus and personal identification program for use in the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007146286A JP2008299678A (en) 2007-05-31 2007-05-31 Personal identification apparatus and personal identification program for use in the same

Publications (1)

Publication Number Publication Date
JP2008299678A true JP2008299678A (en) 2008-12-11

Family

ID=40173129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007146286A Withdrawn JP2008299678A (en) 2007-05-31 2007-05-31 Personal identification apparatus and personal identification program for use in the same

Country Status (1)

Country Link
JP (1) JP2008299678A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010246850A (en) * 2009-04-20 2010-11-04 Tsu I Hsia Vein fluoroscopic apparatus
KR20230068247A (en) * 2021-11-10 2023-05-17 주식회사 테크스피어 Apparatus and method for recognizing blood vessel pattern on the back of the hand

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010246850A (en) * 2009-04-20 2010-11-04 Tsu I Hsia Vein fluoroscopic apparatus
KR20230068247A (en) * 2021-11-10 2023-05-17 주식회사 테크스피어 Apparatus and method for recognizing blood vessel pattern on the back of the hand
KR102666340B1 (en) 2021-11-10 2024-05-16 주식회사 테크스피어 Apparatus and method for recognizing blood vessel pattern on the back of the hand

Similar Documents

Publication Publication Date Title
Unar et al. A review of biometric technology along with trends and prospects
US7899217B2 (en) Multibiometric multispectral imager
Antonelli et al. Fake finger detection by skin distortion analysis
US20220300593A1 (en) System and method of biometric identification of a subject
Awad et al. Impact of some biometric modalities on forensic science
JP2016146109A (en) Finger vein authentication system
Shahin et al. A multimodal hand vein, hand geometry, and fingerprint prototype design for high security biometrics
Zayed et al. A comprehensive survey on finger vein biometric
JP2007200051A (en) Personal identification device
WO2009028926A2 (en) Apparatus and method for volumetric multi-modal hand biometrlc identification
Cho et al. Thermal imprint feature analysis for face recognition
Manjunathswamy et al. Multimodal biometric authentication using ECG and fingerprint
Hoshyar et al. Review on finger vein authentication system by applying neural network
Benziane et al. An introduction to biometrics
JP2008299678A (en) Personal identification apparatus and personal identification program for use in the same
Gupta et al. A vein biometric based authentication system
JP4389505B2 (en) Personal authentication device and blood vessel pattern extraction device
JP5134655B2 (en) Personal authentication system, personal authentication device, and blood vessel image capturing device
Das et al. An introduction to biometric authentication systems
Gupta Advances in multi modal biometric systems: a brief review
Yamada et al. Evaluation of independence between palm vein and fingerprint for multimodal biometrics
Mitica-Valentin et al. Biometric security: Recognition according to the pattern of palm veins
Patil et al. Survey: Human Identification Using Palm Vein Images
BENzIANE et al. Biometric technology based on hand vein
Chopra et al. Finger print and finger vein recognition using repeated line tracking and minutiae

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100803