JP2008197987A - Authentication system - Google Patents

Authentication system Download PDF

Info

Publication number
JP2008197987A
JP2008197987A JP2007033580A JP2007033580A JP2008197987A JP 2008197987 A JP2008197987 A JP 2008197987A JP 2007033580 A JP2007033580 A JP 2007033580A JP 2007033580 A JP2007033580 A JP 2007033580A JP 2008197987 A JP2008197987 A JP 2008197987A
Authority
JP
Japan
Prior art keywords
image
finger
information
authentication
light emission
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007033580A
Other languages
Japanese (ja)
Other versions
JP4900701B2 (en
Inventor
Toru Baba
亨 馬場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP2007033580A priority Critical patent/JP4900701B2/en
Publication of JP2008197987A publication Critical patent/JP2008197987A/en
Application granted granted Critical
Publication of JP4900701B2 publication Critical patent/JP4900701B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an authentication system for shortening an authentication time, and for improving an authentication precision ratio, and for improving an acceptance ratio, and for reducing a false acceptance ratio. <P>SOLUTION: The broken line vector image and ternary image of a biological image are generated, and in identification, the number of broken lines and the number of branch points in a target individual broken line vector image prestored in a storage means are compared with the number of broken lines and the number of branch points in a newly photographed broken line vector image, and when they do not coincide, it is determined that authentication fails, and only when they coincide, the ternary image is compared, and when the positions of black and white in the ternary image coincide with each other, an image acquired by synthesizing the broken line vector image is compared with the ternary image. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、指静脈の生体情報を用いて本人確認を行う認証システムに係り、特に、高速認証を行うため認証アルゴリズムに関する。   The present invention relates to an authentication system for performing identity verification using finger vein biometric information, and more particularly to an authentication algorithm for performing high-speed authentication.

最近、生体識別装置においては、人間の指紋や網膜を用いた生体認証だけでなく、指の静脈パターンの画像によって本人確認を行う静脈認証装置が普及してきている。静脈認証装置の静脈パターンの撮影装置としては、以下のような非接触に指静脈パターンを取得する生体識別装置に関する特許文献1がある。   Recently, in biometric identification devices, not only biometric authentication using human fingerprints and retinas, but also vein authentication devices that perform identity verification using finger vein pattern images have become widespread. As a vein pattern imaging device of a vein authentication device, there is Patent Document 1 relating to a biometric identification device that acquires a finger vein pattern in a non-contact manner as follows.

図2は、非接触に指血管パターンを取得する個人認証装置に関する特許文献1の機構的構成図である。
識別対象である指201を置く指置き台と、該指置き台に置かれた指201の画像を撮影する指に対して光を入射する赤外線光源202,203と、前記指置き台に置かれた指201の画像を撮影するカメラ204を備え、指の両サイドから赤外入射光線を照射し、指201を透過した赤外線が指の中で飽和し、その飽和した光(画像)をカメラ204により撮影する。カメラ204の撮影領域は、図3に示すように、指201の第1関節302から第2関節303までをカバーしている。
FIG. 2 is a mechanical configuration diagram of Patent Document 1 relating to a personal authentication device that acquires a finger blood vessel pattern in a non-contact manner.
A finger rest on which the finger 201 to be identified is placed; an infrared light source 202, 203 that makes light incident on the finger that captures an image of the finger 201 placed on the finger rest; and the finger rest placed on the finger rest. Provided with a camera 204 that captures an image of the finger 201, infrared incident light is irradiated from both sides of the finger, the infrared light transmitted through the finger 201 is saturated in the finger, and the saturated light (image) is transmitted to the camera 204. Take a picture. The imaging region of the camera 204 covers the first joint 302 to the second joint 303 of the finger 201 as shown in FIG.

特開2005−253989号公報Japanese Patent Laid-Open No. 2005-253989

ところで、特許文献1で用いられている指認証アルゴリズムは予め、撮影し、登録した画像と、認証したい指の画像をパターンマッチング処理を用いて、画像が一致するかどうかを検証するアルゴリズムが用いられている。
指静脈の場合、認証対象となる画像自体は認証が必要とする画像面積が広くないため、パターンマッチングのような左右上下に交互に動かす処理を行っても、割と高速に画像の一致、不一致を確認し、認証の有無を判断することができる。
しがしながら、指静脈画像が大きくなったり、画像歪みが大きい場合、左右上下に動かす範囲が広くなってしまい、より時間がかかってしまう問題がある。
また、透過赤外線の画像が、より鮮明になった場合、また、同時に大量に指の認証処理を行おうとした場合、パターンマッチングでは認証処理に時間がかかってしまい、処理速度が落ちる、もしくは負荷がかかって認証までの時間がかかるといった問題が起きる可能性がある。
By the way, the finger authentication algorithm used in Patent Document 1 is an algorithm that uses a pattern matching process to verify whether an image that has been captured and registered in advance and an image of a finger to be authenticated match each other. ing.
In the case of finger veins, the image to be authenticated itself does not have a large image area that requires authentication, so even if processing such as pattern matching is performed alternately left and right and up and down, the images match and do not match at a relatively high speed. It is possible to confirm whether or not authentication is performed.
However, when the finger vein image becomes large or the image distortion is large, there is a problem that the range of movement to the left, right, up and down becomes wide and takes more time.
Also, if the transmitted infrared image becomes clearer, or if a large number of finger authentication processes are attempted at the same time, the pattern matching process takes time, and the processing speed decreases or the load is reduced. This may cause a problem that it takes time until authentication.

本発明は、以上の問題点を鑑みてなされたものであり、認証時間を短縮したうえ、認証精度率を向上させ、本人認証率を高め、他人受け入れ率の低減を実現する認証システムを提供することにある。   The present invention has been made in view of the above problems, and provides an authentication system that shortens the authentication time, improves the authentication accuracy rate, increases the identity authentication rate, and reduces the acceptance rate of others. There is.

上記目的を達成するために、本発明にかかる認証システムは、人間の指の静脈に関する生体情報を用いて本人確認を行う認証システムであって、
前記生体情報を含む画像情報を取得する撮像手段と、取得した画像情報に対して複数の画像処理を加えて、1つ以上の生体画像情報を生成する生体画像情報生成手段と、生成された前記生体画像情報に基づいて前記本人確認を行う認証処理手段を備えることを特徴とする。
また、前記生体画像生成手段が前記撮像手段によって取得した画像情報を折線ベクトル化する手段と3値化する手段とを備え、前記認証処理手段が、折線ベクトル化画像と3値化画像とに基づき本人確認を行うことを特徴とする。
また、前記認証処理手段が、前記撮像手段によって新たに撮影し、かつ前記生体画像生成手段によって新たに生成した折線ベクトル化画像における折線数及び分岐点数と、記憶手段に予め記憶した確認対象の個人の折線ベクトル化画像における折線数及び分岐点数とが一致するか否かを判定し、一致していた場合には、前記生体画像生成手段によって新たに生成した3値化画像から灰色部分を除いた第1の2値化画像を生成し、記憶手段に予め記憶した確認対象の個人の第2の2値化画像における黒、白の位置関係が一致するか否かを判定し、一致していた場合には前記第1の2値化画像に対して前記生体画像生成手段によって新たに生成した折線ベクトル画像とを合成した第1の合成画像を生成すると共に、前記第2の2値化画像に対し前記記憶手段から読み出した折線ベクトル化画像とを合成した第2の合成画像を生成し、これら生成した第1、第2の合成画像のパターンマッチング処理を行い、両画像における折線数、分岐点数が一致し、かつ黒、白の位置関係が一致していた場合に本人確認成功とする手段を備えることを特徴とする。
In order to achieve the above object, an authentication system according to the present invention is an authentication system for performing identity verification using biological information related to a vein of a human finger,
Imaging means for acquiring image information including the biological information, biological image information generating means for generating one or more biological image information by applying a plurality of image processing to the acquired image information, and the generated said It is characterized by comprising authentication processing means for performing identity verification based on biometric image information.
The biological image generation means includes means for converting the image information acquired by the imaging means into a polygonal line vector and a means for trinating, and the authentication processing means is based on the polygonal line vectorized image and the ternary image. It is characterized by performing identity verification.
In addition, the number of fold lines and the number of branch points in the fold line vectorized image newly taken by the image pickup means and newly generated by the biometric image generation means by the authentication processing means, and the individual to be confirmed previously stored in the storage means It is determined whether or not the number of fold lines and the number of branch points in the fold line vectorized image match, and if they match, the gray portion is removed from the ternary image newly generated by the biological image generation means A first binarized image is generated, and it is determined whether or not the positional relationship between black and white in the second binarized image of the individual to be confirmed stored in advance in the storage unit matches. In this case, a first synthesized image obtained by synthesizing the first binarized image with a polygonal line vector image newly generated by the biological image generating unit is generated, and the second binarized image is also generated. Before A second synthesized image obtained by synthesizing the polygonal line vectorized image read from the storage unit is generated, and pattern matching processing is performed on the generated first and second synthesized images, so that the number of broken lines and the number of branch points in both images are one. If the positional relationship between black and white matches, a means for successful identity verification is provided.

本発明に係る認証システムによれば、撮影された生体の画像情報から折線ベクトル化画像と3値化画像を生成し、それぞれの画像単位で認証判定を行い、さらに認証対象画像を再合成し、その合成結果で判定処理を行うことにより、認証の高速化を図り、さらに複数の認証判定を行うことで認証精度を向上させることが可能になる。   According to the authentication system according to the present invention, a polygonal line vectorized image and a ternary image are generated from the captured biological image information, authentication determination is performed for each image unit, and the authentication target image is recombined. By performing the determination process based on the synthesis result, it is possible to speed up the authentication, and it is possible to improve the authentication accuracy by performing a plurality of authentication determinations.

以下、本発明に係る認証システムをノートPC等の起動時のOSへのログイン認証に適用した実施形態について説明する。
図1は、本発明に係る認証システムの第1の実施形態における全体構成を示す説明図である。
この実施形態における認証システムは、例えば一般的な情報処理装置等であるノートPC120の内部に、ノートPC120が起動する際にこのノートPC120を操作する登録者の指情報により本人確認を行う静脈認証装置100を備えている。
ここで、指情報とは、登録者の身体の指の腹側等の表面から撮像して取得した指の静脈の血管パターンを映した画像情報を含む情報である。
ノートPC120は、静脈認証装置100に対して信号や情報の送受信を行うI/F121と、各構成要素の動作を制御して各種の演算等の処理を行うCPU122と、CPU122が演算等の処理を行った結果等の情報を一時的に格納するメモリ123と、登録者の身体に基づいた指情報等の情報を登録し記憶するHDD124と、ノートPC120を操作する登録者が文字情報等の入力操作や選択操作を行うためのキーボード125と、CPU122が実行したプログラムの処理結果や情報やデータを画面表示する表示手段である液晶ディスプレイ126と、ノートPC120の動作中のエラー音等を出力するスピーカ127とを備えている。
Hereinafter, an embodiment in which an authentication system according to the present invention is applied to login authentication to an OS when a notebook PC or the like is activated will be described.
FIG. 1 is an explanatory diagram showing the overall configuration of the authentication system according to the first embodiment of the present invention.
The authentication system in this embodiment is a vein authentication device that performs identity verification based on finger information of a registrant who operates the notebook PC 120 when the notebook PC 120 is activated, for example, inside a notebook PC 120 that is a general information processing apparatus or the like. 100.
Here, the finger information is information including image information showing a blood vessel pattern of a finger vein acquired by imaging from a surface such as a ventral side of a finger of a registrant's body.
The notebook PC 120 includes an I / F 121 that transmits and receives signals and information to and from the vein authentication device 100, a CPU 122 that controls operations of each component and performs various operations, and the CPU 122 performs operations such as operations. A memory 123 that temporarily stores information such as results of the operation, an HDD 124 that registers and stores information such as finger information based on the registrant's body, and a registrant who operates the notebook PC 120 performs an input operation such as character information. And a keyboard 125 for performing a selection operation, a liquid crystal display 126 which is a display means for displaying a processing result, information and data of a program executed by the CPU 122, and a speaker 127 for outputting an error sound during operation of the notebook PC 120. And.

CPU122は、静脈認証装置100から送信された画像情報をメモリ123に一時的に格納して、画像情報から指情報を抽出、取得して暗号化する処理を行い、HDD124に記憶する機能を有する。
また、画像情報に基づいて輝度を算出し、この輝度に応じて静脈認証装置100内の後述する赤外線光源101が発光する赤外線の光量を調節するための処理を行う機能を有する。
The CPU 122 has a function of temporarily storing the image information transmitted from the vein authentication device 100 in the memory 123, extracting, acquiring, and encrypting finger information from the image information, and storing it in the HDD 124.
Further, it has a function of calculating luminance based on the image information and performing processing for adjusting the amount of infrared light emitted from an infrared light source 101 (to be described later) in the vein authentication apparatus 100 according to the luminance.

静脈認証装置100は、登録者の指105の認証を行うために、指105を所定の位置に置くための指置き台103と、指105に対して赤外線を照射する赤外線光源101と、赤外線光源101が赤外線を発光し照射することにより映し出された指105の静脈を撮像するカメラ102と、指置き台103に指105が置かれたことを検出するためのフォトセンサ104と、カメラ102が撮像した画像のアナログデータをデジタルデータに変換処理するA/D変換器106と、A/D変換器106が変換処理したデジタルデータを用いてデジタル情報の画像情報を生成する画像入力部107と、CPU122からI/F121を介して送信された発光制御信号に応じて赤外線光源101の動作の制御を行う発光制御部108とを備えている。   The vein authentication apparatus 100 includes a finger rest 103 for placing the finger 105 at a predetermined position, an infrared light source 101 for irradiating the finger 105 with infrared light, and an infrared light source for authenticating the registrant's finger 105. A camera 102 that captures the veins of the finger 105 projected by emitting and irradiating infrared light 101, a photosensor 104 for detecting that the finger 105 is placed on the finger rest 103, and the camera 102 captures an image A / D converter 106 that converts analog data of the processed image into digital data, an image input unit 107 that generates image information of digital information using the digital data converted by A / D converter 106, and CPU 122 And a light emission control unit 108 that controls the operation of the infrared light source 101 in accordance with the light emission control signal transmitted from the I / F 121 via the I / F 121. .

図6は、HDD124に記憶された指情報601を示す説明図である。
指情報601は、登録者の身体から取得した指情報等の情報として、登録者の1本目の指から取得した指情報と、1本目とは別の2本目の指から取得した指情報とが登録され記憶されるようになっている。
FIG. 6 is an explanatory diagram showing finger information 601 stored in the HDD 124.
The finger information 601 includes finger information obtained from the first finger of the registrant and finger information obtained from a second finger different from the first finger as information such as finger information obtained from the registrant's body. It is registered and memorized.

以下、本実施の形態における認証システムの動作について図面を用いて詳細に説明する。
まず、登録者の指の静脈の血管パターンを含む指情報を登録する処理について図4に示すフローチャートを用いて説明する。
ノートPC120を操作する登録者が、キーボード125を操作し、HDD124に記憶された静脈パターン登録プログラムを開始させると、CPU122は、ノートPC120のハードウェア全体の初期化や静脈パターン登録プログラムの実行に必要となる一時的な変数に初期値を代入する処理を行う(ステップ401)。
次に、CPU122は、初期化状態への移行が完了すると、何本目の指を登録するかを判定する処理を行う(ステップ402)。
最初に1本目の指を登録する場合には、「1本目の指登録操作」のメッセージを液晶ディスプレイ126に表示する処理を行い、静脈認証装置100の指置き台103に登録者の例えば人差し指等の1本目の指105を置くように促すための画面表示をする(ステップ403)。また、1本目の登録が終了しており2本目の指を登録する場合には、「2本目の指登録操作」のメッセージを液晶ディスプレイ126に表示する処理を行い、静脈認証装置の指置き台103に登録者の例えば中指等の2本目の指を置くように促すための画面表示をする(ステップ404)。
Hereinafter, the operation of the authentication system in the present embodiment will be described in detail with reference to the drawings.
First, a process of registering finger information including a blood vessel pattern of a registrant's finger vein will be described with reference to a flowchart shown in FIG.
When a registrant who operates the notebook PC 120 operates the keyboard 125 to start the vein pattern registration program stored in the HDD 124, the CPU 122 is necessary for initialization of the entire hardware of the notebook PC 120 and execution of the vein pattern registration program. A process of substituting an initial value for a temporary variable is performed (step 401).
Next, when the transition to the initialization state is completed, the CPU 122 performs a process of determining how many fingers are registered (step 402).
When first registering the first finger, a process of displaying the message “first finger registration operation” on the liquid crystal display 126 is performed, and the registrant's index finger or the like is displayed on the finger rest 103 of the vein authentication device 100. A screen is displayed to prompt the user to place the first finger 105 (step 403). In addition, when the first registration is completed and the second finger is registered, a process of displaying a message “second finger registration operation” on the liquid crystal display 126 is performed, and the finger placement table of the vein authentication device is displayed. A screen for prompting the user to place the second finger of the registrant, such as the middle finger, is displayed at 103 (step 404).

次に、CPU122は、静脈認証装置100をアイドリング状態とし、指置き台103に指が置かれたことに応じて発光量調節処理を行い、赤外線光源101の発光量を適切に調整し、指105の鮮明な静脈の血管パターン等を映した画像を撮像する(ステップ405)。ここで、発光量調節処理で異常が検出され発光量異常のメッセージを表示する処理が行われた場合には、処理を終了する。   Next, the CPU 122 sets the vein authentication device 100 in an idling state, performs a light emission amount adjustment process in response to the finger placed on the finger rest 103, appropriately adjusts the light emission amount of the infrared light source 101, and An image showing a clear vein blood vessel pattern is captured (step 405). Here, when an abnormality is detected in the light emission amount adjusting process and a process of displaying a light emission amount abnormality message is performed, the process ends.

次に、CPU122は、静脈の血管パターンを抽出する処理を行う(ステップ406)。発光量調節処理で取得した鮮明な静脈の血管パターン等を映した画像情報をメモリ123から読出し、この画像情報の画像のうち、血管パターンが映されていない部分を削除して静脈の血管パターン等を映した部分を指情報として抽出する処理を行う。   Next, the CPU 122 performs processing for extracting a vein blood vessel pattern (step 406). The image information showing the clear vein blood vessel pattern obtained by the light emission amount adjustment processing is read from the memory 123, and the portion of the image information image where the blood vessel pattern is not shown is deleted to obtain the vein blood vessel pattern, etc. The process which extracts the part which imaged as finger information is performed.

次に、CPU122は、指情報を暗号化する処理を行う(ステップ407)。例えば所定の暗号化プログラムに基づいた暗画化パターンにより、この抽出した指情報を暗号化する処理を行う。
次に、CPU122は、何本目の指の指情報の登録であるかを判定する処理を行う(ステップ408)。例えば指情報を登録する処理を何回行ったか判定することにより、この抽出した指情報が何本目の指から取得した指情報であるかを判定し、1本目である場合には、この抽出した指情報を1本目の指の静脈の血管パターンとして指情報601に登録し記憶する処理を行う(ステップ409)。
Next, the CPU 122 performs a process for encrypting the finger information (step 407). For example, the extracted finger information is encrypted using a darkening pattern based on a predetermined encryption program.
Next, the CPU 122 performs processing for determining what finger information of the finger is registered (step 408). For example, by determining how many times the processing for registering finger information has been performed, it is determined how many fingers the extracted finger information is obtained. The finger information is registered and stored in the finger information 601 as a blood vessel pattern of the first finger vein (step 409).

次に、CPU122は、液晶ディスプレイ126に登録者に指置き台103から指105を抜くように指示するメッセージを表示する処理を行う(ステップ411)。例えば、「指を抜いてください」のメッセージを液晶ディスプレイ126に表示する処理を行う。
次に、CPU122は、フォトセンサ104からスイッチオフ信号が送信されたか否かを判定する処理を行い(ステップ413)、スイッチオフ信号が送信された場合には(ステップ413のYES)、ステップ402以降の処理を繰り返し実行する。スイッチオフ信号が送信されていない場合には(ステップ413のNO)、送信されるまでステップ413の処理を繰り返し実行する。
ここで、ステップ408において、例えば指情報を登録する処理を何回行ったか判定することにより、この抽出した指情報が何本目の指から取得した指情報であるかを判定し、2本目である場合には、この抽出した指情報を2本目の指の静脈の血管パターンとして指情報601に登録し記憶する処理を行う(ステップ410)。
Next, the CPU 122 performs processing for displaying a message for instructing the registrant to remove the finger 105 from the finger rest 103 on the liquid crystal display 126 (step 411). For example, a process of displaying a message “Please remove your finger” on the liquid crystal display 126 is performed.
Next, the CPU 122 performs a process of determining whether or not a switch-off signal is transmitted from the photosensor 104 (step 413). When a switch-off signal is transmitted (YES in step 413), the process after step 402 is performed. Repeat the process. If the switch-off signal has not been transmitted (NO in step 413), the process of step 413 is repeatedly executed until it is transmitted.
Here, in step 408, for example, by determining how many times the process of registering the finger information has been performed, it is determined how many fingers the extracted finger information is acquired, and the second one. In this case, the extracted finger information is registered and stored in the finger information 601 as a blood vessel pattern of the second finger vein (step 410).

次に、CPU122は、液晶ディスプレイ126に登録者に登録処理が終了した旨を知らせるメッセージを表示する処理を行う(ステップ412)。例えば、「登録完了」のメッセージを液晶ディスプレイ126に表示する処理を行う。   Next, the CPU 122 performs a process of displaying a message notifying the registrant that the registration process is completed on the liquid crystal display 126 (step 412). For example, a process of displaying a “registration complete” message on the liquid crystal display 126 is performed.

続いて、上述のステップ405において実行する発光量調節処理について図5に示すフローチャートを用いて説明する。
まず、CPU122は、静脈認証装置100をアイドリング状態とし、初期値として所定の発光量で発光するための発光制御信号をI/F121を介して発光制御部108に送信する処理を行う(ステップ501)。
発光制御部108は、この発光制御信号を受信すると、所定の発光量で発光で赤外線光源101から赤外線を発光させる制御を行う。
Next, the light emission amount adjustment process executed in step 405 described above will be described with reference to the flowchart shown in FIG.
First, the CPU 122 sets the vein authentication device 100 in an idling state and performs a process of transmitting a light emission control signal for emitting light with a predetermined light emission amount as an initial value to the light emission control unit 108 via the I / F 121 (step 501). .
When receiving the light emission control signal, the light emission control unit 108 performs control to emit infrared light from the infrared light source 101 with light emission with a predetermined light emission amount.

次に、CPU122は、フォトセンサ104からスイッチオン信号が送信されたか否かを判定する処理を行う(ステップ502)。液晶ディスプレイ126に表示された「1本目の指登録操作」等のメッセージに従って、登録者が1本目等の指を指置き台103に置かれたことに応じて、フォトセンサ104がこれを検出し、スイッチオン信号をI/F121を介してCPU122に送信したか否かを判定する処理を行う。
スイッチオン信号が送信されていない場合には(ステップ502のNO)、送信されるまでステップ502の処理を繰り返し実行する。
Next, the CPU 122 performs a process of determining whether or not a switch-on signal is transmitted from the photosensor 104 (step 502). In accordance with a message such as “first finger registration operation” displayed on the liquid crystal display 126, the photo sensor 104 detects this in response to the registrant placing his / her first finger on the finger rest 103. Then, a process for determining whether or not a switch-on signal is transmitted to the CPU 122 via the I / F 121 is performed.
If the switch-on signal has not been transmitted (NO in step 502), the process of step 502 is repeatedly executed until it is transmitted.

次に、CPU122は、スイッチオン信号が送信された場合には(ステップ502のYES)、静脈の画像を撮影中であることを知らせるメッセージを表示する処理を行う(ステップ503)。例えば、「静脈撮影中」のメッセージを液晶ディスプレイ126に表示する処理を行う。
次に、CPU122は、指の静脈の血管パターン等を映した画像を撮像する処理を行う(ステップ504)。指置き台103に置かれた指105から、赤外線光源101から発光された赤外線が照射されることにより、映し出された静脈の画像を発光制御部108を介してカメラ102を動作させて撮像する処理を行う。そして、カメラ102により撮像された静脈の画像のアナログデータは、A/D変換器106によりデジタルデータに変換処理され、画像入力部107がこのデジタルデータを用いてデジタル情報の画像情報を生成し、I/F121を介してメモリ123に送信されて格納される。
Next, when a switch-on signal is transmitted (YES in step 502), the CPU 122 performs a process of displaying a message notifying that a vein image is being captured (step 503). For example, a process of displaying a message “in vein imaging” on the liquid crystal display 126 is performed.
Next, the CPU 122 performs a process of capturing an image showing a blood vessel pattern of a finger vein (step 504). Processing for imaging the image of a vein displayed by operating the camera 102 via the light emission control unit 108 by irradiating the infrared light emitted from the infrared light source 101 from the finger 105 placed on the finger placing base 103. I do. The analog data of the vein image captured by the camera 102 is converted into digital data by the A / D converter 106, and the image input unit 107 generates digital information image information using the digital data. The data is transmitted to the memory 123 via the I / F 121 and stored.

次に、CPU122は、画像情報の発光量の輝度を算出する処理を行う(ステップ505)。メモリ123から画像情報を読み出し、この画像情報から、図3に示したように、撮影領域302の中央部分304の輝度を算出する処理を行う。
次に、CPU122は、画像情報の発光量の輝度が予め設定された目標範囲内であるか否かを判定する処理を行う(ステップ506)。予めHDD124に設定され記憶された画像情報の輝度の目標範囲の上限値および下限値を読み出し、算出した発光量の輝度がこれらの上限値および下限値の範囲内に含まれているか否かを判定する処理を行う。
ここで、画像情報の輝度の目標範囲の上限値および下限値には、撮影領域303の中央部分304に映された静脈の血管パターンを把握できる様に鮮明に映されている際の輝度の上限値、下限値が設定されている。即ち、上限値および下限値の目標範囲内の輝度では、中央部分304に映された静脈の血管パターンの形状や模様等が鮮明に映し出されており、この静脈の血管パターンの画像情報を用いて照合の処理等が実行可能となっている。
Next, the CPU 122 performs a process of calculating the luminance of the light emission amount of the image information (step 505). Image information is read from the memory 123, and processing for calculating the luminance of the central portion 304 of the imaging region 302 is performed from the image information as shown in FIG.
Next, the CPU 122 performs a process of determining whether or not the luminance of the light emission amount of the image information is within a preset target range (step 506). The upper limit value and lower limit value of the target range of luminance of image information set and stored in advance in the HDD 124 are read, and it is determined whether or not the luminance of the calculated light emission amount is included in the range of these upper limit value and lower limit value. Perform the process.
Here, the upper limit value and the lower limit value of the target range of the luminance of the image information are the upper limit of the luminance when the image is clearly projected so that the vein blood vessel pattern displayed in the central portion 304 of the imaging region 303 can be grasped. Value and lower limit are set. That is, at the luminance within the target range of the upper limit value and the lower limit value, the shape and pattern of the vein blood vessel pattern displayed in the central portion 304 is clearly displayed, and the image information of the vein blood vessel pattern is used. Verification processing and the like can be executed.

次に、CPU122は、画像情報の発光量の輝度が予め設定された目標範囲内である場合には(ステップ506のYES)、赤外線光源101の発光を停止するための発光制御信号をI/F121を介して発光制御部108に送信する処理を行う(ステップ512)。また、発光制御部108は、この発光制御信号を受信すると赤外線光源101の発光を停止させる制御を行う。そして処理を終了する。
また、ここでCPU122は、画像情報の発光量の輝度が予め設定された目標範囲内でない場合には(ステップ506のNO)、目標範囲を超えているか否かを判定する処理を行う(ステップ507)。算出した発光量の輝度が、画像情報の輝度の目標範囲の上限値を超えているか、または、目標範囲の下限値より低いか否かを判定する処理を行う。
Next, when the luminance of the light emission amount of the image information is within a preset target range (YES in Step 506), the CPU 122 sends a light emission control signal for stopping the light emission of the infrared light source 101 to the I / F 121. The process of transmitting to the light emission control unit 108 is performed (step 512). Also, the light emission control unit 108 performs control to stop the light emission of the infrared light source 101 when receiving this light emission control signal. Then, the process ends.
Here, when the luminance of the light emission amount of the image information is not within the preset target range (NO in step 506), the CPU 122 performs a process of determining whether or not the target range is exceeded (step 507). ). Processing is performed to determine whether the calculated luminance of the emitted light amount exceeds the upper limit value of the target range of the luminance of the image information or is lower than the lower limit value of the target range.

次に、CPU122は、算出した発光量の輝度が目標範囲の上限値を超えている場合には(ステップ507のYES)、赤外線光源101の発光量を下げる処理を行う(ステップ508)。赤外線光源101で発光する赤外線の発光量として、初期値の発光量から、1ステップ減らした少ない発光量で発光するための発光制御信号をI/F121を介して発光制御部108に送信する処理を行う。   Next, when the luminance of the calculated light emission amount exceeds the upper limit value of the target range (YES in step 507), the CPU 122 performs a process of reducing the light emission amount of the infrared light source 101 (step 508). Processing for transmitting a light emission control signal for light emission with a small light emission amount reduced by one step from the initial light emission amount to the light emission control unit 108 via the I / F 121 as the infrared light emission amount emitted from the infrared light source 101. Do.

また、CPU122は、算出した発光量の輝度が目標範囲の下限値より低い場合には(ステップ507のNO)、赤外線光源101の発光量を上げる処理を行う(ステップ509)。赤外線光源101で発光する赤外線の発光量として、初期値の発光量から、1ステップ増やした多い発光量で発光するための発光制御信号をI/F121を介して発光制御部108に送信する処理を行う。
そして、発光制御部108は、この発光制御信号を受信すると、発光制御信号で指定した赤外線光源101での発光量が、赤外線光源101で発光できる赤外線の発光量の範囲内であるか否かを判定し(ステップ510)、赤外線光源101で発光できる範囲内である場合には(ステップ510のYES)、この発光制御信号で指定した発光量で赤外線光源101から赤外線を発光させる制御を行う。そして、ステップ504以降の処理を繰り返し実行する。
In addition, when the luminance of the calculated light emission amount is lower than the lower limit value of the target range (NO in step 507), the CPU 122 performs a process of increasing the light emission amount of the infrared light source 101 (step 509). Processing for transmitting a light emission control signal for light emission with a large light emission amount increased by one step from the initial light emission amount to the light emission control unit 108 via the I / F 121 as an infrared light emission amount emitted from the infrared light source 101. Do.
When the light emission control unit 108 receives this light emission control signal, it determines whether or not the light emission amount of the infrared light source 101 specified by the light emission control signal is within the range of the infrared light emission amount that can be emitted by the infrared light source 101. If it is determined (step 510) and the light emission is within the range that can be emitted by the infrared light source 101 (YES in step 510), the infrared light source 101 is controlled to emit infrared light with the light emission amount specified by the light emission control signal. Then, the processing after step 504 is repeatedly executed.

次に、CPU122は、赤外線光源101で発光できる範囲内でない場合には(ステップ510のNO)、発光量が異常であることを知らせるメッセージを表示する処理を行う(ステップ511)。
発光制御部108が発光制御信号で指定した赤外線光源101での発光量が、赤外線光源101で発光できる赤外線の発光量の範囲内でないと判定し、これに応じて発光量が異常である旨を通知する通知情報がI/F121を介してCPU122に送信したことに従って、CPU122は、例えば、「発光量異常」のメッセージを液晶ディスプレイ126に表示する処理を行う。
Next, when it is not within the range where the infrared light source 101 can emit light (NO in step 510), the CPU 122 performs a process of displaying a message notifying that the light emission amount is abnormal (step 511).
The light emission control unit 108 determines that the light emission amount of the infrared light source 101 specified by the light emission control signal is not within the range of the infrared light emission amount that can be emitted by the infrared light source 101, and accordingly, the light emission amount is abnormal. In response to the notification information to be notified being transmitted to the CPU 122 via the I / F 121, the CPU 122 performs a process of displaying a message “abnormal emission amount” on the liquid crystal display 126, for example.

次に、CPU122は、赤外線光源101の発光を停止するための発光制御信号をI/F121を介して発光制御部108に送信する処理を行う(ステップ513)。発光制御部108は、この発光制御信号を受信すると赤外線光源101の発光を停止させる制御を行う。そして処理を終了する。   Next, the CPU 122 performs a process of transmitting a light emission control signal for stopping the light emission of the infrared light source 101 to the light emission control unit 108 via the I / F 121 (step 513). When receiving the light emission control signal, the light emission control unit 108 performs control to stop the light emission of the infrared light source 101. Then, the process ends.

続いて、ノートPC120を起動させる際に、指情報により本人認証を行う処理について、図7に示すフローチャートを用いて説明する。
ノートPC120を操作する登録者が、ノートPC120の電源を投入することにより起動させると、CPU122は、ノートPC120のハードウェア全体の初期化や静脈パターン照合プログラムの実行に必要となる一時的な変数に初期値を代入する処理を行う(ステップ701)。
Next, a process of performing personal authentication using finger information when the notebook PC 120 is activated will be described with reference to a flowchart shown in FIG.
When a registrant who operates the notebook PC 120 is activated by turning on the notebook PC 120, the CPU 122 sets temporary variables necessary for initialization of the entire hardware of the notebook PC 120 and execution of the vein pattern matching program. A process for substituting an initial value is performed (step 701).

次に、CPU122は、初期化状態への移行が完了すると、何本目の指の照合を行うかを判定する処理を行う(ステップ702)。最初に1本目の指の照合を行う場合には、「1本目の指照合操作」のメッセージを液晶ディスプレイ126に表示する処理を行い、静脈認証装置100の指置き台103に登録者の例えば人差し指等の1本目の指105を置くように促すための画面表示をする(ステップ703)。
また、1本目の照合が終了しており2本目の指の照合を行う場合には、「2本目の指照合操作」のメッセージを液晶ディスプレイ126に表示する処理を行い、静脈認証装置の指置き台103に登録者の例えば中指等の2本目の指を置くように促すための画面表示をする(ステップ704)。
Next, when the transition to the initialization state is completed, the CPU 122 performs a process of determining how many fingers are to be compared (step 702). When collating the first finger for the first time, a process of displaying the message “first finger collating operation” on the liquid crystal display 126 is performed, and the registrant's index finger, for example, is displayed on the finger rest 103 of the vein authentication device 100. A screen is displayed to prompt the user to place the first finger 105 such as (step 703).
When the first verification is completed and the second finger is verified, a message of “second finger verification operation” is displayed on the liquid crystal display 126, and the finger placement of the vein authentication device is performed. A screen is displayed to urge the registrant to place a second finger such as the middle finger of the registrant (step 704).

次に、CPU122は、静脈認証装置100をアイドリング状態とし、指置き台103に指が置かれたことに応じて、上述のステップ505と同様の発光量調節処理を行い、赤外線光源101の発光量を適切に調整し、指の鮮明な静脈の血管パターン等を映した画像を撮像する(ステップ705)。ここで、発光量調節処理で異常が検出され発光量異常のメッセージを表示する処理が行われた場合には、ステップ702以降の処理を繰り返し実行する。   Next, the CPU 122 sets the vein authentication device 100 in an idling state, performs light emission amount adjustment processing similar to the above-described step 505 in response to the finger placed on the finger rest 103, and the light emission amount of the infrared light source 101 Is appropriately adjusted, and an image showing a blood vessel pattern of a clear vein of a finger is captured (step 705). Here, when abnormality is detected in the light emission amount adjustment processing and processing for displaying a light emission amount abnormality message is performed, the processing from step 702 onward is repeatedly executed.

次に、CPU122は、静脈の血管パターンを抽出する処理を行う(ステップ706)。発光量調節処理で取得した鮮明な静脈の血管パターン等を映した画像情報をメモリ123から読出し、この画像情報の画像のうち、血管パターンが映されていない部分を削除して静脈の血管パターン等を映した部分を指情報として抽出する処理を行う。
次に、CPU122は、何本目の指の指情報の照合であるかを判定する処理を行う(ステップ707)。例えば指情報を照合する処理を何回行ったか判定することにより、この抽出した指情報が何本目の指から取得した指情報であるかを判定する。
Next, the CPU 122 performs processing for extracting a vein blood vessel pattern (step 706). The image information showing the clear vein blood vessel pattern obtained by the light emission amount adjustment processing is read from the memory 123, and the portion of the image information image where the blood vessel pattern is not shown is deleted to obtain the vein blood vessel pattern, etc. The process which extracts the part which imaged as finger information is performed.
Next, the CPU 122 performs processing for determining what finger information of the finger is to be collated (step 707). For example, by determining how many times the process of collating finger information is performed, it is determined how many fingers the extracted finger information is obtained.

次に、CPU122は、この抽出した指情報が1本目の指から取得した指情報である場合には、指情報601に登録された1本目の指の指情報を読み出す処理を行う(ステップ708)。HDD124内を検索して指情報601に登録された1本目の指の指情報を読み出し、この読み出した1本目の指の指情報の暗号化を解凍(復号)する処理を行う。
またここで、CPU122は、この抽出した指情報が2本目の指から取得した指情報である場合には、指情報601に登録された2本目の指の指情報を読み出す処理を行う(ステップ709)。HDD124内を検索して指情報601に登録された2本目の指の指情報を読み出し、この読み出した2本目の指の指情報の暗号化を解凍する処理を行う。
Next, when the extracted finger information is the finger information acquired from the first finger, the CPU 122 performs processing for reading the finger information of the first finger registered in the finger information 601 (step 708). . The HDD 124 searches the finger information of the first finger registered in the finger information 601 by searching the HDD 124, and performs a process of decompressing (decrypting) the encryption of the read finger information of the first finger.
Further, here, when the extracted finger information is finger information acquired from the second finger, the CPU 122 performs a process of reading the finger information of the second finger registered in the finger information 601 (step 709). ). The HDD 124 searches the finger information of the second finger registered in the finger information 601 by searching the HDD 124, and performs a process of decompressing the read finger information of the second finger.

次に、CPU122は、抽出した指情報と登録された指情報とが一致するか否かを比較・照合する処理を行う(ステップ710)。抽出した指情報と、読み出した指情報とを、例えば指情報に含まれる静脈の血管パターンの形状や模様等が一致するか否かを比較・照合する処理を行う。
次に、CPU122は、抽出した指情報と登録された指情報とが一致する場合には(ステップ710のYES)、液晶ディスプレイ126に登録者に指105を抜くように指示するメッセージを表示する処理を行う(ステップ711)。例えば、「指を抜いてください」のメッセージを液晶ディスプレイ126に表示する処理を行う。
次に、CPU122は、フォトセンサ104からスイッチオフ信号が送信されたか否かを判定する処理を行い(ステップ713)、スイッチオフ信号が送信されていない場合には(ステップ713のNO)、送信されるまでステップ713の処理を繰り返し実行する。
Next, the CPU 122 performs a process of comparing / collating whether or not the extracted finger information matches the registered finger information (step 710). For example, the extracted finger information and the read finger information are subjected to a process of comparing and collating whether or not the shape or pattern of the vein blood vessel pattern included in the finger information matches.
Next, when the extracted finger information matches the registered finger information (YES in step 710), the CPU 122 displays a message for instructing the registrant to remove the finger 105 on the liquid crystal display 126. (Step 711). For example, a process of displaying a message “Please remove your finger” on the liquid crystal display 126 is performed.
Next, the CPU 122 performs processing for determining whether or not a switch-off signal is transmitted from the photosensor 104 (step 713). If the switch-off signal is not transmitted (NO in step 713), the CPU 122 transmits the switch-off signal. Step 713 is repeatedly executed until

次に、CPU122は、スイッチオフ信号が送信された場合には(ステップ713のYES)、2本目の指情報の照合が完了したか否かを登録であるかを判定する処理を行う(ステップ715)。
ステップ710において、1本目、2本目の指の両方共に、抽出した指情報と登録された指情報とが一致すると判定しているか否かを判定する処理を行う。1本目、2本目の指の両方共に、一致すると判定していない場合には(ステップ715のNO)、ステップ702以降の処理を繰り返し実行する。
Next, when a switch-off signal is transmitted (YES in step 713), the CPU 122 performs a process of determining whether or not the second finger information collation is completed (step 715). ).
In step 710, a process is performed to determine whether or not it is determined that the extracted finger information matches the registered finger information for both the first and second fingers. If it is not determined that both the first and second fingers match (NO in step 715), the processes in and after step 702 are repeatedly executed.

次に、CPU122は、1本目、2本目の指の両方共に、一致すると判定している場合には(ステップ715のYES)、液晶ディスプレイ126に登録者に認証が終了した旨を通知するメッセージを表示する処理を行う(ステップ716)。例えば、「認証しました」のメッセージを液晶ディスプレイ126に表示する処理を行う。そして、処理を終了する。
また、ステップ709において、抽出した指情報と登録された指情報とが一致しない場合には(ステップ710のNO)、CPU122は、液晶ディスプレイ126に登録者に不一致である旨を通知するメッセージを表示する処理を行う(ステップ712)。例えば、「不一致」のメッセージを液晶ディスプレイ126に表示する処理を行う。
Next, when it is determined that both the first finger and the second finger match (YES in step 715), the CPU 122 displays a message notifying the registrant that the authentication has been completed on the liquid crystal display 126. A display process is performed (step 716). For example, a process of displaying a message “authenticated” on the liquid crystal display 126 is performed. Then, the process ends.
If the extracted finger information and the registered finger information do not match at step 709 (NO at step 710), the CPU 122 displays a message notifying the registrant of the mismatch on the liquid crystal display 126. (Step 712). For example, a process of displaying a “mismatch” message on the liquid crystal display 126 is performed.

次に、CPU122は、フォトセンサ104からスイッチオフ信号が送信されたか否かを判定する処理を行い(ステップ714)、スイッチオフ信号が送信されていない場合には(ステップ714のNO)、送信されるまでステップ714の処理を繰り返し実行する。また、CPU122は、スイッチオフ信号が送信された場合には(ステップ714のYES)、ステップ702以降の処理を繰り返し実行する。   Next, the CPU 122 performs processing for determining whether or not a switch-off signal is transmitted from the photosensor 104 (step 714). If the switch-off signal is not transmitted (NO in step 714), the CPU 122 transmits the switch-off signal. Step 714 is repeatedly executed until In addition, when a switch-off signal is transmitted (YES in step 714), the CPU 122 repeatedly executes the processing after step 702.

次に図8、9を用いて、図10の指静脈画像の折線ベクトル化処理による認証アルゴリズムについて説明する。
図8は、折線化処理の全体的な流れを示す図である。
認証対象とする指に対して指静脈認証装置を用いて指画像801を撮影し、静脈画像データ802を抽出する処理を行う。
画像データ802は指静脈の撮影結果を簡易的に示したものである。
図9は曲線を折線化した例を示す図である。
曲線902や、曲線904は線分近似を用いて折線化処理を行い、折線903、904を生成する。線分近似は周知技術であるため、ここでの説明は割愛する。
図8の803は曲線である静脈画像データ802を折線化処理した結果示している。
折線化処理を行った血管に対して、追跡始点を指定し、線分の自動追跡処理を行い、折線、分岐の位置と数を確認する。線分の自動追跡を行う場合、分岐位置は複数の線分に分かれている箇所を抽出すればよいが、折線の位置を判定する場合は、各線分に角部点があるかどうか確認することで折線の頂点を抽出することで折線部分の個数を把握することができる。
Next, with reference to FIGS. 8 and 9, an authentication algorithm based on the broken line vectorization processing of the finger vein image in FIG. 10 will be described.
FIG. 8 is a diagram showing the overall flow of the polygonalization process.
A finger image 801 is photographed using a finger vein authentication device for a finger to be authenticated, and processing for extracting vein image data 802 is performed.
The image data 802 simply shows the finger vein imaging result.
FIG. 9 is a diagram showing an example in which a curve is bent.
The curved line 902 and the curved line 904 are subjected to broken line processing using line segment approximation to generate bent lines 903 and 904. Since line segment approximation is a well-known technique, description thereof is omitted here.
Reference numeral 803 in FIG. 8 indicates a result obtained by performing a polygonal process on the vein image data 802 that is a curve.
A tracking start point is designated for a blood vessel that has been subjected to a broken line process, an automatic line segment tracking process is performed, and the position and number of broken lines and branches are confirmed. When performing automatic tracking of line segments, it is only necessary to extract a branching point that is divided into multiple line segments, but when determining the position of a broken line, make sure that each line segment has a corner point. The number of broken line portions can be grasped by extracting the vertexes of the broken line.

図10は指静脈画像の折線ベクトル化処理を用いた認証アルゴリズを説明するフローである。
赤外線透過光による撮影データから、静脈の血管部分を抽出する(ステップ1001)子抽出方法としては追跡始点をもうけて、線分の自動追跡が終了するまで繰り返す。
次に抽出した静脈血管データに対して折線化処理を施し、曲線を折線ベクトル化する(ステップ1002)。
次に、折線化された血管画像の折線部、分岐点を抽出する(ステップ1003)、折線部、分岐点の抽出には折線化処理を行った血管に対して、追跡始点を指定し、線分の自動追跡処理を行い、折線、分岐の位置と数を確認する。線分の自動追跡を行う場合、分岐位置は複数の線分に分かれている箇所を抽出すればよいが、折線の位置を判定する場合は、各線分に角部点があるかどうか確認することで折線の頂点を抽出する。
FIG. 10 is a flowchart for explaining an authentication algorithm using a broken line vectorization process of a finger vein image.
The vein blood vessel portion is extracted from the imaging data obtained by infrared transmitted light (step 1001). The child extraction method is repeated until a tracking start point is established and the automatic tracking of the line segment is completed.
Next, the extracted venous blood vessel data is subjected to a polygonalization process to convert the curve into a polygonal line vector (step 1002).
Next, a broken line part and a branching point of the broken blood vessel image are extracted (step 1003). For the extraction of the broken line part and the branching point, a tracking start point is designated for the blood vessel subjected to the bending process, Minute tracking is performed, and the position and number of broken lines and branches are confirmed. When performing automatic tracking of line segments, it is only necessary to extract a branching point that is divided into multiple line segments, but when determining the position of a broken line, make sure that each line segment has a corner point. To extract the vertices of the broken line.

別途、登録してある、認証の基本パターンとなる画像に対してもステップ1001〜ステップ1003までの処理を施し、折線部と分岐点の数を抽出しておく。
次に認証の基本パターンと、認証しようとする静脈パターンの折線部、分岐点の数を比較する(ステップ1004)
Separately, the processing from step 1001 to step 1003 is also performed on an image that is a registered basic pattern for authentication, and the number of broken line portions and branch points is extracted.
Next, the basic pattern of authentication is compared with the number of broken lines and branch points of the vein pattern to be authenticated (step 1004).

折線部、分岐点の数が一致する場合(ステップ1005)は、次の処理に移行する(ステップ1006)。折線部、分岐点の数が一致しない場合には(ステップ1007)、認証失敗として認証処理を終了する(ステップ1008)。   When the number of broken line portions and the number of branch points coincide (step 1005), the process proceeds to the next process (step 1006). If the number of broken lines and the number of branch points do not match (step 1007), the authentication process is terminated as an authentication failure (step 1008).

次に図11を用いて、図12の指静脈画像の3値化処理による認証アルゴリズムについて説明する。
図11は撮影された静脈画像データに対して3値化処理を行った図である。
撮影された指静脈画像データは、一見すると濃淡画像であり、この画像から静脈の位置を判定することは難しい。そのため、濃淡画像から3値画像を得るための処理を施す。
ここで3値化画像としているのは、赤外線透過光で撮影された画像はエッジの凹凸が判りにくく、黒白の濃淡だけではっきりさせることが難しいため、黒、白、灰の3つの色値を持つ領域に分ける。
3値化画像データ1101は3値化処理を施した図である。3値化によって、黒、白、灰色のそれぞれの色値領域に分けた後、灰色の部分を削除した図が3値化画像データ1102である。
灰色の部分を削除する理由として、領域の区分が明確でなく血管のエッジ部分がわかりにくいためである。
Next, an authentication algorithm based on the ternary processing of the finger vein image in FIG. 12 will be described with reference to FIG.
FIG. 11 is a diagram in which ternary processing is performed on captured vein image data.
The captured finger vein image data is a grayscale image at first glance, and it is difficult to determine the position of the vein from this image. Therefore, a process for obtaining a ternary image from the grayscale image is performed.
The three-valued image here is an image photographed with infrared transmitted light, since the unevenness of the edge is difficult to understand, and it is difficult to clarify only with the shades of black and white, so three color values of black, white, and gray are used. Divide into areas that you have.
The ternary image data 1101 is a diagram that has been subjected to ternary processing. A figure obtained by dividing the color value areas into black, white, and gray by ternarization and then deleting the gray part is ternary image data 1102.
The reason for deleting the gray portion is that the region segmentation is not clear and the edge portion of the blood vessel is difficult to understand.

図12は指静脈画像の3値化処理を用いた認証アルゴリズを説明するフローである。
赤外線透過光による撮影データから、静脈の血管部分以外を抽出する(ステップ1201)
ここの抽出方法としては図10で血管画像を抽出した際、その抽出部分だけを反転する、もしくは血管部に色をいれて、エッジ部分を際ださせてから除外する、クロマキー処理を用いてもかまわない。
抽出した画像に対して、3値化処理を施す(ステップ1202)。
濃度ヒストグラムに基づく方法、画像の局所性質を生かし,この性質を利用する方法、画像をいくつかに分割し,各領域毎に設定する方法など、すでに知られている技術があるので、いずれかを用いる。
FIG. 12 is a flowchart for explaining an authentication algorithm using a finger vein image ternary process.
A part other than the blood vessel portion of the vein is extracted from the photographing data by the infrared transmitted light (step 1201).
As an extraction method here, when extracting a blood vessel image in FIG. 10, chroma key processing may be used in which only the extracted portion is inverted, or a color is added to the blood vessel portion and the edge portion is excluded and then excluded. It doesn't matter.
A ternary process is performed on the extracted image (step 1202).
There are already known technologies such as a method based on density histogram, a method that uses the local property of an image, a method that uses this property, and a method that divides an image into several parts and sets each region. Use.

本件においては、ある閾値

で2値化したとき,対象を背景と誤る誤り率を最小にする最小誤差法を用いるのが良いと思われるが、濃度ヒストグラム法のなかでP-タイル法,モード法,判別分析法のいずれを用いてもかまわない。
3値処理によって、黒、白、灰色の3値に分かれた画像から、灰色の領域を削除する(ステップ1203)。この削除を行う場合、静脈画像データを複数領域(マトリックス状8*8、16*16)に分割しておいてもかまわない。
また、黒、白、灰の3値に分けた段階で、それぞれの色値の最も高い画素を中心として、一定の閾値内に存在する画素を領域単位に分けて、黒、白、灰色のそれぞれの領域に分けてもかまわない。
In this case, a certain threshold

It is better to use the minimum error method that minimizes the error rate when the target is mistaken for the background, but any of the P-tile method, mode method, and discriminant analysis method in the density histogram method May be used.
The gray area is deleted from the image divided into three values of black, white, and gray by the ternary processing (step 1203). When this deletion is performed, the vein image data may be divided into a plurality of regions (matrix-like 8 * 8, 16 * 16).
Also, at the stage of dividing into three values of black, white, and gray, the pixels existing within a certain threshold are divided into area units around the pixel having the highest color value, and each of black, white, and gray It may be divided into areas.

次に、別途、登録してある、認証の基本パターンとなる画像に対してもステップ1701〜ステップ1703までの処理を施し、黒、白の2値に分かれた領域を持つ画像処理を行っておく。   Next, the processing from Step 1701 to Step 1703 is also performed on the separately registered image that is the basic pattern of authentication, and image processing having an area divided into black and white is performed. .

次に認証の基本パターンと、認証しようとする静脈パターンの黒領域、白領域の数と位置を比較する(ステップ1204)。
比較の結果、数、位置関係が一致する場合(ステップ1205)は次の処理に移行する(ステップ1206)。
数、位置関係が1つでも一致しない場合には(ステップ1207)、認証失敗として認証処理を終了する(ステップ1208)。
Next, the basic pattern of authentication is compared with the number and position of the black and white areas of the vein pattern to be authenticated (step 1204).
As a result of the comparison, if the number and the positional relationship match (step 1205), the process proceeds to the next process (step 1206).
If even the number and the positional relationship do not match (step 1207), the authentication process is terminated as an authentication failure (step 1208).

次に図10、16でそれぞれ認証が成功した結果をうけて、折線化処理後の画像データと3値化処理後の画像データを再合成して、認証を行う認証アルゴリズムについて図13、図14を用いて図15のフローチャートを説明する。
図13の画像データ1301は図10で示す折線化処理を用いた折線部、分岐点を抽出したデータである。
画像データ1302は図12で示す3値化処理を施し、さらに灰色の部分を除外した画像データである。
Next, the authentication algorithms for performing authentication by receiving the results of successful authentication in FIGS. 10 and 16 and recombining the image data after the polygonalization processing and the image data after the ternary processing will be described with reference to FIGS. 15 will be used to explain the flowchart of FIG.
Image data 1301 in FIG. 13 is data obtained by extracting a broken line portion and a branch point using the broken line processing shown in FIG.
Image data 1302 is image data that has been subjected to the ternarization processing shown in FIG.

図14はデータ1301とデータ1302を再合成した結果を示す図である。
図15は折線ベクトル化した画像データと、2値化(実際には3値化)画像を再合成して、認証に用いるアルゴリズムを説明するフローチャートである。
まず、図13で示される画像データ1301と画像データ1302を再合成を行う(ステップ1501)。再合成する場合の、それぞれの合成の基準となる位置は血管の線分追跡を行う際に指定した、追跡始点の座標を折線化処理、3値化処理のいずれのデータにも設定しておき、その設定された座標を用いて再合成する場合の基準点とする。
次に図10で算出した折線化データの折線部、分岐点が図12で算出した2値化画像の黒、白のどの領域にあるのかを算出する(ステップ1502)。
ここでの算出は黒、白の2値の領域内に折線部、分岐点があるかないかによって判定させる。また、黒、白の2値の領域内に、座標を設定し、さらに予め折線部、分岐点の位置にも座標を設定し、領域内の座標(4点の座標)に折線部、分岐点の座標(1点の座標)が存在するかどうかを確認する手法を用いてもかまわない。
FIG. 14 is a diagram showing the result of recombining data 1301 and data 1302.
FIG. 15 is a flowchart for explaining an algorithm used for authentication by recombining image data converted into a polygonal line vector and a binarized (actually ternary) image.
First, the image data 1301 and the image data 1302 shown in FIG. 13 are recombined (step 1501). When re-synthesizing, the position that is the reference for each synthesis is set to the data of the polygonalization process and the ternarization process with the coordinates of the tracking start point specified when tracking the line segment of the blood vessel. A reference point for re-synthesis using the set coordinates.
Next, it is calculated whether the broken line portion and branch point of the broken line data calculated in FIG. 10 are in the black or white region of the binarized image calculated in FIG. 12 (step 1502).
Here, the calculation is made based on whether or not there is a broken line portion or a branch point in the binary region of black and white. Also, coordinates are set in the binary area of black and white, and coordinates are also set in advance at the positions of the broken line part and branch point, and the broken line part and branch point are set to the coordinates in the area (four coordinate points). It is also possible to use a method for confirming whether or not there is a coordinate (coordinate of one point).

次に別途、登録してある、認証の基本パターンとなる画像に対してもステップ1501〜ステップ1503までの処理を施し、図10の折線化データの折線部、分岐点が図12で算出した2値化画像の黒、白のどの領域にあるのかを算出しておく。
次に認証の基本パターンと、認証しようとする折線部、分岐点が2値化された黒、白の領域内にあるかどうかを比較する(ステップ1504)。
領域内に折線部、分岐点が一致する場合(ステップ1505)は認証が成功したとして認証処理を終了し、認証許可とする(ステップ1506)。領域内に折線部、分岐点が一致しない場合には(ステップ1507)、認証失敗として認証処理を終了する(ステップ1508)。
ただし、図15の処理を行わず、図10、図12の認証処理がいずれか、もしくは両方が認証の確認が取れた段階で認証確認としてもかまわない。
Next, the processing from step 1501 to step 1503 is also performed for the image that is separately registered and used as the basic pattern for authentication, and the broken line portion and branch point of the broken line data in FIG. 10 are calculated in FIG. It is calculated which area is black or white of the digitized image.
Next, the basic pattern of authentication is compared with whether or not the broken line portion to be authenticated and the branch point are within the binarized black and white areas (step 1504).
If the broken line portion and the branch point coincide with each other in the region (step 1505), the authentication process is terminated as authentication is successful, and authentication is permitted (step 1506). If the broken line part and the branch point do not match in the area (step 1507), the authentication process is terminated as an authentication failure (step 1508).
However, the processing shown in FIG. 15 is not performed, and the authentication processing shown in FIG. 10 and FIG.

上記の説明から明らかなように、本実施形態においては、生体画像の折線ベクトル化画像と3値化画像を生成し、本人確認を行うに際しては、記憶手段に予め記憶しておいた確認対象の個人の折線ベクトル化画像における折線数、分岐点数と、新たに撮影した個人の折線ベクトル化画像における折線数、分岐点数を比較し、不一致であった場合には認証失敗とし、一致していた場合にのみ3値化画像の比較処理に進み、3値化画像における黒、白の位置が一致した場合には、折線ベクトル化画像と3値化画像とを合成した画像による比較処理を行うため、確認対象が別人であるかどうかを折線ベクトル化画像の比較結果のみで判定することができ、認証結果を高速で出力することができる。
また、確認対象が本人であった場合には、折線ベクトル化画像と3値化画像とを合成した画像によって判定することになるため、認証精度が高くなるという効果がある。
As is clear from the above description, in this embodiment, a polygonal line vectorized image and a ternary image of a biological image are generated, and when the identity verification is performed, the confirmation target stored in the storage unit in advance is stored. When the number of fold lines and the number of branch points in a personal fold line vectorized image are compared with the number of fold lines and the number of branch points in a newly photographed individual fold line vectorized image, if they do not match, authentication fails and they match. When the black and white positions in the ternary image coincide with each other, the comparison process is performed using an image obtained by combining the polygonal line vectorized image and the ternary image. Whether or not the confirmation target is another person can be determined only by the comparison result of the polygonal line vectorized image, and the authentication result can be output at high speed.
Further, when the subject of confirmation is the person himself / herself, the determination is made based on an image obtained by synthesizing the polygonal line vectorized image and the ternary image.

本発明に係る認証システムの実施の形態を示すシステム構成図である。It is a system configuration figure showing an embodiment of an authentication system concerning the present invention. 静脈認証装置の構成を示す説明図である。It is explanatory drawing which shows the structure of a vein authentication apparatus. 静脈認証装置で撮影した指の画像の例を示す図である。It is a figure which shows the example of the image of the finger | toe image | photographed with the vein authentication apparatus. 実施形態の認証システムにおいて指情報を登録する処理を示すフローチャートである。It is a flowchart which shows the process which registers finger information in the authentication system of embodiment. 実施形態の認証システムにおいて発光量調節処理を示すフローチャートである。It is a flowchart which shows the light emission amount adjustment process in the authentication system of embodiment. 実施形態において記憶手段に登録された指情報の例を示す説明図である。It is explanatory drawing which shows the example of the finger information registered into the memory | storage means in embodiment. 実施形態において生体情報により本人確認を行う処理を示すフローチャートである。It is a flowchart which shows the process which performs identity verification by biometric information in embodiment. 実施形態において折線化処理の説明図である。It is explanatory drawing of a broken line process in embodiment. 曲線の折線化の例を示す説明図である。It is explanatory drawing which shows the example of curve-folding of a curve. 指静脈血管画像の折線化ベクトル画像の比較処理を示すフローチャートである。It is a flowchart which shows the comparison process of the polygonalization vector image of a finger vein blood vessel image. 指静脈血管画像の3値化処理を示す説明図である。It is explanatory drawing which shows the ternarization process of a finger vein blood vessel image. 指静脈血管画像の3値化画像の比較処理を示すフローチャートである。It is a flowchart which shows the comparison process of the ternary image of a finger vein blood vessel image. 合成対象の折線化ベクトル画像と2値化画像の例を示す図である。It is a figure which shows the example of the polygonalization vector image and binarization image of a synthetic | combination object. 折線化ベクトル画像と2値化画像の合成例を示す図である。It is a figure which shows the example of a synthesis | combination of a polygonalization vector image and a binarization image. 折線化ベクトル画像と2値化画像の合成画像による比較処理を示すフローチャートである。It is a flowchart which shows the comparison process by the synthesized image of a polygonalization vector image and a binarized image.

符号の説明Explanation of symbols

100 静脈認証装置
101 赤外線光源
102 カメラ
103 指置き台
104 フォトセンサ
105 指
106 A/D変換器
107 画像入力部
108 発光制御部
120 ノートPC
121 I/F
122 CPU
123 メモリ
124 HDD
125 キーボード
126 液晶ディスプレイ
127 スピーカ
DESCRIPTION OF SYMBOLS 100 Vein authentication apparatus 101 Infrared light source 102 Camera 103 Finger rest 104 Photo sensor 105 Finger 106 A / D converter 107 Image input part 108 Light emission control part 120 Notebook PC
121 I / F
122 CPU
123 Memory 124 HDD
125 Keyboard 126 Liquid crystal display 127 Speaker

Claims (3)

人間の指の静脈に関する生体情報を用いて本人確認を行う認証システムであって、
前記生体情報を含む画像情報を取得する撮像手段と、
取得した画像情報に対して複数の画像処理を加えて、1つ以上の生体画像情報を生成する生体画像情報生成手段と、
生成された前記生体画像情報に基づいて前記本人確認を行う認証処理手段を備えること
を特徴とする認証システム。
An authentication system that performs identity verification using biometric information related to a human finger vein,
Imaging means for acquiring image information including the biological information;
Biological image information generation means for adding a plurality of image processes to the acquired image information to generate one or more pieces of biological image information;
An authentication system comprising authentication processing means for performing identity verification based on the generated biometric image information.
前記生体画像生成手段が前記撮像手段によって取得した画像情報を折線ベクトル化する手段と3値化する手段とを備え、
前記認証処理手段が、折線ベクトル化画像と3値化画像とに基づき本人確認を行うことを特徴とする請求項1に記載の認証システム。
The biological image generation means includes means for converting the image information acquired by the imaging means into a polygonal line vector and means for ternarization;
The authentication system according to claim 1, wherein the authentication processing unit performs identity verification based on a polygonal line vectorized image and a ternary image.
前記認証処理手段が、前記撮像手段によって新たに撮影し、かつ前記生体画像生成手段によって新たに生成した折線ベクトル化画像における折線数及び分岐点数と、記憶手段に予め記憶した確認対象の個人の折線ベクトル化画像における折線数及び分岐点数とが一致するか否かを判定し、一致していた場合には、前記生体画像生成手段によって新たに生成した3値化画像から灰色部分を除いた第1の2値化画像を生成し、記憶手段に予め記憶した確認対象の個人の第2の2値化画像における黒、白の位置関係が一致するか否かを判定し、一致していた場合には前記第1の2値化画像に対して前記生体画像生成手段によって新たに生成した折線ベクトル画像とを合成した第1の合成画像を生成すると共に、前記第2の2値化画像に対し前記記憶手段から読み出した折線ベクトル化画像とを合成した第2の合成画像を生成し、これら生成した第1、第2の合成画像のパターンマッチング処理を行い、両画像における折線数、分岐点数が一致し、かつ黒、白の位置関係が一致していた場合に本人確認成功とする手段を備えることを特徴とする請求項2に記載の認証システム。   The authentication processing means captures the number of fold lines and the number of branch points in the polygonal line vectorized image newly captured by the imaging means and newly generated by the biological image generation means, and the individual folding line of the confirmation target stored in the storage means in advance. It is determined whether or not the number of broken lines and the number of branch points in the vectorized image match. If they match, the first is obtained by removing the gray portion from the ternary image newly generated by the biological image generating means. Is generated, and it is determined whether or not the positional relationship between black and white in the second binarized image of the individual to be confirmed stored in advance in the storage means matches. Generates a first synthesized image obtained by synthesizing the first binarized image with a polygonal line vector image newly generated by the biological image generating means, and also generates the first binarized image with respect to the second binarized image. Memory A second combined image is generated by combining the broken line vectorized image read from the stage, and pattern matching processing is performed on the generated first and second combined images so that the number of broken lines and the number of branch points in both images match. 3. The authentication system according to claim 2, further comprising means for confirming the identity when the positional relationship between black and white matches. 4.
JP2007033580A 2007-02-14 2007-02-14 Authentication system Expired - Fee Related JP4900701B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007033580A JP4900701B2 (en) 2007-02-14 2007-02-14 Authentication system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007033580A JP4900701B2 (en) 2007-02-14 2007-02-14 Authentication system

Publications (2)

Publication Number Publication Date
JP2008197987A true JP2008197987A (en) 2008-08-28
JP4900701B2 JP4900701B2 (en) 2012-03-21

Family

ID=39756860

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007033580A Expired - Fee Related JP4900701B2 (en) 2007-02-14 2007-02-14 Authentication system

Country Status (1)

Country Link
JP (1) JP4900701B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012210384A (en) * 2011-03-31 2012-11-01 Hitachi Solutions Ltd Living body authentication system that detects pseudo finger
JP2014146080A (en) * 2013-01-28 2014-08-14 Hitachi Ltd Biometric authentication device and biometric authentication method employing the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330408A (en) * 1996-06-13 1997-12-22 Mitsubishi Electric Corp Fingerprint collating device
JP2003242492A (en) * 2001-02-26 2003-08-29 Bionics Co Ltd Organism authentication device
JP2004258963A (en) * 2003-02-26 2004-09-16 Fujitsu Ltd High speed id-less collation method and system by multi-stage collation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330408A (en) * 1996-06-13 1997-12-22 Mitsubishi Electric Corp Fingerprint collating device
JP2003242492A (en) * 2001-02-26 2003-08-29 Bionics Co Ltd Organism authentication device
JP2004258963A (en) * 2003-02-26 2004-09-16 Fujitsu Ltd High speed id-less collation method and system by multi-stage collation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012210384A (en) * 2011-03-31 2012-11-01 Hitachi Solutions Ltd Living body authentication system that detects pseudo finger
JP2014146080A (en) * 2013-01-28 2014-08-14 Hitachi Ltd Biometric authentication device and biometric authentication method employing the same

Also Published As

Publication number Publication date
JP4900701B2 (en) 2012-03-21

Similar Documents

Publication Publication Date Title
KR102587193B1 (en) System and method for performing fingerprint-based user authentication using images captured using a mobile device
US9613428B2 (en) Fingerprint authentication using stitch and cut
JP6167733B2 (en) Biometric feature vector extraction device, biometric feature vector extraction method, and biometric feature vector extraction program
JP6467852B2 (en) Biological information correction apparatus, biological information correction method, and biological information correction computer program
US20100215223A1 (en) Vein Pattern Management System, Vein Pattern Registration Apparatus, Vein Pattern Authentication Apparatus, Vein Pattern Registration Method, Vein Pattern Authentication Method, Program, and Vein Data Configuration
JP2007011667A (en) Iris authentication device and iris authentication method
KR20180049347A (en) Method and apparatus for key generation based on face recognition using cnn and rnn
JP2011159035A (en) Biometric authentication apparatus, biometric authentication method and program
US20100239128A1 (en) Registering device, checking device, program, and data structure
JP2009086951A (en) Registration device, registration method, authentication device and authentication method
WO2008143271A1 (en) Registering device, checking device, program, and data structure
JP2008198083A (en) Individual identification device
JP2005259049A (en) Face collation device
JP2010079448A (en) Finger vein authentication system
JP4900701B2 (en) Authentication system
WO2018012449A1 (en) Personal authentication device
JP6629150B2 (en) Palm detection device, palm print authentication device, palm detection method, and program
JP2014142881A (en) Image conversion device, image conversion method, biometric authentication device and biometric authentication method, and computer program for image conversion
US8483449B2 (en) Registration device, checking device, program, and data structure
JP2008046677A (en) Biological information reading device, biological information reading method and biological information reading program
JP6846330B2 (en) Biometric device and biometric system
JP2008287436A (en) Vein pattern management system, vein pattern registering device, vein pattern authentication device, vein pattern registering method, vein pattern authentication method, program, and vein data structure
JP6798285B2 (en) Biometric device, biometric method and program
WO2021029091A1 (en) Information processing system and information processing method
JP2007233461A (en) Biometric authentication system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111221

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees