JP4900701B2 - Authentication system - Google Patents
Authentication system Download PDFInfo
- Publication number
- JP4900701B2 JP4900701B2 JP2007033580A JP2007033580A JP4900701B2 JP 4900701 B2 JP4900701 B2 JP 4900701B2 JP 2007033580 A JP2007033580 A JP 2007033580A JP 2007033580 A JP2007033580 A JP 2007033580A JP 4900701 B2 JP4900701 B2 JP 4900701B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- finger
- information
- authentication
- light emission
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Collating Specific Patterns (AREA)
Description
本発明は、指静脈の生体情報を用いて本人確認を行う認証システムに係り、特に、高速認証を行うため認証アルゴリズムに関する。 The present invention relates to an authentication system for performing identity verification using finger vein biometric information, and more particularly to an authentication algorithm for performing high-speed authentication.
最近、生体識別装置においては、人間の指紋や網膜を用いた生体認証だけでなく、指の静脈パターンの画像によって本人確認を行う静脈認証装置が普及してきている。静脈認証装置の静脈パターンの撮影装置としては、以下のような非接触に指静脈パターンを取得する生体識別装置に関する特許文献1がある。 Recently, in biometric identification devices, not only biometric authentication using human fingerprints and retinas, but also vein authentication devices that perform identity verification using finger vein pattern images have become widespread. As a vein pattern imaging device of a vein authentication device, there is Patent Document 1 relating to a biometric identification device that acquires a finger vein pattern in a non-contact manner as follows.
図2は、非接触に指血管パターンを取得する個人認証装置に関する特許文献1の機構的構成図である。
識別対象である指201を置く指置き台と、該指置き台に置かれた指201の画像を撮影する指に対して光を入射する赤外線光源202,203と、前記指置き台に置かれた指201の画像を撮影するカメラ204を備え、指の両サイドから赤外入射光線を照射し、指201を透過した赤外線が指の中で飽和し、その飽和した光(画像)をカメラ204により撮影する。カメラ204の撮影領域は、図3に示すように、指201の第1関節302から第2関節303までをカバーしている。
FIG. 2 is a mechanical configuration diagram of Patent Document 1 relating to a personal authentication device that acquires a finger blood vessel pattern in a non-contact manner.
A finger rest on which the finger 201 to be identified is placed; an infrared light source 202, 203 that makes light incident on the finger that captures an image of the finger 201 placed on the finger rest; and the finger rest placed on the finger rest. Provided with a camera 204 that captures an image of the finger 201, infrared incident light is irradiated from both sides of the finger, the infrared light transmitted through the finger 201 is saturated in the finger, and the saturated light (image) is transmitted to the camera 204. Take a picture. The imaging region of the camera 204 covers the first joint 302 to the second joint 303 of the finger 201 as shown in FIG.
ところで、特許文献1で用いられている指認証アルゴリズムは予め、撮影し、登録した画像と、認証したい指の画像をパターンマッチング処理を用いて、画像が一致するかどうかを検証するアルゴリズムが用いられている。
指静脈の場合、認証対象となる画像自体は認証が必要とする画像面積が広くないため、パターンマッチングのような左右上下に交互に動かす処理を行っても、割と高速に画像の一致、不一致を確認し、認証の有無を判断することができる。
しがしながら、指静脈画像が大きくなったり、画像歪みが大きい場合、左右上下に動かす範囲が広くなってしまい、より時間がかかってしまう問題がある。
また、透過赤外線の画像が、より鮮明になった場合、また、同時に大量に指の認証処理を行おうとした場合、パターンマッチングでは認証処理に時間がかかってしまい、処理速度が落ちる、もしくは負荷がかかって認証までの時間がかかるといった問題が起きる可能性がある。
By the way, the finger authentication algorithm used in Patent Document 1 is an algorithm that uses a pattern matching process to verify whether an image that has been captured and registered in advance and an image of a finger to be authenticated match each other. ing.
In the case of finger veins, the image to be authenticated itself does not have a large image area that requires authentication, so even if processing such as pattern matching is performed alternately left and right and up and down, the images match and do not match at a relatively high speed. It is possible to confirm whether or not authentication is performed.
However, when the finger vein image becomes large or the image distortion is large, there is a problem that the range of movement to the left, right, up and down becomes wide and takes more time.
Also, if the transmitted infrared image becomes clearer, or if a large number of finger authentication processes are attempted at the same time, the pattern matching process takes time, and the processing speed decreases or the load is reduced. This may cause a problem that it takes time until authentication.
本発明は、以上の問題点を鑑みてなされたものであり、認証時間を短縮したうえ、認証精度率を向上させ、本人認証率を高め、他人受け入れ率の低減を実現する認証システムを提供することにある。 The present invention has been made in view of the above problems, and provides an authentication system that shortens the authentication time, improves the authentication accuracy rate, increases the identity authentication rate, and reduces the acceptance rate of others. There is.
上記目的を達成するために、本発明にかかる認証システムは、人間の指の静脈に関する生体情報を用いて本人確認を行う認証システムであって、
前記生体情報を含む画像情報を取得する撮像手段と、取得した画像情報に対して折線ベクトル化及び3値化して折線ベクトル化画像と3値化画像を生成する生体画像情報生成手段と、生成された折線ベクトル化画像と3値化画像とに基づき本人確認を行う認証処理手段を備え、
前記認証処理手段が、前記撮像手段によって新たに撮影し、かつ前記生体画像生成手段によって新たに生成した折線ベクトル化画像における折線数及び分岐点数と、記憶手段に予め記憶した確認対象の個人の折線ベクトル化画像における折線数及び分岐点数とが一致するか否かを判定し、一致していた場合には、前記生体画像生成手段によって新たに生成した3値化画像から灰色部分を除いた第1の2値化画像を生成し、記憶手段に予め記憶した確認対象の個人の第2の2値化画像における黒、白の位置関係が一致するか否かを判定し、一致していた場合には前記第1の2値化画像に対して前記生体画像生成手段によって新たに生成した折線ベクトル画像とを合成した第1の合成画像を生成すると共に、前記第2の2値化画像に対し前記記憶手段から読み出した折線ベクトル化画像とを合成した第2の合成画像を生成し、これら生成した第1、第2の合成画像のパターンマッチング処理を行い、両画像における折線数、分岐点数が一致し、かつ黒、白の位置関係が一致していた場合に本人確認成功とする手段をさらに備えることを特徴とする。
In order to achieve the above object, an authentication system according to the present invention is an authentication system for performing identity verification using biological information related to a vein of a human finger,
An imaging unit that acquires image information including the biological information, a biological image information generation unit that generates a polygonal line vectorized image and a ternary image by generating a polygonal line vector and ternarizing the acquired image information, and Authentication processing means for performing identity verification based on the broken line vectorized image and the ternary image ,
The authentication processing means captures the number of fold lines and the number of branch points in the polygonal line vectorized image newly captured by the imaging means and newly generated by the biological image generation means, and the individual folding line of the confirmation target stored in the storage means in advance. It is determined whether or not the number of broken lines and the number of branch points in the vectorized image match. If they match, the first is obtained by removing the gray portion from the ternary image newly generated by the biological image generating means. Is generated, and it is determined whether or not the positional relationship between black and white in the second binarized image of the individual to be confirmed stored in advance in the storage means matches. Generates a first synthesized image obtained by synthesizing the first binarized image with a polygonal line vector image newly generated by the biological image generating means, and also generates the first binarized image with respect to the second binarized image. Memory A second combined image is generated by combining the broken line vectorized image read from the stage, and pattern matching processing is performed on the generated first and second combined images so that the number of broken lines and the number of branch points in both images match. And a means for making the identity verification successful when the positional relationship between black and white matches .
本発明に係る認証システムによれば、撮影された生体の画像情報から折線ベクトル化画像と3値化画像を生成し、それぞれの画像単位で認証判定を行い、さらに認証対象画像を再合成し、その合成結果で判定処理を行うことにより、認証の高速化を図り、さらに複数の認証判定を行うことで認証精度を向上させることが可能になる。 According to the authentication system according to the present invention, a polygonal line vectorized image and a ternary image are generated from the captured biological image information, authentication determination is performed for each image unit, and the authentication target image is recombined. By performing the determination process based on the synthesis result, it is possible to speed up the authentication, and it is possible to improve the authentication accuracy by performing a plurality of authentication determinations.
以下、本発明に係る認証システムをノートPC等の起動時のOSへのログイン認証に適用した実施形態について説明する。
図1は、本発明に係る認証システムの第1の実施形態における全体構成を示す説明図である。
この実施形態における認証システムは、例えば一般的な情報処理装置等であるノートPC120の内部に、ノートPC120が起動する際にこのノートPC120を操作する登録者の指情報により本人確認を行う静脈認証装置100を備えている。
ここで、指情報とは、登録者の身体の指の腹側等の表面から撮像して取得した指の静脈の血管パターンを映した画像情報を含む情報である。
ノートPC120は、静脈認証装置100に対して信号や情報の送受信を行うI/F121と、各構成要素の動作を制御して各種の演算等の処理を行うCPU122と、CPU122が演算等の処理を行った結果等の情報を一時的に格納するメモリ123と、登録者の身体に基づいた指情報等の情報を登録し記憶するHDD124と、ノートPC120を操作する登録者が文字情報等の入力操作や選択操作を行うためのキーボード125と、CPU122が実行したプログラムの処理結果や情報やデータを画面表示する表示手段である液晶ディスプレイ126と、ノートPC120の動作中のエラー音等を出力するスピーカ127とを備えている。
Hereinafter, an embodiment in which an authentication system according to the present invention is applied to login authentication to an OS when a notebook PC or the like is activated will be described.
FIG. 1 is an explanatory diagram showing the overall configuration of the authentication system according to the first embodiment of the present invention.
The authentication system in this embodiment is a vein authentication device that performs identity verification based on finger information of a registrant who operates the notebook PC 120 when the notebook PC 120 is activated, for example, inside a notebook PC 120 that is a general information processing apparatus or the like. 100.
Here, the finger information is information including image information showing a blood vessel pattern of a finger vein acquired by imaging from a surface such as a ventral side of a finger of a registrant's body.
The notebook PC 120 includes an I / F 121 that transmits and receives signals and information to and from the vein authentication device 100, a CPU 122 that controls operations of each component and performs various operations, and the CPU 122 performs operations such as operations. A memory 123 that temporarily stores information such as results of the operation, an HDD 124 that registers and stores information such as finger information based on the registrant's body, and a registrant who operates the notebook PC 120 performs an input operation such as character information. And a keyboard 125 for performing a selection operation, a liquid crystal display 126 which is a display means for displaying a processing result, information and data of a program executed by the CPU 122, and a speaker 127 which outputs an error sound during operation of the notebook PC 120. And.
CPU122は、静脈認証装置100から送信された画像情報をメモリ123に一時的に格納して、画像情報から指情報を抽出、取得して暗号化する処理を行い、HDD124に記憶する機能を有する。
また、画像情報に基づいて輝度を算出し、この輝度に応じて静脈認証装置100内の後述する赤外線光源101が発光する赤外線の光量を調節するための処理を行う機能を有する。
The CPU 122 has a function of temporarily storing the image information transmitted from the vein authentication device 100 in the memory 123, extracting, acquiring, and encrypting finger information from the image information, and storing it in the HDD 124.
Further, it has a function of calculating luminance based on the image information and performing processing for adjusting the amount of infrared light emitted from an infrared light source 101 (to be described later) in the vein authentication apparatus 100 according to the luminance.
静脈認証装置100は、登録者の指105の認証を行うために、指105を所定の位置に置くための指置き台103と、指105に対して赤外線を照射する赤外線光源101と、赤外線光源101が赤外線を発光し照射することにより映し出された指105の静脈を撮像するカメラ102と、指置き台103に指105が置かれたことを検出するためのフォトセンサ104と、カメラ102が撮像した画像のアナログデータをデジタルデータに変換処理するA/D変換器106と、A/D変換器106が変換処理したデジタルデータを用いてデジタル情報の画像情報を生成する画像入力部107と、CPU122からI/F121を介して送信された発光制御信号に応じて赤外線光源101の動作の制御を行う発光制御部108とを備えている。 The vein authentication apparatus 100 includes a finger rest 103 for placing the finger 105 at a predetermined position, an infrared light source 101 for irradiating the finger 105 with infrared light, and an infrared light source for authenticating the registrant's finger 105. A camera 102 that captures the veins of the finger 105 projected by emitting and irradiating infrared light 101, a photosensor 104 for detecting that the finger 105 is placed on the finger rest 103, and the camera 102 captures an image A / D converter 106 that converts analog data of the processed image into digital data, an image input unit 107 that generates image information of digital information using the digital data converted by A / D converter 106, and CPU 122 And a light emission control unit 108 that controls the operation of the infrared light source 101 in accordance with the light emission control signal transmitted from the I / F 121 via the I / F 121. .
図6は、HDD124に記憶された指情報601を示す説明図である。
指情報601は、登録者の身体から取得した指情報等の情報として、登録者の1本目の指から取得した指情報と、1本目とは別の2本目の指から取得した指情報とが登録され記憶されるようになっている。
FIG. 6 is an explanatory diagram showing finger information 601 stored in the HDD 124.
The finger information 601 includes finger information obtained from the first finger of the registrant and finger information obtained from a second finger different from the first finger as information such as finger information obtained from the registrant's body. It is registered and memorized.
以下、本実施の形態における認証システムの動作について図面を用いて詳細に説明する。
まず、登録者の指の静脈の血管パターンを含む指情報を登録する処理について図4に示すフローチャートを用いて説明する。
ノートPC120を操作する登録者が、キーボード125を操作し、HDD124に記憶された静脈パターン登録プログラムを開始させると、CPU122は、ノートPC120のハードウェア全体の初期化や静脈パターン登録プログラムの実行に必要となる一時的な変数に初期値を代入する処理を行う(ステップ401)。
次に、CPU122は、初期化状態への移行が完了すると、何本目の指を登録するかを判定する処理を行う(ステップ402)。
最初に1本目の指を登録する場合には、「1本目の指登録操作」のメッセージを液晶ディスプレイ126に表示する処理を行い、静脈認証装置100の指置き台103に登録者の例えば人差し指等の1本目の指105を置くように促すための画面表示をする(ステップ403)。また、1本目の登録が終了しており2本目の指を登録する場合には、「2本目の指登録操作」のメッセージを液晶ディスプレイ126に表示する処理を行い、静脈認証装置の指置き台103に登録者の例えば中指等の2本目の指を置くように促すための画面表示をする(ステップ404)。
Hereinafter, the operation of the authentication system in the present embodiment will be described in detail with reference to the drawings.
First, a process of registering finger information including a blood vessel pattern of a registrant's finger vein will be described with reference to a flowchart shown in FIG.
When a registrant who operates the notebook PC 120 operates the keyboard 125 to start the vein pattern registration program stored in the HDD 124, the CPU 122 is necessary for initialization of the entire hardware of the notebook PC 120 and execution of the vein pattern registration program. A process of substituting an initial value for a temporary variable is performed (step 401).
Next, when the transition to the initialization state is completed, the CPU 122 performs a process of determining how many fingers are registered (step 402).
When first registering the first finger, a process of displaying the message “first finger registration operation” on the liquid crystal display 126 is performed, and the registrant's index finger or the like is displayed on the finger rest 103 of the vein authentication device 100. A screen is displayed to prompt the user to place the first finger 105 (step 403). In addition, when the first registration is completed and the second finger is registered, a process of displaying a message “second finger registration operation” on the liquid crystal display 126 is performed, and the finger placement table of the vein authentication device is displayed. A screen for prompting the user to place the second finger of the registrant, such as the middle finger, is displayed at 103 (step 404).
次に、CPU122は、静脈認証装置100をアイドリング状態とし、指置き台103に指が置かれたことに応じて発光量調節処理を行い、赤外線光源101の発光量を適切に調整し、指105の鮮明な静脈の血管パターン等を映した画像を撮像する(ステップ405)。ここで、発光量調節処理で異常が検出され発光量異常のメッセージを表示する処理が行われた場合には、処理を終了する。 Next, the CPU 122 sets the vein authentication device 100 in an idling state, performs a light emission amount adjustment process in response to the finger placed on the finger rest 103, appropriately adjusts the light emission amount of the infrared light source 101, and An image showing a clear vein blood vessel pattern is captured (step 405). Here, when an abnormality is detected in the light emission amount adjusting process and a process of displaying a light emission amount abnormality message is performed, the process ends.
次に、CPU122は、静脈の血管パターンを抽出する処理を行う(ステップ406)。発光量調節処理で取得した鮮明な静脈の血管パターン等を映した画像情報をメモリ123から読出し、この画像情報の画像のうち、血管パターンが映されていない部分を削除して静脈の血管パターン等を映した部分を指情報として抽出する処理を行う。 Next, the CPU 122 performs processing for extracting a vein blood vessel pattern (step 406). The image information showing the clear vein blood vessel pattern obtained by the light emission amount adjustment processing is read from the memory 123, and the portion of the image information image where the blood vessel pattern is not shown is deleted to obtain the vein blood vessel pattern, etc. The process which extracts the part which imaged as finger information is performed.
次に、CPU122は、指情報を暗号化する処理を行う(ステップ407)。例えば所定の暗号化プログラムに基づいた暗画化パターンにより、この抽出した指情報を暗号化する処理を行う。
次に、CPU122は、何本目の指の指情報の登録であるかを判定する処理を行う(ステップ408)。例えば指情報を登録する処理を何回行ったか判定することにより、この抽出した指情報が何本目の指から取得した指情報であるかを判定し、1本目である場合には、この抽出した指情報を1本目の指の静脈の血管パターンとして指情報601に登録し記憶する処理を行う(ステップ409)。
Next, the CPU 122 performs a process for encrypting the finger information (step 407). For example, the extracted finger information is encrypted using a darkening pattern based on a predetermined encryption program.
Next, the CPU 122 performs processing for determining what finger information of the finger is registered (step 408). For example, by determining how many times the process of registering finger information is performed, it is determined how many fingers the extracted finger information is obtained. The finger information is registered and stored in the finger information 601 as a blood vessel pattern of the first finger vein (step 409).
次に、CPU122は、液晶ディスプレイ126に登録者に指置き台103から指105を抜くように指示するメッセージを表示する処理を行う(ステップ411)。例えば、「指を抜いてください」のメッセージを液晶ディスプレイ126に表示する処理を行う。
次に、CPU122は、フォトセンサ104からスイッチオフ信号が送信されたか否かを判定する処理を行い(ステップ413)、スイッチオフ信号が送信された場合には(ステップ413のYES)、ステップ402以降の処理を繰り返し実行する。スイッチオフ信号が送信されていない場合には(ステップ413のNO)、送信されるまでステップ413の処理を繰り返し実行する。
ここで、ステップ408において、例えば指情報を登録する処理を何回行ったか判定することにより、この抽出した指情報が何本目の指から取得した指情報であるかを判定し、2本目である場合には、この抽出した指情報を2本目の指の静脈の血管パターンとして指情報601に登録し記憶する処理を行う(ステップ410)。
Next, the CPU 122 performs processing for displaying a message for instructing the registrant to remove the finger 105 from the finger rest 103 on the liquid crystal display 126 (step 411). For example, a process of displaying a message “Please remove your finger” on the liquid crystal display 126 is performed.
Next, the CPU 122 performs a process of determining whether or not a switch-off signal is transmitted from the photosensor 104 (step 413). When a switch-off signal is transmitted (YES in step 413), the process after step 402 is performed. Repeat the process. If the switch-off signal has not been transmitted (NO in step 413), the process of step 413 is repeatedly executed until it is transmitted.
Here, in step 408, for example, by determining how many times the process of registering the finger information has been performed, it is determined how many fingers the extracted finger information is acquired, and the second one. In this case, the extracted finger information is registered and stored in the finger information 601 as a blood vessel pattern of the second finger vein (step 410).
次に、CPU122は、液晶ディスプレイ126に登録者に登録処理が終了した旨を知らせるメッセージを表示する処理を行う(ステップ412)。例えば、「登録完了」のメッセージを液晶ディスプレイ126に表示する処理を行う。 Next, the CPU 122 performs a process of displaying a message notifying the registrant that the registration process is completed on the liquid crystal display 126 (step 412). For example, a process of displaying a “registration complete” message on the liquid crystal display 126 is performed.
続いて、上述のステップ405において実行する発光量調節処理について図5に示すフローチャートを用いて説明する。
まず、CPU122は、静脈認証装置100をアイドリング状態とし、初期値として所定の発光量で発光するための発光制御信号をI/F121を介して発光制御部108に送信する処理を行う(ステップ501)。
発光制御部108は、この発光制御信号を受信すると、所定の発光量で発光で赤外線光源101から赤外線を発光させる制御を行う。
Next, the light emission amount adjustment process executed in step 405 described above will be described with reference to the flowchart shown in FIG.
First, the CPU 122 sets the vein authentication device 100 in an idling state and performs a process of transmitting a light emission control signal for emitting light with a predetermined light emission amount as an initial value to the light emission control unit 108 via the I / F 121 (step 501). .
When receiving the light emission control signal, the light emission control unit 108 performs control to emit infrared light from the infrared light source 101 with light emission with a predetermined light emission amount.
次に、CPU122は、フォトセンサ104からスイッチオン信号が送信されたか否かを判定する処理を行う(ステップ502)。液晶ディスプレイ126に表示された「1本目の指登録操作」等のメッセージに従って、登録者が1本目等の指を指置き台103に置かれたことに応じて、フォトセンサ104がこれを検出し、スイッチオン信号をI/F121を介してCPU122に送信したか否かを判定する処理を行う。
スイッチオン信号が送信されていない場合には(ステップ502のNO)、送信されるまでステップ502の処理を繰り返し実行する。
Next, the CPU 122 performs a process of determining whether or not a switch-on signal is transmitted from the photosensor 104 (step 502). In accordance with a message such as “first finger registration operation” displayed on the liquid crystal display 126, the photo sensor 104 detects this in response to the registrant placing his / her first finger on the finger rest 103. Then, a process for determining whether or not a switch-on signal is transmitted to the CPU 122 via the I / F 121 is performed.
If the switch-on signal has not been transmitted (NO in step 502), the process of step 502 is repeatedly executed until it is transmitted.
次に、CPU122は、スイッチオン信号が送信された場合には(ステップ502のYES)、静脈の画像を撮影中であることを知らせるメッセージを表示する処理を行う(ステップ503)。例えば、「静脈撮影中」のメッセージを液晶ディスプレイ126に表示する処理を行う。
次に、CPU122は、指の静脈の血管パターン等を映した画像を撮像する処理を行う(ステップ504)。指置き台103に置かれた指105から、赤外線光源101から発光された赤外線が照射されることにより、映し出された静脈の画像を発光制御部108を介してカメラ102を動作させて撮像する処理を行う。そして、カメラ102により撮像された静脈の画像のアナログデータは、A/D変換器106によりデジタルデータに変換処理され、画像入力部107がこのデジタルデータを用いてデジタル情報の画像情報を生成し、I/F121を介してメモリ123に送信されて格納される。
Next, when a switch-on signal is transmitted (YES in step 502), the CPU 122 performs a process of displaying a message notifying that a vein image is being captured (step 503). For example, a process of displaying a message “in vein imaging” on the liquid crystal display 126 is performed.
Next, the CPU 122 performs a process of capturing an image showing a blood vessel pattern of a finger vein (step 504). Processing for imaging the image of a vein displayed by operating the camera 102 via the light emission control unit 108 by irradiating the infrared light emitted from the infrared light source 101 from the finger 105 placed on the finger placing base 103. I do. The analog data of the vein image captured by the camera 102 is converted into digital data by the A / D converter 106, and the image input unit 107 generates digital information image information using the digital data. The data is transmitted to the memory 123 via the I / F 121 and stored.
次に、CPU122は、画像情報の発光量の輝度を算出する処理を行う(ステップ505)。メモリ123から画像情報を読み出し、この画像情報から、図3に示したように、撮影領域302の中央部分304の輝度を算出する処理を行う。
次に、CPU122は、画像情報の発光量の輝度が予め設定された目標範囲内であるか否かを判定する処理を行う(ステップ506)。予めHDD124に設定され記憶された画像情報の輝度の目標範囲の上限値および下限値を読み出し、算出した発光量の輝度がこれらの上限値および下限値の範囲内に含まれているか否かを判定する処理を行う。
ここで、画像情報の輝度の目標範囲の上限値および下限値には、撮影領域303の中央部分304に映された静脈の血管パターンを把握できる様に鮮明に映されている際の輝度の上限値、下限値が設定されている。即ち、上限値および下限値の目標範囲内の輝度では、中央部分304に映された静脈の血管パターンの形状や模様等が鮮明に映し出されており、この静脈の血管パターンの画像情報を用いて照合の処理等が実行可能となっている。
Next, the CPU 122 performs a process of calculating the luminance of the light emission amount of the image information (step 505). Image information is read from the memory 123, and processing for calculating the luminance of the central portion 304 of the imaging region 302 is performed from the image information as shown in FIG.
Next, the CPU 122 performs a process of determining whether or not the luminance of the light emission amount of the image information is within a preset target range (step 506). The upper limit value and lower limit value of the target range of luminance of image information set and stored in advance in the HDD 124 are read, and it is determined whether or not the luminance of the calculated light emission amount is included in the range of these upper limit value and lower limit value. Perform the process.
Here, the upper limit value and the lower limit value of the target range of the luminance of the image information are the upper limit of the luminance when the image is clearly projected so that the vein blood vessel pattern displayed in the central portion 304 of the imaging region 303 can be grasped. Value and lower limit are set. That is, at the luminance within the target range of the upper limit value and the lower limit value, the shape and pattern of the vein blood vessel pattern displayed in the central portion 304 is clearly displayed, and the image information of the vein blood vessel pattern is used. Verification processing and the like can be executed.
次に、CPU122は、画像情報の発光量の輝度が予め設定された目標範囲内である場合には(ステップ506のYES)、赤外線光源101の発光を停止するための発光制御信号をI/F121を介して発光制御部108に送信する処理を行う(ステップ512)。また、発光制御部108は、この発光制御信号を受信すると赤外線光源101の発光を停止させる制御を行う。そして処理を終了する。
また、ここでCPU122は、画像情報の発光量の輝度が予め設定された目標範囲内でない場合には(ステップ506のNO)、目標範囲を超えているか否かを判定する処理を行う(ステップ507)。算出した発光量の輝度が、画像情報の輝度の目標範囲の上限値を超えているか、または、目標範囲の下限値より低いか否かを判定する処理を行う。
Next, when the luminance of the light emission amount of the image information is within a preset target range (YES in Step 506), the CPU 122 sends a light emission control signal for stopping the light emission of the infrared light source 101 to the I / F 121. The process of transmitting to the light emission control unit 108 is performed (step 512). Also, the light emission control unit 108 performs control to stop the light emission of the infrared light source 101 when receiving this light emission control signal. Then, the process ends.
Here, when the luminance of the light emission amount of the image information is not within the preset target range (NO in step 506), the CPU 122 performs a process of determining whether or not the target range is exceeded (step 507). ). Processing is performed to determine whether the calculated luminance of the emitted light amount exceeds the upper limit value of the target range of the luminance of the image information or is lower than the lower limit value of the target range.
次に、CPU122は、算出した発光量の輝度が目標範囲の上限値を超えている場合には(ステップ507のYES)、赤外線光源101の発光量を下げる処理を行う(ステップ508)。赤外線光源101で発光する赤外線の発光量として、初期値の発光量から、1ステップ減らした少ない発光量で発光するための発光制御信号をI/F121を介して発光制御部108に送信する処理を行う。 Next, when the luminance of the calculated light emission amount exceeds the upper limit value of the target range (YES in step 507), the CPU 122 performs a process of reducing the light emission amount of the infrared light source 101 (step 508). Processing for transmitting a light emission control signal for light emission with a small light emission amount reduced by one step from the initial light emission amount to the light emission control unit 108 via the I / F 121 as the infrared light emission amount emitted from the infrared light source 101. Do.
また、CPU122は、算出した発光量の輝度が目標範囲の下限値より低い場合には(ステップ507のNO)、赤外線光源101の発光量を上げる処理を行う(ステップ509)。赤外線光源101で発光する赤外線の発光量として、初期値の発光量から、1ステップ増やした多い発光量で発光するための発光制御信号をI/F121を介して発光制御部108に送信する処理を行う。
そして、発光制御部108は、この発光制御信号を受信すると、発光制御信号で指定した赤外線光源101での発光量が、赤外線光源101で発光できる赤外線の発光量の範囲内であるか否かを判定し(ステップ510)、赤外線光源101で発光できる範囲内である場合には(ステップ510のYES)、この発光制御信号で指定した発光量で赤外線光源101から赤外線を発光させる制御を行う。そして、ステップ504以降の処理を繰り返し実行する。
In addition, when the luminance of the calculated light emission amount is lower than the lower limit value of the target range (NO in step 507), the CPU 122 performs a process of increasing the light emission amount of the infrared light source 101 (step 509). Processing for transmitting a light emission control signal for light emission with a large light emission amount increased by one step from the initial light emission amount to the light emission control unit 108 via the I / F 121 as an infrared light emission amount emitted from the infrared light source 101. Do.
When the light emission control unit 108 receives this light emission control signal, it determines whether or not the light emission amount of the infrared light source 101 specified by the light emission control signal is within the range of the infrared light emission amount that can be emitted by the infrared light source 101. If it is determined (step 510) and the light emission is within the range that can be emitted by the infrared light source 101 (YES in step 510), the infrared light source 101 is controlled to emit infrared light with the light emission amount specified by the light emission control signal. Then, the processing after step 504 is repeatedly executed.
次に、CPU122は、赤外線光源101で発光できる範囲内でない場合には(ステップ510のNO)、発光量が異常であることを知らせるメッセージを表示する処理を行う(ステップ511)。
発光制御部108が発光制御信号で指定した赤外線光源101での発光量が、赤外線光源101で発光できる赤外線の発光量の範囲内でないと判定し、これに応じて発光量が異常である旨を通知する通知情報がI/F121を介してCPU122に送信したことに従って、CPU122は、例えば、「発光量異常」のメッセージを液晶ディスプレイ126に表示する処理を行う。
Next, when it is not within the range where the infrared light source 101 can emit light (NO in step 510), the CPU 122 performs a process of displaying a message notifying that the light emission amount is abnormal (step 511).
The light emission control unit 108 determines that the light emission amount of the infrared light source 101 specified by the light emission control signal is not within the range of the infrared light emission amount that can be emitted by the infrared light source 101, and accordingly, the light emission amount is abnormal. In response to the notification information to be notified being transmitted to the CPU 122 via the I / F 121, the CPU 122 performs a process of displaying a message “abnormal emission amount” on the liquid crystal display 126, for example.
次に、CPU122は、赤外線光源101の発光を停止するための発光制御信号をI/F121を介して発光制御部108に送信する処理を行う(ステップ513)。発光制御部108は、この発光制御信号を受信すると赤外線光源101の発光を停止させる制御を行う。そして処理を終了する。 Next, the CPU 122 performs a process of transmitting a light emission control signal for stopping the light emission of the infrared light source 101 to the light emission control unit 108 via the I / F 121 (step 513). When receiving the light emission control signal, the light emission control unit 108 performs control to stop the light emission of the infrared light source 101. Then, the process ends.
続いて、ノートPC120を起動させる際に、指情報により本人認証を行う処理について、図7に示すフローチャートを用いて説明する。
ノートPC120を操作する登録者が、ノートPC120の電源を投入することにより起動させると、CPU122は、ノートPC120のハードウェア全体の初期化や静脈パターン照合プログラムの実行に必要となる一時的な変数に初期値を代入する処理を行う(ステップ701)。
Next, a process of performing personal authentication using finger information when the notebook PC 120 is activated will be described with reference to a flowchart shown in FIG.
When a registrant who operates the notebook PC 120 is activated by turning on the notebook PC 120, the CPU 122 sets temporary variables necessary for initialization of the entire hardware of the notebook PC 120 and execution of the vein pattern matching program. A process for substituting an initial value is performed (step 701).
次に、CPU122は、初期化状態への移行が完了すると、何本目の指の照合を行うかを判定する処理を行う(ステップ702)。最初に1本目の指の照合を行う場合には、「1本目の指照合操作」のメッセージを液晶ディスプレイ126に表示する処理を行い、静脈認証装置100の指置き台103に登録者の例えば人差し指等の1本目の指105を置くように促すための画面表示をする(ステップ703)。
また、1本目の照合が終了しており2本目の指の照合を行う場合には、「2本目の指照合操作」のメッセージを液晶ディスプレイ126に表示する処理を行い、静脈認証装置の指置き台103に登録者の例えば中指等の2本目の指を置くように促すための画面表示をする(ステップ704)。
Next, when the transition to the initialization state is completed, the CPU 122 performs a process of determining how many fingers are to be compared (step 702). When collating the first finger for the first time, a process of displaying the message “first finger collating operation” on the liquid crystal display 126 is performed, and the registrant's index finger, for example, is displayed on the finger rest 103 of the vein authentication device 100. A screen is displayed to prompt the user to place the first finger 105 such as (step 703).
When the first verification is completed and the second finger is verified, a message of “second finger verification operation” is displayed on the liquid crystal display 126, and the finger placement of the vein authentication device is performed. A screen is displayed to urge the registrant to place a second finger such as the middle finger of the registrant (step 704).
次に、CPU122は、静脈認証装置100をアイドリング状態とし、指置き台103に指が置かれたことに応じて、上述のステップ505と同様の発光量調節処理を行い、赤外線光源101の発光量を適切に調整し、指の鮮明な静脈の血管パターン等を映した画像を撮像する(ステップ705)。ここで、発光量調節処理で異常が検出され発光量異常のメッセージを表示する処理が行われた場合には、ステップ702以降の処理を繰り返し実行する。 Next, the CPU 122 sets the vein authentication device 100 in an idling state, performs light emission amount adjustment processing similar to the above-described step 505 in response to the finger placed on the finger rest 103, and the light emission amount of the infrared light source 101 Is appropriately adjusted, and an image showing a blood vessel pattern of a clear vein of a finger is captured (step 705). Here, when abnormality is detected in the light emission amount adjustment processing and processing for displaying a light emission amount abnormality message is performed, the processing from step 702 onward is repeatedly executed.
次に、CPU122は、静脈の血管パターンを抽出する処理を行う(ステップ706)。発光量調節処理で取得した鮮明な静脈の血管パターン等を映した画像情報をメモリ123から読出し、この画像情報の画像のうち、血管パターンが映されていない部分を削除して静脈の血管パターン等を映した部分を指情報として抽出する処理を行う。
次に、CPU122は、何本目の指の指情報の照合であるかを判定する処理を行う(ステップ707)。例えば指情報を照合する処理を何回行ったか判定することにより、この抽出した指情報が何本目の指から取得した指情報であるかを判定する。
Next, the CPU 122 performs processing for extracting a vein blood vessel pattern (step 706). The image information showing the clear vein blood vessel pattern obtained by the light emission amount adjustment processing is read from the memory 123, and the portion of the image information image where the blood vessel pattern is not shown is deleted to obtain the vein blood vessel pattern, etc. The process which extracts the part which imaged as finger information is performed.
Next, the CPU 122 performs processing for determining what finger information of the finger is to be collated (step 707). For example, by determining how many times the process of collating finger information is performed, it is determined how many fingers the extracted finger information is obtained.
次に、CPU122は、この抽出した指情報が1本目の指から取得した指情報である場合には、指情報601に登録された1本目の指の指情報を読み出す処理を行う(ステップ708)。HDD124内を検索して指情報601に登録された1本目の指の指情報を読み出し、この読み出した1本目の指の指情報の暗号化を解凍(復号)する処理を行う。
またここで、CPU122は、この抽出した指情報が2本目の指から取得した指情報である場合には、指情報601に登録された2本目の指の指情報を読み出す処理を行う(ステップ709)。HDD124内を検索して指情報601に登録された2本目の指の指情報を読み出し、この読み出した2本目の指の指情報の暗号化を解凍する処理を行う。
Next, when the extracted finger information is the finger information acquired from the first finger, the CPU 122 performs processing for reading the finger information of the first finger registered in the finger information 601 (step 708). . The HDD 124 searches the finger information of the first finger registered in the finger information 601 by searching the HDD 124, and performs a process of decompressing (decrypting) the encryption of the read finger information of the first finger.
Further, here, when the extracted finger information is finger information acquired from the second finger, the CPU 122 performs a process of reading the finger information of the second finger registered in the finger information 601 (step 709). ). The HDD 124 searches the finger information of the second finger registered in the finger information 601 by searching the HDD 124, and performs a process of decompressing the read finger information of the second finger.
次に、CPU122は、抽出した指情報と登録された指情報とが一致するか否かを比較・照合する処理を行う(ステップ710)。抽出した指情報と、読み出した指情報とを、例えば指情報に含まれる静脈の血管パターンの形状や模様等が一致するか否かを比較・照合する処理を行う。
次に、CPU122は、抽出した指情報と登録された指情報とが一致する場合には(ステップ710のYES)、液晶ディスプレイ126に登録者に指105を抜くように指示するメッセージを表示する処理を行う(ステップ711)。例えば、「指を抜いてください」のメッセージを液晶ディスプレイ126に表示する処理を行う。
次に、CPU122は、フォトセンサ104からスイッチオフ信号が送信されたか否かを判定する処理を行い(ステップ713)、スイッチオフ信号が送信されていない場合には(ステップ713のNO)、送信されるまでステップ713の処理を繰り返し実行する。
Next, the CPU 122 performs a process of comparing / collating whether or not the extracted finger information matches the registered finger information (step 710). For example, the extracted finger information and the read finger information are subjected to a process of comparing and collating whether or not the shape or pattern of the vein blood vessel pattern included in the finger information matches.
Next, when the extracted finger information matches the registered finger information (YES in step 710), the CPU 122 displays a message for instructing the registrant to remove the finger 105 on the liquid crystal display 126. (Step 711). For example, a process of displaying a message “Please remove your finger” on the liquid crystal display 126 is performed.
Next, the CPU 122 performs processing for determining whether or not a switch-off signal is transmitted from the photosensor 104 (step 713). If the switch-off signal is not transmitted (NO in step 713), the CPU 122 transmits the switch-off signal. Step 713 is repeatedly executed until
次に、CPU122は、スイッチオフ信号が送信された場合には(ステップ713のYES)、2本目の指情報の照合が完了したか否かを登録であるかを判定する処理を行う(ステップ715)。
ステップ710において、1本目、2本目の指の両方共に、抽出した指情報と登録された指情報とが一致すると判定しているか否かを判定する処理を行う。1本目、2本目の指の両方共に、一致すると判定していない場合には(ステップ715のNO)、ステップ702以降の処理を繰り返し実行する。
Next, when a switch-off signal is transmitted (YES in step 713), the CPU 122 performs a process of determining whether or not the second finger information collation is completed (step 715). ).
In step 710, a process is performed to determine whether or not it is determined that the extracted finger information matches the registered finger information for both the first and second fingers. If it is not determined that both the first and second fingers match (NO in step 715), the processes in and after step 702 are repeatedly executed.
次に、CPU122は、1本目、2本目の指の両方共に、一致すると判定している場合には(ステップ715のYES)、液晶ディスプレイ126に登録者に認証が終了した旨を通知するメッセージを表示する処理を行う(ステップ716)。例えば、「認証しました」のメッセージを液晶ディスプレイ126に表示する処理を行う。そして、処理を終了する。
また、ステップ709において、抽出した指情報と登録された指情報とが一致しない場合には(ステップ710のNO)、CPU122は、液晶ディスプレイ126に登録者に不一致である旨を通知するメッセージを表示する処理を行う(ステップ712)。例えば、「不一致」のメッセージを液晶ディスプレイ126に表示する処理を行う。
Next, when it is determined that both the first finger and the second finger match (YES in step 715), the CPU 122 displays a message notifying the registrant that the authentication is completed on the liquid crystal display 126. A display process is performed (step 716). For example, a process of displaying a message “authenticated” on the liquid crystal display 126 is performed. Then, the process ends.
If the extracted finger information and the registered finger information do not match at step 709 (NO at step 710), the CPU 122 displays a message notifying the registrant of the mismatch on the liquid crystal display 126. (Step 712). For example, a process of displaying a “mismatch” message on the liquid crystal display 126 is performed.
次に、CPU122は、フォトセンサ104からスイッチオフ信号が送信されたか否かを判定する処理を行い(ステップ714)、スイッチオフ信号が送信されていない場合には(ステップ714のNO)、送信されるまでステップ714の処理を繰り返し実行する。また、CPU122は、スイッチオフ信号が送信された場合には(ステップ714のYES)、ステップ702以降の処理を繰り返し実行する。 Next, the CPU 122 performs processing for determining whether or not a switch-off signal is transmitted from the photosensor 104 (step 714). If the switch-off signal is not transmitted (NO in step 714), the CPU 122 transmits the switch-off signal. Step 714 is repeatedly executed until In addition, when a switch-off signal is transmitted (YES in step 714), the CPU 122 repeatedly executes the processing after step 702.
次に図8、9を用いて、図10の指静脈画像の折線ベクトル化処理による認証アルゴリズムについて説明する。
図8は、折線化処理の全体的な流れを示す図である。
認証対象とする指に対して指静脈認証装置を用いて指画像801を撮影し、静脈画像データ802を抽出する処理を行う。
画像データ802は指静脈の撮影結果を簡易的に示したものである。
図9は曲線を折線化した例を示す図である。
曲線902や、曲線904は線分近似を用いて折線化処理を行い、折線903、904を生成する。線分近似は周知技術であるため、ここでの説明は割愛する。
図8の803は曲線である静脈画像データ802を折線化処理した結果示している。
折線化処理を行った血管に対して、追跡始点を指定し、線分の自動追跡処理を行い、折線、分岐の位置と数を確認する。線分の自動追跡を行う場合、分岐位置は複数の線分に分かれている箇所を抽出すればよいが、折線の位置を判定する場合は、各線分に角部点があるかどうか確認することで折線の頂点を抽出することで折線部分の個数を把握することができる。
Next, with reference to FIGS. 8 and 9, an authentication algorithm based on the polygonal line vectorization processing of the finger vein image in FIG. 10 will be described.
FIG. 8 is a diagram showing the overall flow of the polygonalization process.
A finger image 801 is photographed using a finger vein authentication device for a finger to be authenticated, and processing for extracting vein image data 802 is performed.
The image data 802 simply shows the finger vein imaging result.
FIG. 9 is a diagram showing an example in which a curve is bent.
The curved line 902 and the curved line 904 are subjected to broken line processing using line segment approximation to generate bent lines 903 and 904. Since line segment approximation is a well-known technique, description thereof is omitted here.
Reference numeral 803 in FIG. 8 indicates a result obtained by performing a polygonal process on the vein image data 802 that is a curve.
A tracking start point is designated for a blood vessel that has been subjected to a broken line process, an automatic line segment tracking process is performed, and the position and number of broken lines and branches are confirmed. When performing automatic tracking of line segments, it is only necessary to extract a branching point that is divided into multiple line segments, but when determining the position of a broken line, make sure that each line segment has a corner point. The number of broken line portions can be grasped by extracting the vertexes of the broken line.
図10は指静脈画像の折線ベクトル化処理を用いた認証アルゴリズを説明するフローである。
赤外線透過光による撮影データから、静脈の血管部分を抽出する(ステップ1001)子抽出方法としては追跡始点をもうけて、線分の自動追跡が終了するまで繰り返す。
次に抽出した静脈血管データに対して折線化処理を施し、曲線を折線ベクトル化する(ステップ1002)。
次に、折線化された血管画像の折線部、分岐点を抽出する(ステップ1003)、折線部、分岐点の抽出には折線化処理を行った血管に対して、追跡始点を指定し、線分の自動追跡処理を行い、折線、分岐の位置と数を確認する。線分の自動追跡を行う場合、分岐位置は複数の線分に分かれている箇所を抽出すればよいが、折線の位置を判定する場合は、各線分に角部点があるかどうか確認することで折線の頂点を抽出する。
FIG. 10 is a flowchart for explaining an authentication algorithm using a broken line vectorization process of a finger vein image.
The vein blood vessel portion is extracted from the imaging data obtained by infrared transmitted light (step 1001). The child extraction method is repeated until a tracking start point is established and the automatic tracking of the line segment is completed.
Next, the extracted venous blood vessel data is subjected to a polygonalization process to convert the curve into a polygonal line vector (step 1002).
Next, a broken line part and a branching point of the broken blood vessel image are extracted (step 1003). For the extraction of the broken line part and the branching point, a tracking start point is designated for the blood vessel subjected to the bending process, Minute tracking is performed, and the position and number of broken lines and branches are confirmed. When performing automatic tracking of line segments, it is only necessary to extract a branching point that is divided into multiple line segments, but when determining the position of a broken line, make sure that each line segment has a corner point. To extract the vertices of the broken line.
別途、登録してある、認証の基本パターンとなる画像に対してもステップ1001〜ステップ1003までの処理を施し、折線部と分岐点の数を抽出しておく。
次に認証の基本パターンと、認証しようとする静脈パターンの折線部、分岐点の数を比較する(ステップ1004)
Separately, the processing from step 1001 to step 1003 is also performed on an image that is a registered basic pattern for authentication, and the number of broken line portions and branch points is extracted.
Next, the basic pattern of authentication is compared with the number of broken lines and branch points of the vein pattern to be authenticated (step 1004).
折線部、分岐点の数が一致する場合(ステップ1005)は、次の処理に移行する(ステップ1006)。折線部、分岐点の数が一致しない場合には(ステップ1007)、認証失敗として認証処理を終了する(ステップ1008)。 When the number of broken line portions and the number of branch points coincide (step 1005), the process proceeds to the next process (step 1006). If the number of broken lines and the number of branch points do not match (step 1007), the authentication process is terminated as an authentication failure (step 1008).
次に図11を用いて、図12の指静脈画像の3値化処理による認証アルゴリズムについて説明する。
図11は撮影された静脈画像データに対して3値化処理を行った図である。
撮影された指静脈画像データは、一見すると濃淡画像であり、この画像から静脈の位置を判定することは難しい。そのため、濃淡画像から3値画像を得るための処理を施す。
ここで3値化画像としているのは、赤外線透過光で撮影された画像はエッジの凹凸が判りにくく、黒白の濃淡だけではっきりさせることが難しいため、黒、白、灰の3つの色値を持つ領域に分ける。
3値化画像データ1101は3値化処理を施した図である。3値化によって、黒、白、灰色のそれぞれの色値領域に分けた後、灰色の部分を削除した図が3値化画像データ1102である。
灰色の部分を削除する理由として、領域の区分が明確でなく血管のエッジ部分がわかりにくいためである。
Next, an authentication algorithm based on the ternary processing of the finger vein image in FIG. 12 will be described with reference to FIG.
FIG. 11 is a diagram in which ternary processing is performed on captured vein image data.
The captured finger vein image data is a grayscale image at first glance, and it is difficult to determine the position of the vein from this image. Therefore, a process for obtaining a ternary image from the grayscale image is performed.
The three-valued image here is an image photographed with infrared transmitted light, since the unevenness of the edge is difficult to understand, and it is difficult to clarify only with the shades of black and white, so three color values of black, white, and gray are used. Divide into areas that you have.
The ternary image data 1101 is a diagram that has been subjected to ternary processing. A figure obtained by dividing the color value areas into black, white, and gray by ternarization and then deleting the gray part is ternary image data 1102.
The reason for deleting the gray portion is that the region segmentation is not clear and the edge portion of the blood vessel is difficult to understand.
図12は指静脈画像の3値化処理を用いた認証アルゴリズを説明するフローである。
赤外線透過光による撮影データから、静脈の血管部分以外を抽出する(ステップ1201)
ここの抽出方法としては図10で血管画像を抽出した際、その抽出部分だけを反転する、もしくは血管部に色をいれて、エッジ部分を際ださせてから除外する、クロマキー処理を用いてもかまわない。
抽出した画像に対して、3値化処理を施す(ステップ1202)。
濃度ヒストグラムに基づく方法、画像の局所性質を生かし,この性質を利用する方法、画像をいくつかに分割し,各領域毎に設定する方法など、すでに知られている技術があるので、いずれかを用いる。
FIG. 12 is a flowchart for explaining an authentication algorithm using a finger vein image ternary process.
A part other than the blood vessel portion of the vein is extracted from the photographing data by the infrared transmitted light (step 1201).
As an extraction method here, when extracting a blood vessel image in FIG. 10, chroma key processing may be used in which only the extracted portion is inverted, or a color is added to the blood vessel portion and the edge portion is excluded and then excluded. It doesn't matter.
A ternary process is performed on the extracted image (step 1202).
There are already known technologies such as a method based on density histogram, a method that uses the local property of an image, a method that uses this property, and a method that divides an image into several parts and sets each region. Use.
本件においては、ある閾値
で2値化したとき,対象を背景と誤る誤り率を最小にする最小誤差法を用いるのが良いと思われるが、濃度ヒストグラム法のなかでP-タイル法,モード法,判別分析法のいずれを用いてもかまわない。
3値処理によって、黒、白、灰色の3値に分かれた画像から、灰色の領域を削除する(ステップ1203)。この削除を行う場合、静脈画像データを複数領域(マトリックス状8*8、16*16)に分割しておいてもかまわない。
また、黒、白、灰の3値に分けた段階で、それぞれの色値の最も高い画素を中心として、一定の閾値内に存在する画素を領域単位に分けて、黒、白、灰色のそれぞれの領域に分けてもかまわない。
In this case, a certain threshold
It is better to use the minimum error method that minimizes the error rate when the target is mistaken for the background, but any of the P-tile method, mode method, and discriminant analysis method in the density histogram method May be used.
The gray area is deleted from the image divided into three values of black, white, and gray by the ternary processing (step 1203). When this deletion is performed, the vein image data may be divided into a plurality of regions (matrix-like 8 * 8, 16 * 16).
Also, at the stage of dividing into three values of black, white, and gray, the pixels existing within a certain threshold are divided into area units around the pixel having the highest color value, and each of black, white, and gray It may be divided into areas.
次に、別途、登録してある、認証の基本パターンとなる画像に対してもステップ1701〜ステップ1703までの処理を施し、黒、白の2値に分かれた領域を持つ画像処理を行っておく。 Next, the processing from Step 1701 to Step 1703 is also performed on the separately registered image that is the basic pattern of authentication, and image processing having an area divided into black and white is performed. .
次に認証の基本パターンと、認証しようとする静脈パターンの黒領域、白領域の数と位置を比較する(ステップ1204)。
比較の結果、数、位置関係が一致する場合(ステップ1205)は次の処理に移行する(ステップ1206)。
数、位置関係が1つでも一致しない場合には(ステップ1207)、認証失敗として認証処理を終了する(ステップ1208)。
Next, the basic pattern of authentication is compared with the number and position of the black and white areas of the vein pattern to be authenticated (step 1204).
As a result of the comparison, if the number and the positional relationship match (step 1205), the process proceeds to the next process (step 1206).
If even the number and the positional relationship do not match (step 1207), the authentication process is terminated as an authentication failure (step 1208).
次に図10、16でそれぞれ認証が成功した結果をうけて、折線化処理後の画像データと3値化処理後の画像データを再合成して、認証を行う認証アルゴリズムについて図13、図14を用いて図15のフローチャートを説明する。
図13の画像データ1301は図10で示す折線化処理を用いた折線部、分岐点を抽出したデータである。
画像データ1302は図12で示す3値化処理を施し、さらに灰色の部分を除外した画像データである。
Next, the authentication algorithms for performing authentication by receiving the results of successful authentication in FIGS. 10 and 16 and recombining the image data after the polygonalization processing and the image data after the ternary processing will be described with reference to FIGS. 15 will be used to explain the flowchart of FIG.
Image data 1301 in FIG. 13 is data obtained by extracting a broken line portion and a branch point using the broken line processing shown in FIG.
Image data 1302 is image data that has been subjected to the ternarization processing shown in FIG.
図14はデータ1301とデータ1302を再合成した結果を示す図である。
図15は折線ベクトル化した画像データと、2値化(実際には3値化)画像を再合成して、認証に用いるアルゴリズムを説明するフローチャートである。
まず、図13で示される画像データ1301と画像データ1302を再合成を行う(ステップ1501)。再合成する場合の、それぞれの合成の基準となる位置は血管の線分追跡を行う際に指定した、追跡始点の座標を折線化処理、3値化処理のいずれのデータにも設定しておき、その設定された座標を用いて再合成する場合の基準点とする。
次に図10で算出した折線化データの折線部、分岐点が図12で算出した2値化画像の黒、白のどの領域にあるのかを算出する(ステップ1502)。
ここでの算出は黒、白の2値の領域内に折線部、分岐点があるかないかによって判定させる。また、黒、白の2値の領域内に、座標を設定し、さらに予め折線部、分岐点の位置にも座標を設定し、領域内の座標(4点の座標)に折線部、分岐点の座標(1点の座標)が存在するかどうかを確認する手法を用いてもかまわない。
FIG. 14 is a diagram showing the result of recombining data 1301 and data 1302.
FIG. 15 is a flowchart for explaining an algorithm used for authentication by recombining image data converted into a polygonal line vector and a binarized (actually ternary) image.
First, the image data 1301 and the image data 1302 shown in FIG. 13 are recombined (step 1501). When re-synthesizing, the position that is the reference for each synthesis is set to the data of the polygonalization process and the ternarization process with the coordinates of the tracking start point specified when tracking the line segment of the blood vessel. A reference point for re-synthesis using the set coordinates.
Next, it is calculated whether the broken line portion and branch point of the broken line data calculated in FIG. 10 are in the black or white region of the binarized image calculated in FIG. 12 (step 1502).
Here, the calculation is made based on whether or not there is a broken line portion or a branch point in the binary region of black and white. Also, coordinates are set in the binary area of black and white, and coordinates are also set in advance at the positions of the broken line part and branch point, and the broken line part and branch point are set to the coordinates in the area (four coordinate points). It is also possible to use a method for confirming whether or not there is a coordinate (coordinate of one point).
次に別途、登録してある、認証の基本パターンとなる画像に対してもステップ1501〜ステップ1503までの処理を施し、図10の折線化データの折線部、分岐点が図12で算出した2値化画像の黒、白のどの領域にあるのかを算出しておく。
次に認証の基本パターンと、認証しようとする折線部、分岐点が2値化された黒、白の領域内にあるかどうかを比較する(ステップ1504)。
領域内に折線部、分岐点が一致する場合(ステップ1505)は認証が成功したとして認証処理を終了し、認証許可とする(ステップ1506)。領域内に折線部、分岐点が一致しない場合には(ステップ1507)、認証失敗として認証処理を終了する(ステップ1508)。
ただし、図15の処理を行わず、図10、図12の認証処理がいずれか、もしくは両方が認証の確認が取れた段階で認証確認としてもかまわない。
Next, the processing from step 1501 to step 1503 is also performed for the image that is separately registered and used as the basic pattern for authentication, and the broken line portion and branch point of the broken line data in FIG. 10 are calculated in FIG. It is calculated which area is black or white of the digitized image.
Next, the basic pattern of authentication is compared with whether or not the broken line portion to be authenticated and the branch point are within the binarized black and white areas (step 1504).
If the broken line portion and the branch point coincide with each other in the region (step 1505), the authentication process is terminated as authentication is successful, and authentication is permitted (step 1506). If the broken line part and the branch point do not match in the area (step 1507), the authentication process is terminated as an authentication failure (step 1508).
However, the processing shown in FIG. 15 is not performed, and the authentication processing shown in FIG. 10 and FIG.
上記の説明から明らかなように、本実施形態においては、生体画像の折線ベクトル化画像と3値化画像を生成し、本人確認を行うに際しては、記憶手段に予め記憶しておいた確認対象の個人の折線ベクトル化画像における折線数、分岐点数と、新たに撮影した個人の折線ベクトル化画像における折線数、分岐点数を比較し、不一致であった場合には認証失敗とし、一致していた場合にのみ3値化画像の比較処理に進み、3値化画像における黒、白の位置が一致した場合には、折線ベクトル化画像と3値化画像とを合成した画像による比較処理を行うため、確認対象が別人であるかどうかを折線ベクトル化画像の比較結果のみで判定することができ、認証結果を高速で出力することができる。
また、確認対象が本人であった場合には、折線ベクトル化画像と3値化画像とを合成した画像によって判定することになるため、認証精度が高くなるという効果がある。
As is clear from the above description, in this embodiment, a polygonal line vectorized image and a ternary image of a biological image are generated, and when the identity verification is performed, the confirmation target stored in the storage unit in advance is stored. When the number of fold lines and the number of branch points in a personal fold line vectorized image are compared with the number of fold lines and the number of branch points in a newly photographed individual fold line vectorized image, if they do not match, authentication fails and they match. When the black and white positions in the ternary image coincide with each other, the comparison process is performed using an image obtained by combining the polygonal line vectorized image and the ternary image. Whether or not the confirmation target is another person can be determined only by the comparison result of the polygonal line vectorized image, and the authentication result can be output at high speed.
Further, when the subject of confirmation is the person himself / herself, the determination is made based on an image obtained by synthesizing the polygonal line vectorized image and the ternary image.
100 静脈認証装置
101 赤外線光源
102 カメラ
103 指置き台
104 フォトセンサ
105 指
106 A/D変換器
107 画像入力部
108 発光制御部
120 ノートPC
121 I/F
122 CPU
123 メモリ
124 HDD
125 キーボード
126 液晶ディスプレイ
127 スピーカ
DESCRIPTION OF SYMBOLS 100 Vein authentication apparatus 101 Infrared light source 102 Camera 103 Finger rest 104 Photo sensor 105 Finger 106 A / D converter 107 Image input part 108 Light emission control part 120 Notebook PC
121 I / F
122 CPU
123 Memory 124 HDD
125 Keyboard 126 Liquid crystal display 127 Speaker
Claims (1)
前記生体情報を含む画像情報を取得する撮像手段と、
取得した画像情報に対して折線ベクトル化及び3値化して折線ベクトル化画像と3値化画像を生成する生体画像情報生成手段と、
生成された折線ベクトル化画像と3値化画像とに基づき本人確認を行う認証処理手段を備え、
前記認証処理手段が、前記撮像手段によって新たに撮影し、かつ前記生体画像生成手段によって新たに生成した折線ベクトル化画像における折線数及び分岐点数と、記憶手段に予め記憶した確認対象の個人の折線ベクトル化画像における折線数及び分岐点数とが一致するか否かを判定し、一致していた場合には、前記生体画像生成手段によって新たに生成した3値化画像から灰色部分を除いた第1の2値化画像を生成し、記憶手段に予め記憶した確認対象の個人の第2の2値化画像における黒、白の位置関係が一致するか否かを判定し、一致していた場合には前記第1の2値化画像に対して前記生体画像生成手段によって新たに生成した折線ベクトル画像とを合成した第1の合成画像を生成すると共に、前記第2の2値化画像に対し前記記憶手段から読み出した折線ベクトル化画像とを合成した第2の合成画像を生成し、これら生成した第1、第2の合成画像のパターンマッチング処理を行い、両画像における折線数、分岐点数が一致し、かつ黒、白の位置関係が一致していた場合に本人確認成功とする手段をさらに備えることを特徴とする認証システム。 An authentication system that performs identity verification using biometric information related to a human finger vein,
Imaging means for acquiring image information including the biological information;
Biometric image information generating means for generating a polygonal line vectorized image and a ternary image by performing polygonal line vectorization and ternarization on the acquired image information;
An authentication processing means for performing identity verification based on the generated polygonal line vectorized image and the ternary image ;
The authentication processing means captures the number of fold lines and the number of branch points in the polygonal line vectorized image newly captured by the imaging means and newly generated by the biological image generation means, and the individual folding line of the confirmation target stored in the storage means in advance. It is determined whether or not the number of broken lines and the number of branch points in the vectorized image match. If they match, the first is obtained by removing the gray portion from the ternary image newly generated by the biological image generating means. Is generated, and it is determined whether or not the positional relationship between black and white in the second binarized image of the individual to be confirmed stored in advance in the storage means matches. Generates a first synthesized image obtained by synthesizing the first binarized image with a polygonal line vector image newly generated by the biological image generating means, and also generates the first binarized image with respect to the second binarized image. Memory A second combined image is generated by combining the broken line vectorized image read from the stage, and pattern matching processing is performed on the generated first and second combined images so that the number of broken lines and the number of branch points in both images match. And an authentication system , further comprising means for successfully verifying the identity when the positional relationship between black and white matches .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007033580A JP4900701B2 (en) | 2007-02-14 | 2007-02-14 | Authentication system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007033580A JP4900701B2 (en) | 2007-02-14 | 2007-02-14 | Authentication system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008197987A JP2008197987A (en) | 2008-08-28 |
JP4900701B2 true JP4900701B2 (en) | 2012-03-21 |
Family
ID=39756860
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007033580A Expired - Fee Related JP4900701B2 (en) | 2007-02-14 | 2007-02-14 | Authentication system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4900701B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5634933B2 (en) * | 2011-03-31 | 2014-12-03 | 株式会社日立ソリューションズ | Biometric authentication system for detecting pseudo fingers |
JP6196778B2 (en) * | 2013-01-28 | 2017-09-13 | 株式会社日立製作所 | Biometric authentication device and biometric authentication method using the same |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09330408A (en) * | 1996-06-13 | 1997-12-22 | Mitsubishi Electric Corp | Fingerprint collating device |
JP3396680B2 (en) * | 2001-02-26 | 2003-04-14 | バイオニクス株式会社 | Biometric authentication device |
JP2004258963A (en) * | 2003-02-26 | 2004-09-16 | Fujitsu Ltd | High speed id-less collation method and system by multi-stage collation |
-
2007
- 2007-02-14 JP JP2007033580A patent/JP4900701B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2008197987A (en) | 2008-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6650946B2 (en) | System and method for performing fingerprint-based user authentication using images captured with a mobile device | |
JP7242528B2 (en) | Systems and methods for performing fingerprint user authentication using images captured using mobile devices | |
US9613428B2 (en) | Fingerprint authentication using stitch and cut | |
JP6467852B2 (en) | Biological information correction apparatus, biological information correction method, and biological information correction computer program | |
WO2007004498A1 (en) | Iris authentication device, iris authentication method, and iris authentication program | |
JP2011159035A (en) | Biometric authentication apparatus, biometric authentication method and program | |
US20100239128A1 (en) | Registering device, checking device, program, and data structure | |
JP2009086951A (en) | Registration device, registration method, authentication device and authentication method | |
WO2008143271A1 (en) | Registering device, checking device, program, and data structure | |
JP2008198083A (en) | Individual identification device | |
JP2005259049A (en) | Face collation device | |
JP4900701B2 (en) | Authentication system | |
JP6629150B2 (en) | Palm detection device, palm print authentication device, palm detection method, and program | |
JP2014142881A (en) | Image conversion device, image conversion method, biometric authentication device and biometric authentication method, and computer program for image conversion | |
WO2021029091A1 (en) | Information processing system and information processing method | |
JP6621383B2 (en) | Personal authentication device | |
JP2008046677A (en) | Biological information reading device, biological information reading method and biological information reading program | |
US8483449B2 (en) | Registration device, checking device, program, and data structure | |
JP6798285B2 (en) | Biometric device, biometric method and program | |
JP2006072555A (en) | Biological information image correcting device | |
JP2007233461A (en) | Biometric authentication system | |
JP5079727B2 (en) | Method and apparatus for creating registered vein image in vein authentication apparatus | |
JP5634933B2 (en) | Biometric authentication system for detecting pseudo fingers | |
WO2023229052A1 (en) | Authentication system, control device, and computer program | |
JP2016057850A (en) | Biometric authentication device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090716 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111115 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111221 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111221 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150113 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |