WO2012014300A1 - 個人認証装置及び個人認証方法 - Google Patents

個人認証装置及び個人認証方法 Download PDF

Info

Publication number
WO2012014300A1
WO2012014300A1 PCT/JP2010/062775 JP2010062775W WO2012014300A1 WO 2012014300 A1 WO2012014300 A1 WO 2012014300A1 JP 2010062775 W JP2010062775 W JP 2010062775W WO 2012014300 A1 WO2012014300 A1 WO 2012014300A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
camera
authentication
data
shape
Prior art date
Application number
PCT/JP2010/062775
Other languages
English (en)
French (fr)
Inventor
長谷川 誠
英三郎 岩田
Original Assignee
ユニバーサルロボット株式会社
学校法人近畿大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ユニバーサルロボット株式会社, 学校法人近畿大学 filed Critical ユニバーサルロボット株式会社
Priority to PCT/JP2010/062775 priority Critical patent/WO2012014300A1/ja
Publication of WO2012014300A1 publication Critical patent/WO2012014300A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints

Definitions

  • the present invention relates to a technique for authenticating an individual using biometric information. More specifically, the present invention relates to a technique for performing authentication using template data acquired in advance and authentication data generated from an image of a person to be authenticated.
  • Patent Documents 1 and 2 listed below describe techniques that use a vein shape that can be photographed on the wrist or back of the hand for biometric authentication. Authentication using vein images has the advantage that impersonation is difficult.
  • the main object of the present invention is to provide a technology capable of easily performing personal authentication with high accuracy using information obtained from the hand of the person to be authenticated.
  • the present invention can be described as the following items.
  • An image acquisition unit includes a first camera and a second camera, Between the first camera and the second camera, a gap larger than the thickness of the person to be authenticated is formed, Furthermore, the first camera and the second camera are arranged to face each other, whereby a first image of the palm is obtained by the first camera, and a second image of the back of the hand is obtained by the second camera.
  • the storage unit stores first template data and second template data for authentication
  • the authentication unit performs the following processing: (1) Processing for generating first authentication data from the shape of the palm print in the first image acquired by the first camera; (2) Processing for generating second authentication data from the shape of the vein in the second image acquired by the second camera; (3) Processing for authenticating an individual using the similarity between the first authentication data and the first template data and the similarity between the second authentication data and the second template data.
  • (Item 2) The personal authentication device according to item 1 or 2, wherein the authentication unit uses relative position information of one of the first image and the second image in the personal authentication.
  • (Item 4) The personal authentication device according to any one of items 1 to 3, wherein the first camera and the second camera are configured by a camera that captures natural light.
  • a personal authentication method characterized by comprising the following steps: (1) acquiring a first image of the palm of the person to be authenticated and a second image of the back of the hand of the person to be authenticated substantially simultaneously with a camera; (2) generating first authentication data from the shape of the palm print in the first image; (3) generating second authentication data from the shape of the vein in the second image; (4) Using the similarity between the first authentication data and the first template data for the palmprint shape, and the similarity between the second authentication data and the second template data for the vein shape, The step of authenticating an individual.
  • the present invention it is possible to easily perform personal authentication with high accuracy by using the palm print obtained from the palm of the person to be authenticated and the information of the vein shape obtained from the back of the hand.
  • FIG. 3 is a schematic plan view of FIG. 2.
  • This apparatus includes an image acquisition unit 1, a storage unit 2, and an authentication unit 3.
  • the image acquisition unit 1 includes a first camera 11, a second camera 12, and a control unit 13.
  • a gap larger than the thickness of the person's hand 6 is formed between the first camera 11 and the second camera 12. That is, in the present embodiment, an open hand can be inserted or passed between the first camera 11 and the second camera 12 (see FIG. 3). However, at this time, the palm or back of the hand and the optical axis of each camera are substantially perpendicular.
  • first camera 11 and the second camera 12 are arranged to face each other. Further, in the present embodiment, the optical axes of the two are substantially matched.
  • the first camera 11 can acquire the first image of the palm and the second camera can acquire the second image of the back of the hand.
  • both the first camera 11 and the second camera 12 of the present embodiment are cameras that capture natural light.
  • the control unit 3 drives the first camera 11 and the second camera 12 using a predetermined trigger.
  • the control unit 3 drives the first camera 11 and the second camera 12 simultaneously when a predetermined trigger occurs, and acquires the first image and the second image substantially simultaneously.
  • the predetermined trigger is, for example, an output from a sensor (not shown) that detects that the hand of the person to be authenticated is at a predetermined position. In short, an appropriate image of the palm and the back of the hand is acquired. Any trigger can be used.
  • the storage unit 2 stores authentication first template data and second template data.
  • the storage unit 2 includes various recording media that can be used by a computer.
  • the storage unit 2 may be a medium that can be used via, for example, the Internet or a LAN.
  • the authentication unit 3 is configured to perform the following processing: (1) Processing for generating first authentication data from the shape of the palm print in the first image acquired by the first camera 11; (2) Processing for generating second authentication data from the vein shape in the second image acquired by the second camera 12; (3) Processing for authenticating an individual using the similarity between the first authentication data and the first template data and the similarity between the second authentication data and the second template data.
  • Step SA-1 in FIG. 4 a method for acquiring template data, which is a premise of collation, will be described with reference to FIGS.
  • a method for generating template data for the palm will be described with reference to FIG.
  • a palm print is a print represented by fine irregularities on the palm of the hand, and has a characteristic shape that varies depending on the individual.
  • an edge image representing a palm print is generated from the original image by applying gray scale and a Laplacian filter to the original image. Since the generation of such an edge image itself may be the same as in the conventional method, detailed description thereof is omitted.
  • an amplitude-limited logarithmic Radon transform image can be obtained for the palm.
  • the “amplitude limited logarithmic Radon transformed image” of the present embodiment corresponds to the LACR autocorrelation domain in Japanese Patent Laid-Open No. 2008-250610.
  • the amplitude-limited logarithmic Radon transform image for the palm corresponds to the first template data for authentication.
  • the generated amplitude limited logarithmic Radon transform image is stored in the storage unit 2.
  • the original image is deleted from the system at this stage. Thereby, it is possible to prevent the original image from flowing out from the system.
  • the vein image of the back of the hand can be acquired by converting the color space of the original image into the CMYK color space and performing gray scale conversion.
  • vein characteristics tend to appear in a cyan signal in the CMYK color space. Therefore, by using the CMYK color space, even when the original image is obtained by natural light, the vein features can be acquired relatively accurately.
  • the RGB color space is assumed as the color space of the original image, this is not restrictive.
  • the color space conversion is not essential.
  • the authentication unit 3 acquires authentication data.
  • the authentication data acquisition flow may be the same as the template data acquisition method in FIGS. 5 and 6 in principle.
  • the user inserts his / her hand into the space between the first camera 11 and the second camera 12 shown in FIG. Then, in accordance with a command from the control unit 13, the images of the palm and the back of the hand are acquired as original images by these cameras. Authentication data is generated using this original image.
  • the acquisition of authentication data may be the same as the processing in FIG. 5 and FIG. 6 except that the image of the palm and back of the hand at the time of authentication of the person to be authenticated (target person) is used as the original image.
  • an amplitude limited logarithmic Radon transform image (corresponding to the first authentication data) for the palm of the person to be authenticated
  • an amplitude limited logarithmic Radon transform image (corresponding to the second authentication data) for the back of the hand of the person to be authenticated Can be obtained.
  • Step SD-1 in FIG. 8 First, the first authentication data and the first template data for the palm are prepared by the processing described above.
  • Step SD-2 in FIG. 8 Next, the similarity between the two is calculated.
  • An overview of the similarity calculation is shown in FIG. As shown here, in this embodiment, the similarity is calculated by a phase-only correlation between the first authentication data and the first template data. Since the method described in Japanese Patent Application Laid-Open No. 2008-250610 can be applied to such a similarity calculation method, further detailed description is omitted.
  • Steps SD-3 to SD-4 in FIG. 8 Next, the similarity is compared with a predetermined threshold, and if the similarity is less than the threshold, authentication is denied as no identity. If the similarity is greater than or equal to the threshold value, the process proceeds to the next step.
  • the threshold value may be statically specified, but may be dynamically specified with reference to some condition.
  • Steps SD-6 to SD-9 in FIG. 8 In the same manner as described above, the degree of similarity between the second authentication data and the second template data is compared with a predetermined threshold value. If the degree of similarity is less than the threshold value, there is no identity. Deny authentication. If the similarity is greater than or equal to the threshold value, the identification is completed.
  • the authentication unit 3 of the present embodiment can authenticate an individual using the relative position information of the other of the first image and the second image. Note that the method for calculating the position data in the matching can be the same as the technique described in Japanese Patent Application Laid-Open No. 2008-250610, and detailed description thereof will be omitted.
  • the authentication unit 3 can authenticate an individual using the relative size information of the other of the first image and the second image.
  • the first camera 11 and the second camera 12 are used for photographing natural light, and further, the palm and the back of the hand are photographed simultaneously by the first camera 11 and the second camera.
  • Authentication can be performed simply by passing the hand.
  • the first image and the second image for authentication can be acquired by simultaneously photographing the back of the hand and the palm of the hand with both cameras at a specified position while passing the hand in a direction perpendicular to the paper surface in FIG. it can.
  • Patent Document 3 for example, many hands are inserted into a closed space.
  • this embodiment has an advantage that it can be used not only for such a staying type but also for a passing type that allows only a hand to pass through, so that it can be used for quickly authenticating a large number of people.
  • a passing type it is preferable to open the space between the first camera 11 and the second camera 12 as wide as possible. For example, if the entire surface and both side surfaces of this space are opened to facilitate the passage of the hand, the person to be authenticated can be quickly authenticated while moving.
  • the verification procedure shown in FIG. 8 can be changed as appropriate.
  • the verification with the palm print is passed, the verification with the vein shape is further performed.
  • the image acquisition unit 1, the storage unit 2, and the authentication unit 3 may exist discretely. If they exist in a discrete manner, necessary data can be transferred via a network, for example.
  • each function in each part can exist discretely.
  • each functional element in the present embodiment or a part thereof can be realized by using grid computing or cloud computing.
  • the first camera 11 and the second camera 12 are opposed to each other, but the optical axes are not necessarily matched. In short, as long as the above-described operation is possible, a slight positional deviation is possible in the direction orthogonal to the optical axis.
  • the shooting timings of the first camera 11 and the second camera 12 do not need to be simultaneously in a strict sense, and it is possible to slightly shift the shooting timing according to the camera position. In short, as long as the above-described operation is possible, the shooting timings of both cameras can be slightly shifted.

Abstract

本発明は、被認証者の手から得られる情報を用いて、高い精度での個人認証を簡便に行うことが可能な技術を提供するものである。第1カメラ11と第2カメラ12とは、対向して配置される。第1カメラ11によって手の平についての第1画像を取得する。第2カメラ12によって手の甲についての第2画像を取得する。記憶部2は、認証用の第1テンプレートデータと第2テンプレートデータとを格納する。認証部3は、次の処理を行う。(1)第1カメラ11によって取得された第1画像における掌紋の形状から、第1認証用データを生成する処理。(2)第2カメラ12によって取得された第2画像における静脈の形状から、第2認証用データを生成する処理。(3)第1認証用データと第1テンプレートデータとの類似度、及び、第2認証用データと第2テンプレートデータとの類似度を用いて、個人の認証を行う処理。

Description

個人認証装置及び個人認証方法
 本発明は、生体情報を用いて個人を認証するための技術に関するものである。より詳しくは、本発明は、予め取得したテンプレートデータと、被認証者の画像から生成した認証データとを用いて認証を行う技術に関するものである。
 下記特許文献1及び2には、生体認証のために、手首や手の甲などにおいて撮影できる静脈の形状を用いる技術が記載されている。静脈画像を用いた認証は、なりすましが難しいという利点がある。
 一方で、静脈は、皮膚の下に隠れている部分であるため、鮮明な画像を得ることが難しい。そこで、静脈画像の解像度を上げるために、血液で吸収される赤外線を用いる技術が提案されている。しかしながら、赤外線を使う場合は、赤外線発光部を設ける必要がある。さらに、赤外線検出部においては、自然光がノイズとして作用するため、遮光のための密閉空間が必要となり、装置の高コスト化を招く。さらには、密閉空間内に手を差し込むこととなって、使い勝手が悪いという問題もある。
 また、下記特許文献3に示されるように、指先の指紋と手の甲の静脈形状との両方を用いた生体認証も提案されている。ここで、認証のために指紋を用いた場合には、指紋画像を検出するために、透明板に指の表面を押し付ける必要がある。しかしながら、指を押し付けるという接触型の認証は、使用者への心理的負担が大きいという問題がある。つまり、この技術では、静脈認証における非接触撮影の利点を指紋認証が阻害している。さらに、使用者の手の大きさについては、個人差が非常に大きいために、指紋画像と静脈画像とを一緒に取得できるような構成を提供することは難しいという問題もある。
特開2006-48667号公報 特開2007-233981号公報 特開2004-54698号公報
 本発明の主な目的は、被認証者の手から得られる情報を用いて、高い精度での個人認証を簡便に行うことが可能な技術を提供することである。
 本発明は、以下の項目のように記載することができる。
 (項目1)
 画像取得部と、記憶部と、認証部とを備えており、
 前記画像取得部は、第1カメラと、第2カメラとを備えており、
 前記第1カメラと前記第2カメラとの間には、被認証者の手の厚さよりも大きな間隙が形成されており、
 さらに、前記第1カメラと前記第2カメラとは、対向して配置されることにより、前記第1カメラによって前記手の平についての第1画像を取得し、前記第2カメラによって前記手の甲についての第2画像を取得する構成となっており、
 さらに、前記第1カメラと前記第2カメラとは、前記第1画像及び前記第2画像を、実質的に同時に取得する構成となっており、
 前記記憶部は、認証用の第1テンプレートデータと第2テンプレートデータとを格納しており、
 前記認証部は、次の処理を行うことを特徴とする個人認証装置:
(1)前記第1カメラによって取得された前記第1画像における掌紋の形状から、第1認証用データを生成する処理;
(2)前記第2カメラによって取得された前記第2画像における静脈の形状から、第2認証用データを生成する処理;
(3)前記第1認証用データと前記第1テンプレートデータとの類似度、及び、前記第2認証用データと前記第2テンプレートデータとの類似度を用いて、個人の認証を行う処理。
 (項目2)
 さらに、前記認証部は、個人の認証において、前記第1画像及び前記第2画像のうちの一方に対する他方の相対的な位置情報を用いる、項目1又は2に記載の個人認証装置。
 (項目3)
 さらに、前記認証部は、個人の認証において、前記第1画像及び前記第2画像のうちの一方に対する他方の相対的な大きさ情報を用いる、項目1に記載の個人認証装置。
 (項目4)
 前記第1カメラ及び前記第2カメラは、自然光を撮影するカメラによって構成されている、項目1~3のいずれか1項に記載の個人認証装置。
 (項目5)
 以下のステップを備えることを特徴とする個人認証方法:
(1)被認証者の手の平についての第1画像と、前記被認証者の手の甲についての第2画像とを、カメラにより実質的に同時に取得するステップ;
(2)前記第1画像における掌紋の形状から、第1認証用データを生成するステップ;
(3)前記第2画像における静脈の形状から、第2認証用データを生成するステップ;
(4)前記第1認証用データと、掌紋形状についての第1テンプレートデータとの類似度、及び、前記第2認証用データと、静脈形状についての第2テンプレートデータとの類似度を用いて、個人の認証を行うステップ。
 (項目6)
 個人認証のための以下のステップをコンピュータに実行させるためのコンピュータプログラム:
(1)前記コンピュータが、被認証者の手の平についての第1画像と、前記被認証者の手の甲についての第2画像とを、カメラにより実質的に同時に取得させるステップ;
(2)前記コンピュータが、前記第1画像における掌紋の形状から、第1認証用データを生成するステップ;
(3)前記コンピュータが、前記第2画像における静脈の形状から、第2認証用データを生成するステップ;
(4)前記コンピュータが、前記第1認証用データと、掌紋形状についての第1テンプレートデータとの類似度、及び、前記第2認証用データと、静脈形状についての第2テンプレートデータとの類似度を用いて、個人の認証を行うステップ。
 本発明によれば、被認証者の手の平から得られる掌紋と、手の甲から得られる静脈形状という情報を併せて用いることにより、高い精度での個人認証を簡便に行うことが可能となる。
本発明の一実施形態に係る個人認証装置の概略的な構成を説明するためのブロック図である。 図1の認証装置を構成するための画像取得部の具体的な構成例を示す説明図である。 図2の概略的な平面図である。 個人認証の基本的な手順を説明するためのフローチャートである。 掌紋形状についてのテンプレートデータと認証用データを生成する手順を説明するためのフローチャートである。 静脈形状についてのテンプレートデータと認証用データを生成する手順を説明するためのフローチャートである。 掌紋画像の一例を示す図である。 照合についての手順を説明するためのフローチャートである。 類似度を算出する手順を説明するためのフローチャートである。
 以下、本発明の一実施形態を、添付図面を参照しながら説明する。
 (本実施形態に係る認証装置の構成)
 まず、本発明の一実施形態に係る認証装置の構成を、図1に基づいて説明する。この装置は、画像取得部1と、記憶部2と、認証部3とを備えている。
 (画像取得部)
 画像取得部1は、第1カメラ11と、第2カメラ12と、制御部13とを備えている。
 第1カメラ11と第2カメラ12との間には、図2に示されるように、被認証者の手6の厚さよりも大きな間隙が形成されている。つまり、本実施形態では、第1カメラ11と第2カメラ12との間に、開いた手を差し入れる、又は通過させることができるようになっている(図3参照)。ただし、このとき、手の平あるいは手の甲と各カメラの光軸とは、ほぼ垂直となる。
 さらに、第1カメラ11と第2カメラ12とは、対向して配置されている。さらに、本実施形態では、両者の光軸は、ほぼ一致させられている。
 この構成により、本実施形態では、第1カメラ11によって手の平についての第1画像を取得し、第2カメラによって手の甲についての第2画像を取得できるようになっている。
 また、本実施形態の第1カメラ11及び第2カメラ12は、いずれも、自然光を撮影するカメラとなっている。
 制御部3は、第1カメラ11と第2カメラ12を、所定のトリガを用いて駆動するものである。制御部3は、この実施形態では、所定のトリガが発生したときに、第1カメラ11と第2カメラ12とを同時に駆動して、第1画像及び前記第2画像を、実質的に同時に取得する構成となっている。ここで、所定のトリガとは、例えば、被認証者の手が既定位置にあることを検知するセンサ(図示せず)からの出力であるが、要するに、手の平及び手の甲についての適正な画像を取得できるトリガであればよい。
 (記憶部)
 記憶部2は、認証用の第1テンプレートデータと第2テンプレートデータとを格納している。具体的には、記憶部2は、コンピュータで利用可能な各種の記録媒体によって構成されている。また、記憶部2は、例えばインターネットやLANを介して利用可能な媒体であってもよい。
 (認証部)
 認証部3は、次の処理を行う構成となっている:
(1)第1カメラ11によって取得された第1画像における掌紋の形状から、第1認証用データを生成する処理;
(2)第2カメラ12によって取得された第2画像における静脈の形状から、第2認証用データを生成する処理;
(3)第1認証用データと第1テンプレートデータとの類似度、及び、第2認証用データと第2テンプレートデータとの類似度を用いて、個人の認証を行う処理。
 認証部3における詳しい動作は後述する。
 (本実施形態における個人認証方法)
 次に、前記した個人認証装置を用いた個人認証方法の実施形態を、主に図4~図9を参照しながら説明する。
 (テンプレートデータの取得:図4のステップSA-1)
 まず、照合の前提となる、テンプレートデータの取得の方法を、図5及び図6を参照しながら説明する。はじめに、図5を参照しながら、手の平についてのテンプレートデータを生成する方法を説明する。
 (図5のSB-1)
 手の平についての原画像を取得する。原画像の取得は、認証時における画像取得と同じ条件とすることが好ましい。よって、例えば、図2及び図3に示す装置を用いて、手の平についての原画像を取得することができる。掌紋についての原画像の一例を図7に示す。掌紋とは、手の平の微細な凹凸によって表される紋であり、個人によって異なる特徴的な形状となっている。
 (図5のSB-2)
 ついで、原画像に対してグレースケール化及びラプラシアンフィルタを適用することにより、原画像から、掌紋を表すエッジ画像を生成する。このようなエッジ画像の生成自体は従来法と同様でよいので、詳しい説明は省略する。
 (図5のSB-3~SB-5)
 ついで、エッジ画像に対して、ラドン変換(SB-3)、その結果を動径方向に沿ってフーリエ変換することによる振幅成分の抽出(SB-4)、及び動径についての対数マッピング(SB-5)を行う。これらの操作においては、本願出願人らによる特開2008-250610号に記載の方法を基本的に適用できるので、この文献の説明を援用することにより、これ以上詳しい説明は省略する。なお、特開2008-250610号では、「動径方向の自己相関の算出」を行っているが、本実施形態では、「振幅成分の抽出」を行っている。これらは、いずれも被写体の平行移動における耐性を提供するための操作である。「振幅成分の抽出」自体は、フーリエ変換に基づいて実施できるので、これについても詳しい説明は省略する。
 (図5のSB-6)
 前記の操作の結果として、手の平について、振幅限定対数ラドン変換画像を得ることができる。なお,本実施形態の「振幅限定対数ラドン変換画像」とは、特開2008-250610号におけるLACR自己相関ドメインに相当する。手の平についての振幅限定対数ラドン変換画像は、認証用の第1テンプレートデータに相当する。生成された振幅限定対数ラドン変換画像は、記憶部2に格納される。また、本実施形態では、この段階で、原画像をシステムから削除する。これにより、システムからの原画像の流出を防ぐことができる。
 (図6のSC-1)
 同様にして、手の甲についても、原画像を取得する。
 (図6のSC-2)
 ついで、原画像の色空間をCMYK色空間に変換し、グレースケール化を行うことにより、手の甲についての静脈画像を取得することができる。本発明者らの知見によれば、静脈の特徴は、CMYK色空間におけるシアン信号に現れる傾向がある。そこで、CMYK色空間を用いることで、原画像が自然光によって得られた場合であっても、静脈の特徴を比較的正確に取得することができる。なお、ここでは、原画像の色空間としてRGB色空間を仮定しているが、これに制約されるものではない。また、CMYK色空間を使わずに静脈の特徴を抽出できる場合には、色空間の変換は必須ではない。
 (図6のSC-3~SC-6)
 以降の操作は、図5の例と同様である。このようにして、静脈について、振幅限定対数ラドン変換画像を得ることができる。手の甲についての振幅限定対数ラドン変換画像は、認証用の第2テンプレートデータに相当する。この振幅限定対数ラドン変換画像も、記憶部2に格納される。
 (認証用データの取得:図4のステップSA-2)
 ついで、認証部3により、認証用データを取得する。認証用データの取得の流れは、図5及び図6におけるテンプレートデータの取得方法と原則として同じでよい。
 すなわち、まず、使用者は、認証時において、図2に示される第1カメラ11と第2カメラ12との間の空間に、手を差し入れる。そして、制御部13の指令により、これらのカメラによって、手の平及び手の甲の画像を原画像として取得する。この原画像を利用して、認証用データを生成する。
 認証用データの取得においては、原画像として、被認証者(対象者)の認証時における手の平及び手の甲の画像が使われている点以外は、図5及び図6の処理と同様で良い。これにより、被認証者の手の平についての振幅限定対数ラドン変換画像(第1認証用データに対応)と、被認証者の手の甲についての振幅限定対数ラドン変換画像(第2認証用データに対応)とを得ることができる。
 (照合:図4のステップSA-3)
 ついで、認証部3における照合の処理を、図8及び図9を参照しながら説明する。
 (図8のステップSD-1)
 まず、前記した処理により、手の平についての第1認証用データと第1テンプレートデータとを用意する。
 (図8のステップSD-2)
 ついで、両者間の類似度を計算する。類似度の計算の概要を図9に示した。ここに示されるように、類似度は、この実施形態においては、第1認証用データと第1テンプレートデータとの位相限定相関により算出される。このような類似度の算出方法も、特開2008-250610号に記載の方法を適用できるので、これ以上詳しい説明は省略する。
 (図8のステップSD-3~SD-4)
 ついで、類似度と、既定のしきい値とを比較し、類似度がしきい値に満たないときは同一性なしとして認証を否定する。類似度がしきい値以上であれば次のステップに進む。なお、しきい値は、静的に特定されていてもよいが、何らかの条件を参照して動的に特定されるものであってもよい。
 (図8のステップSD-5)
 ついで、図6に示した処理により、手の甲についての第2認証用データと第2テンプレートデータとを用意する。
 (図8のステップSD-6~SD-9)
 そして、前記と同様にして、第2認証用データと第2テンプレートデータとの間における類似度と、既定のしきい値とを比較し、類似度がしきい値に満たないときは同一性なしとして認証を否定する。類似度がしきい値以上であれば同定完了とする。
 本実施形態では、手の平における掌紋と、手の甲における静脈画像とを併用して認証を行っているので、以下の利点を有する。
 (1)掌紋は、特徴となる形状が多いので、本人認識における判別精度が高い。しかしながら、掌紋は、手の外形形状であるために、複写が比較的に容易である。一方、静脈画像は、これとは逆に、特徴となる形状が少ないために判別精度は低いものの、手の内部における形状であるために、複写が難しい。特に、切断した手では静脈画像は取得できない。
 したがって、掌紋と静脈画像とを併用することにより、判別精度を高く保ちつつ、なりすましを防止することができる。
 (2)また、掌紋は、特徴となる形状が多いため、テンプレートデータとのマッチングにおいて、相対的な位置ずれの情報を取得しやすい。一方、静脈画像は、形状が単純であるために、このような情報は取得しにくい。そこで、掌紋を用いたマッチングで得た位置情報を、静脈画像を用いたマッチングに利用することにより、静脈画像におけるマッチングの精度を向上させることができる。特に本実施形態では、掌紋と静脈画像とを、上下のカメラによって同時に撮影しているので、両者の平面内での位置は一致していると仮定できる。このため、掌紋画像での位置情報を利用した静脈画像のマッチングを比較的に正確に行うことができる。このように、本実施形態の認証部3は、第1画像及び第2画像の一方に対する他方の相対的な位置情報を用いて個人の認証を行うことができる。なお、マッチングにおいて位置データを算出する方法は、前記した特開2008-250610号の技術と同様とすることができるので、これについての詳しい説明は省略する。
 (3)さらに、本実施形態では、掌紋と静脈画像とを、上下のカメラによって同時に撮影しているので、掌紋でのマッチングで得られた位置情報と、静脈画像でのマッチングで得られた位置情報とが一致しないときは認証を否定することができる。これからも、認証精度を高めることができる。
 (4)さらに、本実施形態では、掌紋と静脈画像とを、上下のカメラによって同時に撮影しているので、一方の画像が拡大しているときは、他方の画像は、縮小していることになる。これは、これらの画像を撮影するカメラが、既定の距離を置いて、対向して配置されているからである。しかも、両カメラ間の距離を用いて、一方の画像の拡大率から、他方の画像の縮小率を算出することができる。したがって、本実施形態では、この両画像間の拡大-縮小率の関係を認証に用いることができる。例えば、何らかの原因により、掌紋画像と静脈画像のコピーが存在したと仮定し、それらのコピーを貼りあわせたとする。この場合には、前記した拡大-縮小の関係は満足しないので、この関係を認証に用いることにより、なりすましを防止することができる。このように、本実施形態の認証部3は、第1画像及び第2画像の一方に対する他方の相対的な大きさ情報を用いて個人の認証を行うことが可能である。
 (5)さらに、本実施形態では、第1カメラ11及び第2カメラ12として自然光を撮影するものを用い、さらに、第1カメラ11及び第2カメラにより手の平及び手の甲を同時に撮影するものとしたので、手を通過させるだけで認証を行うことができる。例えば、図2において紙面に垂直な方向に手を通過させつつ、規定位置において両カメラで手の甲及び手の平を同時に撮影することで、認証用の第1画像と第2画像とをそれぞれ取得することができる。手を用いた従来のバイオメトリクスでは、例えば特許文献3に示されるように、閉鎖された空間内に手を差し入れるものが多い。これでは、被認証者が所定の位置に滞留する必要が生じるため、例えば空港のゲートのように多人数を迅速に認証する用途には使用しづらい。これに対して、本実施形態では、このような滞留型ではなく、手を通過させるだけの通過型とすることができるので、多人数を迅速に認証する用途にも使用できるという利点がある。なお、このような通過型とする場合は、第1カメラ11と第2カメラ12との間の空間をできるだけ広く外部に開放することが好ましい。例えば、この空間の全面と両側面とを開放することにより、手の通過を容易とすれば、被認証者は移動しながら迅速な認証を受けることが可能になる。
 (6)また、本実施形態では、各テンプレートデータとして、振幅限定対数ラドン変換画像を用いている。この場合、テンプレートデータを元の画像に逆変換することは一般にはできない。このため、本実施形態では、万一テンプレートデータが流出しても、その情報が悪用されるおそれが極めて低いという利点もある。
 なお、本発明の範囲は、前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更を加え得ることはもちろんである。
 例えば、図8に示した照合の手順は、適宜に変更が可能である。図8では、掌紋での照合に合格した場合に、さらに静脈形状での照合を行っている。これに対して、例えば、掌紋での照合判定に合格した場合は直ちに同定し、ここで否定された場合にさらに静脈形状で照合して、そこで合格した場合にも同定するという方法も可能である。
 また、画像取得部1、記憶部2及び認証部3は、離散して存在しても良い。離散して存在する場合には、例えばネットワークを介して必要なデータを受け渡すことができる。各部の内部における各機能も、同様に、離散して存在することが可能である。例えば、グリッドコンピューティングやクラウドコンピューティングを用いて、本実施形態における各機能要素あるいはその一部分を実現することも可能である。
 さらに、前記した実施形態では、第1カメラ11と第2カメラ12とを対向させているが、必ずしも光軸が一致している必要はない。要するに、前記した動作が可能な範囲であれば、光軸に直交する方向において多少の位置ずれは可能である。
 同様に、第1カメラ11と第2カメラ12との撮影タイミングについても、厳密な意味で同時である必要はなく、カメラ位置に応じて撮影タイミングを多少ずらすことは可能である。要するに、前記した動作が可能な範囲であれば、両カメラにおける撮影タイミングを若干ずらすこともできる。
 1 画像取得部
 11 第1カメラ
 12 第2カメラ
 13 制御部
 2 記憶部
 3 認証部
 6 被認証者の手

Claims (6)

  1.  画像取得部と、記憶部と、認証部とを備えており、
     前記画像取得部は、第1カメラと、第2カメラとを備えており、
     前記第1カメラと前記第2カメラとの間には、被認証者の手の厚さよりも大きな間隙が形成されており、
     さらに、前記第1カメラと前記第2カメラとは、対向して配置されることにより、前記第1カメラによって前記手の平についての第1画像を取得し、前記第2カメラによって前記手の甲についての第2画像を取得する構成となっており、
     さらに、前記第1カメラと前記第2カメラとは、前記第1画像及び前記第2画像を、実質的に同時に取得する構成となっており、
     前記記憶部は、認証用の第1テンプレートデータと第2テンプレートデータとを格納しており、
     前記認証部は、次の処理を行うことを特徴とする個人認証装置:
    (1)前記第1カメラによって取得された前記第1画像における掌紋の形状から、第1認証用データを生成する処理;
    (2)前記第2カメラによって取得された前記第2画像における静脈の形状から、第2認証用データを生成する処理;
    (3)前記第1認証用データと前記第1テンプレートデータとの類似度、及び、前記第2認証用データと前記第2テンプレートデータとの類似度を用いて、個人の認証を行う処理。
  2.  さらに、前記認証部は、個人の認証において、前記第1画像及び前記第2画像のうちの一方に対する他方の相対的な位置情報を用いる、請求項1又は2に記載の個人認証装置。
  3.  さらに、前記認証部は、個人の認証において、前記第1画像及び前記第2画像のうちの一方に対する他方の相対的な大きさ情報を用いる、請求項1に記載の個人認証装置。
  4.  前記第1カメラ及び前記第2カメラは、自然光を撮影するカメラによって構成されている、請求項1~3のいずれか1項に記載の個人認証装置。
  5.  以下のステップを備えることを特徴とする個人認証方法:
    (1)被認証者の手の平についての第1画像と、前記被認証者の手の甲についての第2画像とを、カメラにより実質的に同時に取得するステップ;
    (2)前記第1画像における掌紋の形状から、第1認証用データを生成するステップ;
    (3)前記第2画像における静脈の形状から、第2認証用データを生成するステップ;
    (4)前記第1認証用データと、掌紋形状についての第1テンプレートデータとの類似度、及び、前記第2認証用データと、静脈形状についての第2テンプレートデータとの類似度を用いて、個人の認証を行うステップ。
  6.  個人認証のための以下のステップをコンピュータに実行させるためのコンピュータプログラム:
    (1)前記コンピュータが、被認証者の手の平についての第1画像と、前記被認証者の手の甲についての第2画像とを、カメラにより実質的に同時に取得させるステップ;
    (2)前記コンピュータが、前記第1画像における掌紋の形状から、第1認証用データを生成するステップ;
    (3)前記コンピュータが、前記第2画像における静脈の形状から、第2認証用データを生成するステップ;
    (4)前記コンピュータが、前記第1認証用データと、掌紋形状についての第1テンプレートデータとの類似度、及び、前記第2認証用データと、静脈形状についての第2テンプレートデータとの類似度を用いて、個人の認証を行うステップ。
PCT/JP2010/062775 2010-07-29 2010-07-29 個人認証装置及び個人認証方法 WO2012014300A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/062775 WO2012014300A1 (ja) 2010-07-29 2010-07-29 個人認証装置及び個人認証方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/062775 WO2012014300A1 (ja) 2010-07-29 2010-07-29 個人認証装置及び個人認証方法

Publications (1)

Publication Number Publication Date
WO2012014300A1 true WO2012014300A1 (ja) 2012-02-02

Family

ID=45529545

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/062775 WO2012014300A1 (ja) 2010-07-29 2010-07-29 個人認証装置及び個人認証方法

Country Status (1)

Country Link
WO (1) WO2012014300A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013137078A1 (ja) * 2012-03-16 2013-09-19 Iwata Eizaburo 個人認証方法及び個人認証装置
WO2013136553A1 (ja) 2012-03-16 2013-09-19 ユニバーサルロボット株式会社 個人認証方法及び個人認証装置
WO2018185992A1 (ja) * 2017-04-05 2018-10-11 株式会社日立製作所 生体認証装置、及び方法
WO2019131858A1 (ja) 2017-12-28 2019-07-04 株式会社ノルミー 個人認証方法及び個人認証装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006120026A (ja) * 2004-10-25 2006-05-11 Hitachi Eng Co Ltd 静脈認証装置および静脈認証方法
JP2009175810A (ja) * 2008-01-21 2009-08-06 Nec Corp 認証用撮像装置、認証用撮像方法、および認証用撮像プログラム
JP2010152706A (ja) * 2008-12-25 2010-07-08 Fujitsu Ltd 生体認証装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006120026A (ja) * 2004-10-25 2006-05-11 Hitachi Eng Co Ltd 静脈認証装置および静脈認証方法
JP2009175810A (ja) * 2008-01-21 2009-08-06 Nec Corp 認証用撮像装置、認証用撮像方法、および認証用撮像プログラム
JP2010152706A (ja) * 2008-12-25 2010-07-08 Fujitsu Ltd 生体認証装置

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013137078A1 (ja) * 2012-03-16 2013-09-19 Iwata Eizaburo 個人認証方法及び個人認証装置
WO2013136553A1 (ja) 2012-03-16 2013-09-19 ユニバーサルロボット株式会社 個人認証方法及び個人認証装置
CN104246820A (zh) * 2012-03-16 2014-12-24 环球机器人株式会社 个人认证方法以及个人认证装置
KR101517371B1 (ko) 2012-03-16 2015-05-04 유니버셜 로봇 가부시키가이샤 개인인증방법 및 개인인증장치
EP2838068A4 (en) * 2012-03-16 2016-04-13 Universal Robot Kabushiki Kaisha METHOD AND DEVICE FOR PERSONAL AUTHENTICATION
US9594891B2 (en) 2012-03-16 2017-03-14 Universal Robot Kabushiki Kaisha Personal authentication method and personal authentication device
WO2018185992A1 (ja) * 2017-04-05 2018-10-11 株式会社日立製作所 生体認証装置、及び方法
JP2018180660A (ja) * 2017-04-05 2018-11-15 株式会社日立製作所 生体認証装置、及び方法
WO2019131858A1 (ja) 2017-12-28 2019-07-04 株式会社ノルミー 個人認証方法及び個人認証装置
JP2019121344A (ja) * 2017-12-28 2019-07-22 株式会社ノルミー 個人認証方法及び個人認証装置
KR20200100165A (ko) 2017-12-28 2020-08-25 가부시키가이샤 노르미 개인인증 방법 및 개인인증 장치

Similar Documents

Publication Publication Date Title
Hong Automatic personal identification using fingerprints
Garcia-Salicetti et al. BIOMET: A multimodal person authentication database including face, voice, fingerprint, hand and signature modalities
CN110326001B (zh) 使用利用移动设备捕捉的图像执行基于指纹的用户认证的系统和方法
US10296734B2 (en) One touch two factor biometric system and method for identification of a user utilizing a portion of the person's fingerprint and a vein map of the sub-surface of the finger
JP2018508888A (ja) モバイル・デバイスを用いてキャプチャしたイメージを使用する指紋ベースのユーザ認証を実行するためのシステムおよび方法
Genovese et al. Touchless palmprint recognition systems
Bai et al. Person recognition using 3-D palmprint data based on full-field sinusoidal fringe projection
WO2012014300A1 (ja) 個人認証装置及び個人認証方法
Tiwari et al. A review of advancements in biometric systems
Ibrahim et al. Performance analysis of biometric recognition modalities
JP6493941B1 (ja) 個人認証方法及び個人認証装置
Příhodová et al. Hand-based biometric system using convolutional neural networks
Yadav et al. Multimodal biometric authentication system: challenges and solutions
Shankar et al. Biometric verification, security concerns and related issues-a comprehensive study
JP5279007B2 (ja) 照合システム、照合方法、プログラム及び記録媒体
Saravanan et al. Iris authentication through gabor filter using DSP processor
Srivastva et al. Biometrics based identification techniques (BIT)
Patil et al. Iris recognition using fuzzy system
Chahal et al. A comparative study of various biometric approaches
Melin et al. Human Recognition using Face, Fingerprint and Voice
Khalaf et al. Multibiometric systems and template security survey
Serratosa Security in biometric systems
Sobota et al. Electronic voting–the use of biometric methods for granting, withdrawal and recovery of voters’ permissions
Bakshi et al. Biometric Technology: A Look and Survey at Face Recogntion
Sato Finger Vein Verification Technology for Mobile Apparatus.

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10855310

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 03.05.2013)

NENP Non-entry into the national phase

Ref country code: JP

122 Ep: pct application non-entry in european phase

Ref document number: 10855310

Country of ref document: EP

Kind code of ref document: A1