JP6056398B2 - Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program - Google Patents

Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program Download PDF

Info

Publication number
JP6056398B2
JP6056398B2 JP2012250051A JP2012250051A JP6056398B2 JP 6056398 B2 JP6056398 B2 JP 6056398B2 JP 2012250051 A JP2012250051 A JP 2012250051A JP 2012250051 A JP2012250051 A JP 2012250051A JP 6056398 B2 JP6056398 B2 JP 6056398B2
Authority
JP
Japan
Prior art keywords
selection
feature quantity
unit
user
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012250051A
Other languages
Japanese (ja)
Other versions
JP2014099024A (en
Inventor
元 名田
元 名田
青木 隆浩
隆浩 青木
山田 茂史
茂史 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012250051A priority Critical patent/JP6056398B2/en
Publication of JP2014099024A publication Critical patent/JP2014099024A/en
Application granted granted Critical
Publication of JP6056398B2 publication Critical patent/JP6056398B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、例えば、生体画像に表された生体情報に基づいて生体認証を行う生体認証装置、生体認証方法及び生体認証用コンピュータプログラムに関する。   The present invention relates to, for example, a biometric authentication apparatus, a biometric authentication method, and a biometric authentication computer program that perform biometric authentication based on biometric information represented in a biometric image.

近年、手または指の静脈のパターン、指紋または掌紋などの生体情報を表した生体画像に基づいて、装置またはシステムの利用者を認証する生体認証技術が開発されている。そのような生体認証技術を利用した生体認証装置は、例えば、生体認証装置を使用しようとする利用者の生体情報を表す生体画像を取得する。そして生体認証装置は、その生体画像に表された利用者の生体情報である入力生体情報を、予め登録された登録利用者の生体画像に表された生体情報である登録生体情報と照合する。生体認証装置は、照合処理の結果に基づいて、入力生体情報と登録生体情報が一致すると判定した場合、その利用者を正当な権限を有する登録利用者として認証する。そして生体認証装置は、認証された利用者が生体認証装置が組み込まれた装置または生体認証装置と接続された他の装置を使用することを許可する。   In recent years, biometric authentication technology has been developed for authenticating a user of an apparatus or system based on a biometric image representing biometric information such as a hand or finger vein pattern, a fingerprint, or a palm print. A biometric authentication device using such a biometric authentication technology acquires, for example, a biometric image representing the biometric information of a user who intends to use the biometric authentication device. Then, the biometric authentication device collates the input biometric information that is the biometric information of the user represented in the biometric image with the registered biometric information that is biometric information that is represented in the biometric image of the registered user registered in advance. If the biometric authentication device determines that the input biometric information and the registered biometric information match based on the result of the verification process, the biometric authentication device authenticates the user as a registered user having a legitimate authority. The biometric authentication device permits an authenticated user to use a device in which the biometric authentication device is incorporated or another device connected to the biometric authentication device.

生体認証技術には、いわゆる1:1認証方式と1:N認証方式とがある。1:1認証方式では、利用者の入力生体情報とともに、ユーザ名または識別番号といった利用者の識別情報が入力されることにより、その識別情報に対応する登録生体情報が特定される。そして、生体認証装置は、入力生体情報を、その特定された登録生体情報のみと照合する。
一方、1:N認証方式では、利用者の識別情報は生体認証装置に入力されず、利用者に対応する登録生体情報は特定できない。そのため、生体認証装置は、入力生体情報を、予め登録されている全ての登録生体情報と照合する。そして生体認証装置は、入力生体情報と最も一致する登録生体情報に対応する登録利用者として利用者を認証する。したがって、登録利用者数が増えるほど、すなわち、登録生体情報の数が増えるほど、照合処理の実行回数も増加する。そのため、必然的に生体認証処理に要する時間も長くなってしまう。特に、生体認証技術が大規模なシステムにおいて利用される場合、登録利用者数が非常に多くなることがある。このような大規模システムがサーバ−クライアントシステムを採用していると、生体認証処理を実行するためにサーバにアクセスが集中してサーバの負荷が増大し、利用者が生体情報を入力してから認証結果が得られるまでの待ち時間が長くなるおそれがある。
Biometric authentication techniques include a so-called 1: 1 authentication method and a 1: N authentication method. In the 1: 1 authentication method, registered biometric information corresponding to the identification information is specified by inputting user identification information such as a user name or an identification number together with the input biometric information of the user. Then, the biometric authentication device collates the input biometric information with only the specified registered biometric information.
On the other hand, in the 1: N authentication method, the identification information of the user is not input to the biometric authentication device, and the registered biometric information corresponding to the user cannot be specified. For this reason, the biometric authentication device collates the input biometric information with all registered biometric information registered in advance. The biometric authentication device authenticates the user as a registered user corresponding to the registered biometric information that most closely matches the input biometric information. Therefore, as the number of registered users increases, that is, as the number of registered biometric information increases, the number of executions of collation processing also increases. Therefore, the time required for the biometric authentication process is inevitably increased. In particular, when biometric authentication technology is used in a large-scale system, the number of registered users may become very large. When such a large-scale system employs a server-client system, access to the server is concentrated to execute biometric authentication processing, the load on the server increases, and the user inputs biometric information. There is a possibility that the waiting time until the authentication result is obtained becomes long.

しかし、利用者の使い易さの観点からすれば、生体認証処理に要する時間は短い方が好ましい。そこで、入力生体情報との照合に利用する登録生体情報を限定することが好ましい。照合に利用する登録生体情報を限定するためには、例えば、簡便な処理によって生体画像から抽出可能で、比較に要する演算量が少ない特徴量が利用される。このような、照合に利用する登録生体情報を限定するために利用される特徴量を、以下では、便宜上、選択用特徴量と呼ぶ。   However, from the viewpoint of ease of use by the user, it is preferable that the time required for the biometric authentication process is short. Therefore, it is preferable to limit registered biometric information used for collation with input biometric information. In order to limit the registered biometric information used for collation, for example, a feature quantity that can be extracted from a biometric image by a simple process and requires a small amount of calculation is used. Such a feature quantity used for limiting the registered biometric information used for collation is hereinafter referred to as a selection feature quantity for convenience.

例えば、生体認証処理に手の生体情報が利用される場合において、指紋情報または掌紋情報とともに、手の形状を利用する技術が提案されている(例えば、特許文献1を参照)。   For example, when biometric information of a hand is used for biometric authentication processing, a technique has been proposed that uses the shape of a hand together with fingerprint information or palm print information (see, for example, Patent Document 1).

また、生体認証処理を高速化するために、掌形の特徴を照合に利用する技術も提案されている(例えば、特許文献2を参照)。   Further, in order to speed up the biometric authentication process, a technique that uses the feature of the palm shape for matching has also been proposed (see, for example, Patent Document 2).

特開平10−307919号公報Japanese Patent Laid-Open No. 10-307919 特開2002−15298号公報JP 2002-15298 A

しかしながら、場合によっては、生体認証装置は、生体画像から選択用特徴量を正確に抽出できないことがある。例えば、選択用特徴量として手の外形形状に関する特徴量が用いられる場合において、手が大き過ぎたり、手を撮影するセンサに対する手の位置がずれているために、手の一部が生体画像に写っていないことがある。また、センサに利用されるレンズの歪曲収差が無視できないほど大きい、センサの撮影範囲の外縁近傍に手が置かれると、生体画像に写った手の形状がその歪曲収差の影響によって歪んでしまう。また、環境光が明る過ぎると、生体画像上で手が写っていない背景領域の輝度と手が写っている領域の輝度との差が小さくなって手の輪郭がはっきりしなくなることがある。これらの場合には、生体認証装置は、手の輪郭の少なくとも一部の形状を正確に検出できないので、選択用特徴量を正確に抽出できないおそれがある。そして選択用特徴量が正確に抽出されないと、生体認証装置は、生体認証をもとめる利用者本人である登録利用者を照合対象として選択できなかったり、あるいは、本来、選択用特徴量が類似していないはずの登録利用者を照合対象として選択するおそれがある。   However, in some cases, the biometric authentication device may not be able to accurately extract the selection feature amount from the biometric image. For example, when a feature amount related to the outer shape of the hand is used as the feature amount for selection, the hand is too large or the position of the hand with respect to the sensor that captures the hand is shifted, so that a part of the hand becomes a biological image It may not be reflected. In addition, when a hand is placed in the vicinity of the outer edge of the imaging range of the sensor, the distortion of the lens used for the sensor is so large that it cannot be ignored, the shape of the hand shown in the biological image is distorted by the influence of the distortion. If the ambient light is too bright, the difference between the luminance of the background area where the hand is not captured on the biological image and the luminance of the area where the hand is captured may be small, and the outline of the hand may not be clear. In these cases, since the biometric authentication device cannot accurately detect at least a part of the contour of the hand, there is a possibility that the selection feature amount cannot be accurately extracted. If the selection feature quantity is not accurately extracted, the biometric authentication device cannot select the registered user who is the user who seeks biometric authentication as a target for verification, or the selection feature quantity is essentially similar. There is a risk of selecting a registered user who should not exist as a verification target.

そこで、本明細書は、1:N認証方式において、照合対象とする登録利用者を選択するための選択用特徴量を抽出できない場合にも、照合対象となる登録利用者を適切に選択可能な生体認証装置を提供することを目的とする。   Therefore, in the present specification, in the 1: N authentication method, even when a selection feature amount for selecting a registered user to be verified cannot be extracted, a registered user to be verified can be appropriately selected. An object is to provide a biometric authentication device.

一つの実施形態によれば、生体認証装置が提供される。この生体認証装置は、利用者の生体情報を含む部位が写った生体画像を生成する生体情報取得部と、生体画像から、生体情報の特徴を表す照合用データを生成する照合用データ生成部と、生体画像からその部位の形状の特徴を表す選択用特徴量を抽出する選択用特徴量抽出部と、生体画像から選択用特徴量と所定の相関関係を持つ、部位の他の形状の特徴を表す代替特徴量を抽出し、その代替特徴量を相関関係に応じて補正することにより選択用特徴量の近似値を算出する代替特徴量抽出部と、生体画像における部位の品質に基づいて選択用特徴量を抽出可能か否か判定し、選択用特徴量を抽出可能と判定した場合には選択用特徴量抽出部に選択用特徴量を抽出させ、一方、選択用特徴量を抽出不能と判定した場合には、代替特徴量抽出部に選択用特徴量の近似値を算出させる選択用特徴量評価部と、複数の登録利用者のそれぞれについて、登録利用者の照合用データと選択用特徴量とを記憶する記憶部と、複数の登録利用者のうち、利用者の選択用特徴量または選択用特徴量の近似値と類似している選択用特徴量を持つ登録利用者を選択する選択部と、選択された登録利用者の照合用データと利用者の照合用データとを照合する照合部とを有する。   According to one embodiment, a biometric authentication device is provided. The biometric authentication apparatus includes a biometric information acquisition unit that generates a biometric image in which a part including biometric information of a user is captured, and a verification data generation unit that generates verification data representing characteristics of the biometric information from the biometric image. A feature extraction unit for selection that extracts a feature for selection representing the feature of the shape of the part from the biological image, and a feature of another shape of the part that has a predetermined correlation with the feature for selection from the biological image. An alternative feature amount extracting unit that extracts an alternative feature amount to be expressed and corrects the alternative feature amount according to the correlation to calculate an approximate value of the selection feature amount, and for selection based on the quality of the part in the biological image It is determined whether or not the feature quantity can be extracted, and if it is determined that the selection feature quantity can be extracted, the selection feature quantity extraction unit extracts the selection feature quantity, while the selection feature quantity is determined to be unextractable. In the alternative feature extraction unit A selection feature amount evaluation unit that calculates an approximate value of the selection feature amount, a storage unit that stores registered user verification data and selection feature amounts for each of a plurality of registered users, and a plurality of registrations Among the users, a selection unit for selecting a registered user having a selection feature amount similar to the selection feature amount of the user or an approximate value of the selection feature amount, and for verification of the selected registered user A collation unit for collating the data with the user's collation data;

本発明の目的及び利点は、請求項において特に指摘されたエレメント及び組み合わせにより実現され、かつ達成される。
上記の一般的な記述及び下記の詳細な記述の何れも、例示的かつ説明的なものであり、請求項のように、本発明を限定するものではないことを理解されたい。
The objects and advantages of the invention will be realized and attained by means of the elements and combinations particularly pointed out in the appended claims.
It should be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not restrictive of the invention as claimed.

本明細書に開示された生体認証装置は、1:N認証方式において、照合対象とする登録利用者を選択するための選択用特徴量を抽出できない場合にも、照合対象となる登録利用者を適切に選択できる。   In the 1: N authentication method, the biometric authentication device disclosed in the present specification can be used to select a registered user to be verified even when a selection feature amount for selecting a registered user to be verified cannot be extracted. Can be selected appropriately.

第1の実施形態による、生体認証装置の概略構成図である。1 is a schematic configuration diagram of a biometric authentication device according to a first embodiment. (a)は、生体情報取得部の概略平面図であり、(b)は、(a)の矢視AA’における生体情報取得部の概略側面断面図である。(A) is a schematic plan view of a biological information acquisition part, (b) is a schematic sectional side view of the biological information acquisition part in arrow AA 'of (a). 端末の処理部の機能ブロック図である。It is a functional block diagram of the process part of a terminal. (a)は、手の平の幅を検出可能な生体画像の一例を示す図である。(b)〜(e)は、それぞれ、手の平の幅を検出不能、または正確に検出できない可能性がある生体画像の例を示す図である。(A) is a figure showing an example of a living body image which can detect the width of a palm. (B)-(e) is a figure which shows the example of the biometric image which respectively cannot detect the width | variety of a palm, or cannot detect correctly. 選択用特徴量評価処理の動作フローチャートである。It is an operation | movement flowchart of the feature-value evaluation process for selection. 選択用特徴量の一例である手の平の幅と代替特徴量の一例である指の幅及び代替特徴量の他の一例である親指と人差し指の付け根の中点と小指と薬指の付け根の中点間の距離とを示す図である。The width of the palm, which is an example of the feature for selection, the width of the finger, which is an example of the alternative feature, and the midpoint of the base of the thumb and index finger and the midpoint of the base of the little finger and the ring finger, which is another example of the alternative feature It is a figure which shows these distances. 認証サーバの処理部の機能ブロック図である。It is a functional block diagram of the process part of an authentication server. 生体認証処理の動作フローチャートである。It is an operation | movement flowchart of a biometrics authentication process. 登録処理の動作フローチャートである。It is an operation | movement flowchart of a registration process. 第2の実施形態による生体認証装置の概略構成図である。It is a schematic block diagram of the biometrics apparatus by 2nd Embodiment.

以下、図を参照しつつ、様々な実施形態による生体認証装置について説明する。
この生体認証装置は、1:N認証方式にしたがって利用者に対する生体認証処理を実行する際、照合対象となる登録利用者を選択するために、生体情報を表す部位の形状の特徴を表す選択用特徴量を利用する。ただし、この生体認証装置は、生体画像におけるその部位の品質に基づいて、選択用特徴量を検出できないと判定される場合には、選択用特徴量と所定の相関関係を持つその部位の他の形状の特徴を表す代替特徴量を求める。そしてこの生体認証装置は、その代替特徴量を選択用特徴量との相関関係に応じて補正することで、選択用特徴量の近似値をもとめ、その近似値を登録利用者の選択用特徴量と比較することで照合対象の登録利用者を選択する。
Hereinafter, biometric authentication devices according to various embodiments will be described with reference to the drawings.
When performing biometric authentication processing for a user in accordance with the 1: N authentication method, this biometric authentication device is used for selecting a feature of the shape of a part representing biometric information in order to select a registered user to be verified. Use features. However, if it is determined that the selection feature quantity cannot be detected based on the quality of the part in the biometric image, this biometric authentication device is able to select another part of the part having a predetermined correlation with the selection feature quantity. An alternative feature amount representing a shape feature is obtained. Then, the biometric authentication device obtains an approximate value of the selection feature amount by correcting the alternative feature amount according to the correlation with the selection feature amount, and uses the approximate value as the selection feature amount of the registered user. To select the registered user to be verified.

本実施形態では、生体認証装置は、生体認証に用いる生体情報として手の静脈パターンを利用する。しかし、生体認証に用いる生体情報は、掌紋など、手に含まれる他の生体情報であってもよい。
また、本明細書において、「照合処理」という用語は、利用者の生体情報と登録利用者の生体情報の類似度合いを表す類似度を算出する処理を示すために使用される。また、「生体認証処理」という用語は、照合処理だけでなく、照合処理の結果を利用して、利用者を認証するか否かを決定する処理を含む、認証処理全体を示すために使用される。
In this embodiment, the biometric authentication device uses a hand vein pattern as biometric information used for biometric authentication. However, the biometric information used for biometric authentication may be other biometric information included in the hand, such as a palm print.
Further, in this specification, the term “collation process” is used to indicate a process of calculating a degree of similarity representing a degree of similarity between a user's biometric information and a registered user's biometric information. In addition, the term “biometric authentication process” is used not only to indicate a verification process but also to indicate an entire authentication process including a process for determining whether to authenticate a user using a result of the verification process. The

図1は、生体認証装置の概略構成図を示す。図1に示されるように、この生体認証装置1は、少なくとも一台の端末2と、認証サーバ3と、データサーバ4とを有する。端末2と認証サーバ3とは、例えば、公衆通信回線あるいはローカルエリアネットワークといった通信ネットワーク5を介して互いに接続される。また認証サーバ3とデータサーバ4とは、例えば、特定通信回線または通信ネットワーク5とは独立した他の通信ネットワークを介して接続される。なお、データサーバ4も、通信ネットワーク5を介して認証サーバ3と接続されていてもよい。   FIG. 1 shows a schematic configuration diagram of a biometric authentication apparatus. As shown in FIG. 1, the biometric authentication device 1 includes at least one terminal 2, an authentication server 3, and a data server 4. The terminal 2 and the authentication server 3 are connected to each other via a communication network 5 such as a public communication line or a local area network. The authentication server 3 and the data server 4 are connected via, for example, a specific communication line or another communication network independent of the communication network 5. Note that the data server 4 may also be connected to the authentication server 3 via the communication network 5.

端末2は、認証を受けようとする利用者の生体情報を含む部位(本実施形態では、利用者の手)を撮影した生体画像を生成する。そして端末2は、その生体画像から、照合処理に用いられる照合用データを生成する。さらに端末2は、手の形状の特徴を表す選択用特徴量として、手の平の幅を検出できるか否かを判定する。そして端末2は、手の平の幅を検出できないと判定した場合には、手の平の幅との相関関係がある、生体情報を含む部位の他の形状の特徴量、例えば、指の幅を求めて、その特徴量から近似的に手の平の幅を求める。そして端末2は、照合用データ及び選択用特徴としての手の平の幅またはその近似値を認証サーバ3へ送信する。   The terminal 2 generates a biological image obtained by photographing a part (in this embodiment, the user's hand) including the biological information of the user who is going to be authenticated. And the terminal 2 produces | generates the data for collation used for a collation process from the biometric image. Further, the terminal 2 determines whether or not the palm width can be detected as the selection feature amount representing the feature of the hand shape. If the terminal 2 determines that the palm width cannot be detected, the terminal 2 has a correlation with the palm width and obtains a feature amount of another part including biological information, for example, the width of the finger. The palm width is approximately obtained from the feature amount. Then, the terminal 2 transmits to the authentication server 3 the collation data and the palm width as the selection feature or an approximate value thereof.

認証サーバ3は、生体認証処理の実行時において、データサーバ4に登録されている登録利用者の中から、利用者の選択用特徴量またはその近似値と類似する選択用特徴量を持つ登録利用者を照合処理の対象として選択する。この例では、認証サーバ3は、利用者の手の平の幅とほぼ同じ手の平の幅を持つ登録利用者を照合処理の対象として選択する。そして認証サーバ3は、選択した登録利用者の生体情報を表す生体画像から生成された照合用データと利用者の生体画像から生成された照合用データとを用いて照合処理を実行する。認証サーバ3は、照合処理の結果、利用者を何れかの登録利用者として認証したか否かを端末2へ通知する。   When the biometric authentication process is executed, the authentication server 3 uses registered features having a selection feature amount similar to the user's selection feature amount or its approximate value from among the registered users registered in the data server 4. A person is selected as a target for the verification process. In this example, the authentication server 3 selects a registered user having a palm width that is substantially the same as the palm width of the user as a target for collation processing. And the authentication server 3 performs a collation process using the collation data produced | generated from the biometric image showing the biometric information of the selected registered user, and the collation data produced | generated from the user's biometric image. The authentication server 3 notifies the terminal 2 as to whether or not the user has been authenticated as any registered user as a result of the verification process.

端末2は、生体認証処理の実行時、及び生体情報の登録時において、利用者の生体情報を含む部位を撮影し、その部位が写った生体画像を生成する。そして端末2は、その生体画像から照合用データを生成し、かつ選択用特徴量を抽出し、またはその近似値を算出する。そのために、端末2は、生体情報取得部21と、通信部22と、記憶部23と、処理部24とを有する。
さらに、端末2は、利用者が端末2へコマンド、データ、あるいは利用者のユーザ名といった識別情報などを入力するためのキーボード、マウス、またはタッチパッドなどの入力部(図示せず)を有してもよい。さらに、端末2は、生体情報取得部21が適切に生体情報が写った生体画像を取得可能な位置へ指を配置させるためのガイダンスメッセージまたは生体認証結果などを表示するために、液晶ディスプレイなどの表示部(図示せず)を有してもよい。
The terminal 2 captures a part including the biometric information of the user at the time of executing the biometric authentication process and registering the biometric information, and generates a biometric image showing the part. And the terminal 2 produces | generates the data for collation from the biometric image, and extracts the feature-value for selection, or calculates the approximate value. For this purpose, the terminal 2 includes a biological information acquisition unit 21, a communication unit 22, a storage unit 23, and a processing unit 24.
Furthermore, the terminal 2 has an input unit (not shown) such as a keyboard, a mouse, or a touch pad for a user to input identification information such as a command, data, or a user name of the user to the terminal 2. May be. Further, the terminal 2 displays a guidance message or a biometric authentication result for placing a finger at a position where the biometric information acquisition unit 21 can acquire a biometric image in which biometric information is appropriately captured, such as a liquid crystal display. You may have a display part (not shown).

生体情報取得部21は、利用者の手の平の静脈パターンが写った生体画像を生成する。   The biometric information acquisition unit 21 generates a biometric image in which the vein pattern of the palm of the user is shown.

図2(a)は、生体情報取得部21の概略平面図であり、図2(b)は、図2(a)の矢視AA’における生体情報取得部21の概略側面断面図である。
生体情報取得部21は、赤外光に感度を有する、Charge Coupled Deviceといった固体撮像素子が2次元状に配置されたエリアセンサ211を有する。エリアセンサ211は、センサ面が上方を向くように、樹脂または金属で形成された直方体状の筺体212の底部に配置される。
さらに、生体情報取得部21は、利用者の手を照明するために赤外光を発する赤外発光ダイオードなどの照明光源213を有する。筐体212の周囲の側壁は、それぞれ、利用者の手をエリアセンサ211が撮影可能な位置に誘導するためのガイド部材となっており、その側壁の上端に利用者の手のひらの一部を載置可能となっている。さらに、筐体212の上部には、エリアセンサ211よりも奥側に、利用者の指を固定するための突起214が形成されている。そして、生体情報取得部21が有する結像光学系(図示せず)が、そのガイド部材の上に載置された手の平の静脈パターンの像をエリアセンサ211上に結像する。そしてエリアセンサ211は、手の平の静脈パターンが写った生体画像を生成する。生体画像の各画素の値は、例えば、0〜255の範囲内の値となり、その画素の輝度が高いほど、その画素値は大きくなる。本実施形態では、生体画像において、静脈が写っている領域及び手が写っていない部分は黒くなり、静脈がない手の部分が写っている領域は明るくなる。
生体情報取得部21は、生成した生体画像を処理部24へ渡す。
FIG. 2A is a schematic plan view of the biological information acquisition unit 21, and FIG. 2B is a schematic side sectional view of the biological information acquisition unit 21 taken along the arrow AA ′ in FIG.
The biological information acquisition unit 21 includes an area sensor 211 that is sensitive to infrared light and in which a solid-state imaging device such as a charge coupled device is two-dimensionally arranged. The area sensor 211 is disposed at the bottom of a rectangular parallelepiped casing 212 made of resin or metal so that the sensor surface faces upward.
Furthermore, the biological information acquisition unit 21 includes an illumination light source 213 such as an infrared light emitting diode that emits infrared light to illuminate the user's hand. The side walls around the housing 212 are guide members for guiding the user's hand to a position where the area sensor 211 can shoot, and a part of the user's palm is placed on the upper end of the side wall. Can be placed. Further, a protrusion 214 for fixing a user's finger is formed on the upper side of the housing 212 on the back side of the area sensor 211. Then, an imaging optical system (not shown) included in the biological information acquisition unit 21 forms an image of a palm vein pattern placed on the guide member on the area sensor 211. Then, the area sensor 211 generates a biological image showing the palm vein pattern. The value of each pixel of the biological image is, for example, a value in the range of 0 to 255, and the pixel value increases as the luminance of the pixel increases. In the present embodiment, in the biometric image, a region where a vein is shown and a portion where a hand is not shown are black, and a region where a hand portion where no vein is shown is bright.
The biological information acquisition unit 21 passes the generated biological image to the processing unit 24.

通信部22は、通信ネットワーク5に端末2を接続するための通信インターフェース回路を有する。そして通信部22は、処理部24から受け取ったデータを通信ネットワーク5を介して認証サーバ3へ送信する。また通信部22は、認証サーバ3から通信ネットワーク5を介して受信した認証結果を表す情報を、処理部24へ渡してもよい。   The communication unit 22 includes a communication interface circuit for connecting the terminal 2 to the communication network 5. Then, the communication unit 22 transmits the data received from the processing unit 24 to the authentication server 3 via the communication network 5. Further, the communication unit 22 may pass information representing the authentication result received from the authentication server 3 via the communication network 5 to the processing unit 24.

記憶部23は、例えば、不揮発性の読み出し専用の半導体メモリ及び読み書き可能な揮発性の半導体メモリを有する。そして記憶部23は、端末2を制御するために用いられる各種のプログラム及びデータを記憶する。また記憶部23は、生体画像から照合用データを生成し、選択用特徴量を抽出するために使用されるプログラムを記憶する。さらに記憶部23は、生体画像、照合用データ及び選択用特徴量を一時的に保存してもよい。   The storage unit 23 includes, for example, a nonvolatile read-only semiconductor memory and a readable / writable volatile semiconductor memory. The storage unit 23 stores various programs and data used for controlling the terminal 2. In addition, the storage unit 23 stores a program used to generate collation data from the biometric image and extract a selection feature amount. Further, the storage unit 23 may temporarily store the biometric image, the verification data, and the selection feature amount.

処理部24は、1個または複数個のプロセッサ及びその周辺回路を有する。そして処理部24は、生体認証処理の実行時、及び登録処理の実行時において、生体画像から照合用データを生成し、選択用特徴量または選択用特徴量の近似値を抽出する。   The processing unit 24 includes one or a plurality of processors and their peripheral circuits. Then, the processing unit 24 generates collation data from the biometric image at the time of executing the biometric authentication process and the registration process, and extracts a selection feature quantity or an approximate value of the selection feature quantity.

図3は、端末2の処理部24の機能ブロック図である。処理部24は、被写体領域検出部25と、照合用データ生成部26と、選択用特徴量評価部27と、選択用特徴量抽出部28と、代替特徴量抽出部29とを有する。処理部24が有するこれらの各部は、処理部24が有するプロセッサ上で実行されるコンピュータプログラムによって実装される機能モジュールである。あるいは、処理部24が有するこれらの各部は、ファームウェアとして端末2に実装されてもよい。   FIG. 3 is a functional block diagram of the processing unit 24 of the terminal 2. The processing unit 24 includes a subject area detection unit 25, a collation data generation unit 26, a selection feature amount evaluation unit 27, a selection feature amount extraction unit 28, and an alternative feature amount extraction unit 29. Each of these units included in the processing unit 24 is a functional module implemented by a computer program executed on a processor included in the processing unit 24. Alternatively, these units included in the processing unit 24 may be implemented in the terminal 2 as firmware.

被写体領域検出部25は、生体画像から、生体画像中で生体情報を含む部位が写っている領域である被写体領域を検出する。本実施形態では、何も写っていない画素の集合である背景領域に含まれる画素の値は、被写体領域に含まれる画素の値よりも低い。そこで被写体領域検出部25は、例えば、所定の閾値以上の画素値を持つ画素を検出し、検出された画素の集合を被写体領域とする。所定の閾値は、例えば、10に設定される。
被写体領域検出部25は、被写体領域をあらわす情報を記憶部23に記憶する。なお、被写体領域を表す情報は、例えば、生体画像のサイズと同じサイズを持つ2値画像とすることができ、この2値画像において、被写体領域に含まれる画素の値は、例えば'1'に設定され、背景領域に含まれる画素の値は、例えば'0'に設定される。
The subject region detection unit 25 detects a subject region that is a region in which a part including biological information is captured in the biological image from the biological image. In the present embodiment, the value of the pixel included in the background area, which is a set of pixels where nothing is captured, is lower than the value of the pixel included in the subject area. Therefore, the subject area detection unit 25 detects, for example, a pixel having a pixel value equal to or greater than a predetermined threshold, and sets the detected set of pixels as the subject area. The predetermined threshold is set to 10, for example.
The subject area detection unit 25 stores information representing the subject area in the storage unit 23. The information representing the subject area can be, for example, a binary image having the same size as the size of the biological image. In this binary image, the value of the pixel included in the subject area is, for example, “1”. The value of the pixel set and included in the background area is set to “0”, for example.

照合用データ生成部26は、生体画像から、照合処理で用いられる照合用データを生成する。例えば、認証サーバ3がマニューシャマッチングにより照合処理を行う場合、照合用データ生成部26は、そのマニューシャマッチングで用いられる特徴点(マニューシャと呼ばれる)を生体画像から抽出する。そして照合用データ生成部26は、その特徴点の位置またはその特徴点の種類を照合用データとする。   The verification data generation unit 26 generates verification data used in the verification process from the biological image. For example, when the authentication server 3 performs a matching process by minutia matching, the collation data generation unit 26 extracts feature points (referred to as minutia) used in the minutia matching from the biological image. The collation data generation unit 26 uses the position of the feature point or the type of the feature point as collation data.

そのために、照合用データ生成部26は、被写体領域内で、静脈が写っている画素の集合である静脈領域と静脈が写っていない画素の集合である非静脈領域とを区別する。本実施形態では、静脈が写っている画素の値は、静脈が写っていない画素の値よりも低い。そこで照合用データ生成部26は、被写体領域内で、例えば、第2の2値化閾値以下の画素値を持つ画素の集合を静脈領域とし、第2の2値化閾値より大きい画素値を持つ画素の集合を非静脈領域とするよう、被写体領域を2値化する。第2の2値化閾値は、例えば、予め設定された固定値(例えば、150)、被写体領域内の各画素の平均画素値、あるいは、被写体領域に含まれる画素値を判別分析することにより決定された閾値に設定される。   For this purpose, the collation data generation unit 26 distinguishes between a vein region that is a set of pixels in which the veins are shown and a non-vein region that is a set of pixels in which the veins are not shown in the subject region. In this embodiment, the value of the pixel in which the vein is shown is lower than the value of the pixel in which the vein is not shown. Therefore, the verification data generation unit 26 uses, for example, a set of pixels having a pixel value equal to or lower than the second binarization threshold in the subject area as a vein area, and has a pixel value larger than the second binarization threshold. The subject area is binarized so that the set of pixels is a non-vein area. The second binarization threshold is determined, for example, by discriminating and analyzing a preset fixed value (for example, 150), an average pixel value of each pixel in the subject area, or a pixel value included in the subject area. Is set to the threshold value.

次に、照合用データ生成部26は、例えば、2値化された被写体領域上で静脈に相当する画素値を持つ画素の集合に対して細線化処理を行って、静脈が細線化された細線化2値画像を生成する。そして照合用データ生成部26は、静脈の分岐点または端点の何れかに対応する複数のテンプレートを用いて細線化2値画像を走査することにより、何れかのテンプレートと一致するときの細線化2値画像上の位置を検出する。そして照合用データ生成部26は、検出された位置の中心画素を、マニューシャとして抽出する。   Next, for example, the collation data generation unit 26 performs a thinning process on a set of pixels having pixel values corresponding to veins on a binarized subject area, thereby thinning the veins. A binarized binary image is generated. The collation data generation unit 26 scans the thinned binary image using a plurality of templates corresponding to either the branching points or the end points of the veins, thereby thinning 2 when matching with any template. The position on the value image is detected. Then, the verification data generation unit 26 extracts the central pixel at the detected position as a minutiae.

なお照合用データ生成部26は、静脈の端点及び分岐点をマニューシャとして求める公知の他の方法を用いて、生体画像からマニューシャを抽出してもよい。また、照合用データ生成部26は、生体画像上では静脈パターンの特徴を表す他の特徴量を照合用データとして求めてもよい。例えば、照合用データ生成部26は、被写体領域を複数のブロックに分割し、ブロックごとの静脈本数を照合用データとして求めてもよい。   The verification data generation unit 26 may extract the minutia from the biological image by using another known method for obtaining the end point and the branch point of the vein as the minutia. In addition, the matching data generation unit 26 may obtain other feature quantities representing the features of the vein pattern as matching data on the biological image. For example, the verification data generation unit 26 may divide the subject region into a plurality of blocks and obtain the number of veins for each block as the verification data.

また、生体認証装置1がパターンマッチングにより照合処理を行う場合、照合用データ生成部26は、生体画像そのもの、あるいは生体画像上の静脈領域を含む一部の領域を生体画像から切り出して、照合用データとしてもよい。さらに照合用データ生成部26は、生体画像全体または生体画像の一部に対して、エッジ強調処理またはムラ補正処理などを行って得られた画像を照合用データとしてもよい。   Further, when the biometric authentication device 1 performs the matching process by pattern matching, the matching data generation unit 26 cuts out the biometric image itself or a part of the region including the vein region on the biometric image from the biometric image, and performs matching. It may be data. Furthermore, the verification data generation unit 26 may use, as the verification data, an image obtained by performing edge enhancement processing or unevenness correction processing on the entire biological image or a part of the biological image.

照合用データ生成部26は、照合用データを記憶部23に記憶する。   The verification data generation unit 26 stores the verification data in the storage unit 23.

選択用特徴量評価部27は、複数の登録利用者の中から照合対象となる登録利用者を選択するために利用される選択用特徴量を抽出可能か否かを評価する。   The selection feature quantity evaluation unit 27 evaluates whether or not a selection feature quantity used to select a registered user to be verified from a plurality of registered users can be extracted.

本実施形態では、生体認証装置1は、選択用特徴量として、手の平の幅、特に、この例では、人差し指の親指側に沿った手の輪郭と、小指の外側に沿った手の輪郭間の距離を手の平の幅とする。なお、選択用特徴量として手の平の幅を利用する理由は以下の通りである。   In the present embodiment, the biometric authentication device 1 uses the width of the palm as the selection feature amount, particularly in this example, between the contour of the hand along the thumb side of the index finger and the contour of the hand along the outside of the little finger. The distance is the palm width. The reason for using the palm width as the selection feature amount is as follows.

・手の平の幅は、ある程度個人差があり、かつ、エリアセンサからの距離が一定である限り、撮影環境による変動が少ないので、生体認証装置1は、照合対象となる登録利用者を適切に選択できる。
・また、手の平の幅と同様の特性を持つ特徴量として、指の長さまたは指の幅が有る。しかし、本実施形態では、指の先端が生体情報取得部21の撮影範囲から外れるので、生体認証装置1は、生体画像から利用者の指の長さを求めることができない。また指の幅のサイズは、手の平の幅のサイズよりも小さいので、指の幅の算出値に1画素から数画素程度の誤差が含まれると、手の平の幅の算出値に同程度の誤差が含まれる場合よりも影響が大きい。そこで、指の長さ及び指の幅よりも、手の平の幅の方が選択用特徴量として好ましい。
As long as the palm width varies to some extent and the distance from the area sensor is constant, the biometric authentication device 1 appropriately selects the registered user to be collated, since there is little fluctuation depending on the shooting environment. it can.
In addition, as a feature quantity having characteristics similar to the palm width, there is a finger length or a finger width. However, in this embodiment, since the tip of the finger is out of the imaging range of the biometric information acquisition unit 21, the biometric authentication device 1 cannot obtain the length of the user's finger from the biometric image. Also, since the finger width size is smaller than the palm width size, if the calculated finger width includes an error of one to several pixels, the calculated error of the palm will have the same error. The impact is greater than if included. Therefore, the palm width is more preferable as the selection feature amount than the finger length and finger width.

図4(a)は、手の平の幅を検出可能な生体画像の一例を示す図である。図4(b)〜図4(e)は、それぞれ、手の平の幅を検出不能、または正確に検出できない可能性がある生体画像の例を示す図である。   FIG. 4A is a diagram illustrating an example of a biological image in which the palm width can be detected. FIG. 4B to FIG. 4E are diagrams illustrating examples of biological images in which the palm width cannot be detected or cannot be detected accurately.

図4(a)に示される生体画像400では、小指の外側から、人差し指の親指側の輪郭までの範囲が写っている。そのため、この生体画像400については、生体認証装置1は、矢印401に示される手の平の幅を検出可能である。   In the biological image 400 shown in FIG. 4A, the range from the outside of the little finger to the contour on the thumb side of the index finger is shown. Therefore, for this biometric image 400, the biometric authentication device 1 can detect the palm width indicated by the arrow 401.

一方、図4(b)に示される生体画像410では、利用者の手の小指側、及び人差し指側とも、ガイドの内枠411に接しているため、手の平の一部が写っていない。そのため、この生体画像410については、生体認証装置1は、手の平の幅を検出できない。
また、図4(c)に示される生体画像420でも、利用者の手の人差し指側がガイドの内枠421に接しているため、手の平の一部が写っていない。そのため、この生体画像420についても、生体認証装置1は、手の平の幅を検出できない。
On the other hand, in the biological image 410 shown in FIG. 4B, the palm of the user's hand and the index finger are in contact with the inner frame 411 of the guide, and thus a part of the palm is not shown. Therefore, for this biometric image 410, the biometric authentication device 1 cannot detect the palm width.
Also, in the biological image 420 shown in FIG. 4C, a part of the palm is not shown because the index finger side of the user's hand is in contact with the inner frame 421 of the guide. Therefore, the biometric authentication device 1 cannot detect the palm width of the biometric image 420 as well.

さらに、図4(d)に示される生体画像430では、利用者の手の周辺部分が、生体情報取得部21の結像光学系(図示せず)による周辺光量の低下の許容範囲431から外れている。そのため、この生体画像430について、生体認証装置1は、手の平の幅を検出できない可能性がある。
また、図4(e)に示される生体画像440では、環境光の影響によって利用者の手の輪郭付近での被写体領域の輝度値と背景領域の輝度値との差が小さいために、検出された被写体領域441の輪郭が本来の輪郭と異なっている。そのため、この生体画像440について、生体認証装置1は、手の平の幅を検出できない可能性がある。
Furthermore, in the biological image 430 shown in FIG. 4D, the peripheral portion of the user's hand is out of the allowable range 431 for reducing the peripheral light amount by the imaging optical system (not shown) of the biological information acquisition unit 21. ing. Therefore, there is a possibility that the biometric authentication device 1 cannot detect the palm width of the biometric image 430.
In addition, the biological image 440 shown in FIG. 4E is detected because the difference between the luminance value of the subject area and the luminance value of the background area in the vicinity of the contour of the user's hand is small due to the influence of ambient light. The contour of the subject area 441 is different from the original contour. Therefore, the biometric authentication device 1 may not be able to detect the palm width of the biometric image 440.

上記のように、生体画像に写っている、生体情報を含む部位の品質が様々な理由によって低下していると、生体認証装置1は、選択用特徴量である手の平の幅を検出できないことがある。そこで選択用特徴量評価部27は、上記のような、生体画像上での生体情報を含む部位の品質の劣化条件に該当するか否かを調べ、生体画像がその劣化条件に該当すると判定した場合には、代替特徴量を抽出させる。例えば、選択用特徴量評価部27は、生体画像上で選択用特徴量と関連する、生体情報を含む部位の一部を検出できなければ、代替特徴量を抽出させる。   As described above, if the quality of the part including the biometric information that appears in the biometric image is deteriorated for various reasons, the biometric authentication device 1 may not be able to detect the palm width that is the selection feature amount. is there. Therefore, the selection feature quantity evaluation unit 27 checks whether or not the deterioration condition of the quality of the part including the biological information on the biological image as described above is satisfied, and determines that the biological image satisfies the deterioration condition. In this case, an alternative feature amount is extracted. For example, the selection feature quantity evaluation unit 27 extracts a substitute feature quantity if a part of the part including the biological information related to the selection feature quantity cannot be detected on the biological image.

図5は、選択用特徴量評価部27により実行される選択用特徴量評価処理の動作フローチャートである。   FIG. 5 is an operation flowchart of the selection feature quantity evaluation process executed by the selection feature quantity evaluation unit 27.

選択用特徴量評価部27は、生体画像上で被写体領域の輪郭を検出する(ステップS101)。例えば、選択用特徴量評価部27は、被写体領域に含まれる画素のうち、隣接画素の何れかが背景領域に含まれる画素を、被写体領域の輪郭上の画素とする。   The selection feature amount evaluation unit 27 detects the contour of the subject area on the biological image (step S101). For example, the selection feature quantity evaluation unit 27 sets a pixel in which any of the adjacent pixels is included in the background region among the pixels included in the subject region as a pixel on the contour of the subject region.

選択用特徴量評価部27は、被写体領域の左端の輪郭及び右端の輪郭のそれぞれが、ガイドの内枠と、所定割合以上一致しているか否か判定する(ステップS102)。なお、生体情報取得部21のエリアセンサ及び光学系に対する、ガイドの位置は固定であるので、生体画像上でガイドの内枠が写る画素は予め分かっている。そこで、例えば、生体画像上でガイドの内枠が写る複数の画素のそれぞれの座標が予め記憶部23に記憶される。そして選択用特徴量評価部27は、生体画像の各行について、その行の輪郭の左端の画素及び輪郭の右端の画素について、ガイドの内枠の座標と一致すると、その画素はガイドの内枠と一致すると判定する。なお、所定割合は、例えば、被写体領域の左端の輪郭の長さまたは被写体領域の右端の輪郭の長さの90%とすることができる。   The selection feature amount evaluating unit 27 determines whether or not each of the left end contour and the right end contour of the subject area matches the inner frame of the guide by a predetermined ratio or more (step S102). Since the position of the guide with respect to the area sensor and the optical system of the biological information acquisition unit 21 is fixed, the pixel in which the inner frame of the guide appears on the biological image is known in advance. Therefore, for example, the coordinates of each of the plurality of pixels in which the inner frame of the guide appears on the biological image are stored in the storage unit 23 in advance. Then, when the selection feature quantity evaluating unit 27 matches the coordinates of the inner frame of the guide with respect to the leftmost pixel of the contour and the rightmost pixel of the contour of each row of the biometric image, the pixel is defined as the inner frame of the guide. It is determined that they match. The predetermined ratio can be, for example, 90% of the length of the contour at the left end of the subject area or the length of the contour at the right end of the subject area.

被写体領域の左端の輪郭及び右端の輪郭の何れもが、所定割合以上ガイドの内枠と一致している場合(ステップS102−Yes)、利用者の手が大き過ぎて、利用者の手の輪郭が生体画像に写っていないと推定される。そこで選択用特徴量評価部27は、代替特徴量抽出部29に、代替特徴量を求めさせる(ステップS103)。   When both the left edge outline and the right edge outline of the subject area coincide with the inner frame of the guide by a predetermined ratio or more (Yes in step S102), the user's hand is too large and the user's hand outline Is estimated not to appear in the biological image. Therefore, the selection feature quantity evaluation unit 27 causes the alternative feature quantity extraction unit 29 to obtain an alternative feature quantity (step S103).

一方、被写体領域の左端の輪郭及び右端の輪郭の少なくとも一方について、ガイドの内枠と一致している割合が所定割合未満である場合(ステップS102−No)、選択用特徴量評価部27は、手の平の位置が全体的に左または右へずれていないか調べる。そのために、選択用特徴量評価部27は、被写体領域の左端の輪郭及び右端の輪郭のうち、ガイドの内枠と一致している割合が高い方の輪郭について、その割合が所定割合以上か否か判定する(ステップS104)。その一致割合が所定割合以上である場合(ステップS104−Yes)、選択用特徴量評価部27は、生体情報取得部21に対する利用者の手の位置が左右にずれていると判定する。そして選択用特徴量評価部27は、端末2の表示部(図示せず)を介して、手の中心位置を生体情報取得部21の中心に合わせることを促すガイダンスメッセージを表示させる(ステップS105)。その後、生体情報取得部21により再生成された生体画像に対して、被写体領域の検出及び選択用特徴量評価処理が実行される。なお、ステップS104において、選択用特徴量評価部27は、他方の輪郭について、ガイドの内枠との距離が所定距離以上離れていることを、利用者の手の位置がずれていると判定するための条件として加えてもよい。この場合、所定距離は、例えば、実距離で1cmに相当する画素数とすることができる。   On the other hand, when at least one of the left edge outline and the right edge outline of the subject area matches the inner frame of the guide is less than a predetermined ratio (step S102-No), the selection feature amount evaluation unit 27 Check if the palm is not entirely shifted to the left or right. For this purpose, the selection feature quantity evaluation unit 27 determines whether the ratio of the outline that has a higher proportion matching the inner frame of the guide out of the left end contour and the right end contour of the subject area is equal to or greater than a predetermined ratio. (Step S104). When the coincidence ratio is equal to or higher than the predetermined ratio (step S <b> 104 -Yes), the selection feature amount evaluation unit 27 determines that the position of the user's hand with respect to the biometric information acquisition unit 21 is shifted left and right. Then, the selection feature quantity evaluation unit 27 displays a guidance message that prompts the user to align the center position of the hand with the center of the biometric information acquisition unit 21 via the display unit (not shown) of the terminal 2 (step S105). . Thereafter, subject area detection and selection feature amount evaluation processing is performed on the biological image regenerated by the biological information acquisition unit 21. In step S104, the selection feature amount evaluation unit 27 determines that the position of the user's hand is shifted when the distance between the other contour and the inner frame of the guide is a predetermined distance or more. You may add as conditions for. In this case, the predetermined distance can be, for example, the number of pixels corresponding to 1 cm in actual distance.

ステップS104にて、ガイドの内枠と一致している割合が所定割合未満である場合(ステップS104−No)、少なくとも、手の平の幅の算出に利用される、被写体領域の輪郭の該当部分は生体画像内に写っていると推定される。
そこで次に、選択用特徴量評価部27は、被写体領域の輪郭のうちの手の平の幅の算出に利用される部分が、予め設定される許容範囲から外れるか否かを判定する(ステップS106)。なお、許容範囲は、生体情報取得部21の光学系の歪曲収差が無視できる程度(例えば、歪曲収差によるずれ量が実際のサイズで1mmに相当する画素数以下)である生体画像上の範囲とすることができる。あるいは、許容範囲は、生体情報取得部21の光学系についての周辺光量比が手の輪郭の検出に影響しない所定比率(例えば、50%)以上となる生体画像上の範囲とすることができる。なお、この許容範囲は、光学系の性能に応じて決まるので、予め設定可能である。そのため、許容範囲を示す情報は、予め記憶部23に記憶される。
In step S104, when the ratio that matches the inner frame of the guide is less than the predetermined ratio (step S104-No), at least the relevant part of the contour of the subject area used for calculating the palm width is a living body. Presumed to be in the image.
Therefore, next, the selection feature quantity evaluation unit 27 determines whether or not a portion of the outline of the subject region that is used for calculating the palm width is out of a preset allowable range (step S106). . The allowable range is a range on the biological image that is such that the distortion of the optical system of the biological information acquisition unit 21 is negligible (for example, the amount of deviation due to distortion is equal to or less than the number of pixels corresponding to 1 mm in actual size). can do. Alternatively, the allowable range may be a range on the biological image in which the peripheral light amount ratio for the optical system of the biological information acquisition unit 21 is a predetermined ratio (for example, 50%) or more that does not affect the detection of the hand contour. This allowable range is determined according to the performance of the optical system, and can be set in advance. Therefore, information indicating the allowable range is stored in the storage unit 23 in advance.

また、手の平の幅の算出に利用される部分は、本実施形態では、小指の外側に沿った、小指の付け根付近の手の輪郭と、人差し指の親指側に沿った、人差し指の付け根付近の手の輪郭である。小指の外側に沿った、小指の付け根付近の手の輪郭は、例えば、小指が生体画像の右端側に位置している場合、被写体領域の右端の輪郭の中点を中心とする、生体画像の垂直方向の長さの1/3〜1/2の範囲に含まれる部分とすることができる。また、親指は、生体画像の上端に接しないので、生体画像の上端付近における被写体領域の輪郭の左端は、人差し指の親指側に沿った輪郭である。そして人差し指の付け根と親指の付け根との中点が、人差し指の親指側に沿った輪郭のうちで生体画像上で最も下方に位置する。すなわち、生体画像の上端付近における被写体領域の輪郭の左端に位置する画素から、その画素に連続する輪郭上の画素のうちの最も下方に位置する画素までが、人差し指の親指側に沿った輪郭となる。そこで人差し指の親指側に沿った、人差し指の付け根付近の手の輪郭は、例えば、人差し指の付け根と親指の付け根との中点に相当する被写体領域の輪郭の画素を下端とし、その下端から生体画像の上端までの距離の1/3〜1/2の範囲に含まれる輪郭の部分とする。   In this embodiment, the part used for calculating the palm width is the contour of the hand near the base of the little finger along the outside of the little finger and the hand near the base of the index finger along the thumb side of the index finger. Is the outline. The contour of the hand near the base of the little finger along the outside of the little finger is, for example, when the little finger is positioned on the right end side of the biological image, It can be a portion included in the range of 1/3 to 1/2 of the length in the vertical direction. Also, since the thumb does not touch the upper end of the biometric image, the left end of the contour of the subject area near the upper end of the biometric image is an outline along the thumb side of the index finger. The midpoint between the base of the index finger and the base of the thumb is located on the lowermost position on the biometric image in the contour along the thumb side of the index finger. That is, from the pixel located at the left end of the contour of the subject area in the vicinity of the upper end of the biometric image to the pixel located at the lowermost of the pixels on the contour continuous with the pixel, the contour along the thumb side of the index finger Become. Therefore, the contour of the hand near the base of the index finger along the thumb side of the index finger is, for example, a pixel of the contour of the subject area corresponding to the midpoint between the base of the index finger and the base of the thumb, and a biological image from the bottom The contour portion is included in the range of 1/3 to 1/2 of the distance to the upper end of the.

手の平の幅の算出に利用される部分の少なくとも一部が許容範囲から外れる場合(ステップS106−Yes)、選択用特徴量評価部27は、手の平の幅を正確に求めることができない可能性があると判定する。そこで選択用特徴量評価部27は、代替特徴量抽出部29に、代替特徴量を求めさせる(ステップS103)。   When at least a part of the portion used for calculating the palm width is out of the allowable range (step S106: Yes), the selection feature value evaluation unit 27 may not be able to accurately calculate the palm width. Is determined. Therefore, the selection feature quantity evaluation unit 27 causes the alternative feature quantity extraction unit 29 to obtain an alternative feature quantity (step S103).

一方、手の平の幅の算出に利用される部分全体が許容範囲内に含まれる場合(ステップS106−No)、手の平の輪郭のうち、選択用特徴量の抽出に利用される部分は生体画像上の適切な位置にあると推定される。そこで次に、選択用特徴量評価部27は、手の平の幅の算出に利用される部分に含まれる輪郭上の画素の輝度値の平均値とそれら輪郭上の画素に隣接する背景領域内の画素の輝度値の平均値との差を求める。そして選択用特徴量評価部27は、その輝度値の平均値の差(以下、便宜上、輪郭輝度差と呼ぶ)が所定の輝度閾値未満となるか否か判定する(ステップS107)。   On the other hand, when the whole part used for calculation of the palm width is included in the allowable range (step S106-No), the part used for extracting the feature value for selection in the outline of the palm is on the biological image. Presumed to be in the proper position. Therefore, next, the selection feature amount evaluating unit 27 calculates the average value of the luminance values of the pixels on the contour included in the portion used for calculating the palm width and the pixels in the background region adjacent to the pixels on the contour. The difference between the luminance value and the average value is obtained. Then, the selection feature amount evaluation unit 27 determines whether or not the difference between the average values of the luminance values (hereinafter referred to as the contour luminance difference for convenience) is less than a predetermined luminance threshold (step S107).

輪郭輝度差が所定の輝度閾値未満である場合(ステップS107−Yes)、選択用特徴量評価部27は、被写体領域の輪郭が正確に検出できておらず、手の平の幅を正確に求めることができない可能性があると判定する。そこで選択用特徴量評価部27は、代替特徴量抽出部29に、代替特徴量を求めさせる(ステップS103)。   If the contour brightness difference is less than the predetermined brightness threshold (step S107—Yes), the selection feature amount evaluation unit 27 cannot accurately detect the contour of the subject region, and can accurately determine the palm width. It is determined that there is a possibility that it cannot be performed. Therefore, the selection feature quantity evaluation unit 27 causes the alternative feature quantity extraction unit 29 to obtain an alternative feature quantity (step S103).

一方、輪郭輝度差が所定の輝度閾値以上である場合(ステップS107−No)、選択用特徴量評価部27は、手の平の幅を正確に求めることができると判定する。そこで選択用特徴量評価部27は、選択用特徴量抽出部28に、選択用特徴量である手の平の幅を求めさせる(ステップS108)。なお、輝度閾値は、例えば、被写体領域の輪郭上の画素の輝度値の平均値の10%〜20%に設定される。
ステップS103、S105またはS108の後、選択用特徴量評価部27は、選択用特徴量評価処理を終了する。
なお、選択用特徴量評価部27は、ステップS102、S104、S106及びS107の判定の順序を入れ換えてもよい。
On the other hand, when the contour luminance difference is equal to or larger than the predetermined luminance threshold (step S107—No), the selection feature amount evaluation unit 27 determines that the palm width can be accurately obtained. Therefore, the selection feature quantity evaluation unit 27 causes the selection feature quantity extraction unit 28 to obtain the palm width, which is the selection feature quantity (step S108). Note that the luminance threshold is set to, for example, 10% to 20% of the average value of the luminance values of the pixels on the contour of the subject area.
After step S103, S105, or S108, the selection feature quantity evaluation unit 27 ends the selection feature quantity evaluation process.
Note that the selection feature amount evaluation unit 27 may change the order of determination in steps S102, S104, S106, and S107.

以下、選択用特徴量と代替特徴量について説明する。図6は、選択用特徴量の一例である手の平の幅と代替特徴量の一例である指の幅及び代替特徴量の他の一例である親指と人差し指の付け根の中点と小指と薬指の付け根の中点間の距離とを示す図である。本実施形態では、選択用特徴量は、手の平の幅であり、矢印601に示されるように、小指の外側に沿った、小指の付け根付近の手の輪郭と、人差し指の親指側に沿った、人差し指の付け根付近の手の輪郭との距離で表される。一方、代替特徴量の一例は、矢印602に示されるように、何れかの指の幅である。また代替特徴量の他の一例は、矢印603に示されるように、親指と人差し指の付け根の中点と、薬指と小指の付け根の中点間の距離である。   Hereinafter, the selection feature amount and the alternative feature amount will be described. FIG. 6 illustrates the width of the palm, which is an example of the feature for selection, the width of the finger, which is an example of the alternative feature, and the midpoint of the base of the thumb and index finger, and the base of the little finger, the ring finger, which is another example of the alternative feature. It is a figure which shows the distance between the middle points. In the present embodiment, the selection feature amount is the width of the palm, and as indicated by an arrow 601, along the outer side of the little finger, the outline of the hand near the base of the little finger and the thumb side of the index finger, It is expressed as the distance from the contour of the hand near the base of the index finger. On the other hand, an example of the alternative feature amount is the width of any finger as indicated by an arrow 602. Another example of the alternative feature amount is a distance between the midpoint of the base of the thumb and the index finger and the midpoint of the base of the ring finger and the little finger, as indicated by an arrow 603.

選択用特徴量抽出部28は、選択用特徴量評価部27が、生体画像から選択用特徴量を抽出できると判定した場合、生体情報を含む部位の形状の特徴を表す選択用特徴量として、生体画像に写っている手の平の幅を求める。   When the selection feature quantity evaluation unit 27 determines that the selection feature quantity can be extracted from the biometric image, the selection feature quantity extraction unit 28 selects the feature quantity for the part including the biometric information as a selection feature quantity. Find the width of the palm in the biological image.

例えば、小指が生体画像の右端側に位置している場合、すなわち、生体画像に左手が写っている場合、被写体領域の右端の輪郭は、小指の外側に沿った手の輪郭に相当する。また、親指の先端は、生体画像の上端に達しないので、生体画像の上端付近における、被写体領域の左端の輪郭上の画素及びその画素と連続する輪郭上の画素は、人差し指の親指側に沿った手の輪郭に相当する。なお、生体画像に右手が写っている場合、被写体領域の左端の輪郭が小指の外側に沿った手の輪郭に相当し、生体画像の上端付近における、被写体領域の右端の輪郭上の画素及びその画素と連続する輪郭上の画素は、人差し指の親指側に沿った手の輪郭に相当する。   For example, when the little finger is positioned on the right end side of the biological image, that is, when the left hand is reflected in the biological image, the contour of the right end of the subject area corresponds to the contour of the hand along the outside of the little finger. Further, since the tip of the thumb does not reach the upper end of the biometric image, the pixel on the contour at the left end of the subject region and the pixel on the contour continuous with the pixel near the upper end of the biometric image are along the thumb side of the index finger. Corresponds to the contour of the hand. When the right hand is shown in the biological image, the contour of the left end of the subject region corresponds to the contour of the hand along the outside of the little finger, and the pixel on the right contour of the subject region near the upper end of the biological image and its The pixel on the contour that is continuous with the pixel corresponds to the contour of the hand along the thumb side of the index finger.

選択用特徴量抽出部28は、小指の外側に沿った手の輪郭上の任意の画素を小指側端点とし、人差し指の親指側に沿った手の輪郭上の任意の画素を人差し指側端点とする。そして選択用特徴量抽出部28は、小指側端点と人差し指側端点の組を様々に変更しつつ、各組についてその2点間の距離を算出する。そして選択用特徴量抽出部28は、それら距離のうちの最小値を、手の平の幅とする。
選択用特徴量抽出部28は、手の平の幅を記憶部23に記憶する。
The selection feature amount extraction unit 28 uses an arbitrary pixel on the contour of the hand along the outside of the little finger as an end point on the little finger side, and an arbitrary pixel on the contour of the hand along the thumb side of the index finger as an index finger side end point. . Then, the selection feature amount extraction unit 28 calculates the distance between the two points for each pair while changing the pair of the little finger end point and the index finger end point in various ways. Then, the selection feature quantity extraction unit 28 sets the minimum value of these distances as the palm width.
The selection feature amount extraction unit 28 stores the palm width in the storage unit 23.

代替特徴量抽出部29は、選択用特徴量評価部27が、生体画像上から選択用特徴量を求めることができない可能性があると判定した場合に、その選択用特徴量と所定の相関関係を持つ、生体情報を含む部位の他の形状の特徴を表す代替特徴量を抽出する。そして代替特徴量抽出部29は、代替特徴量をその相関関係に応じて補正することで、選択用特徴量の近似値を求める。   When the selection feature quantity evaluation unit 27 determines that there is a possibility that the selection feature quantity cannot be obtained from the biological image, the alternative feature quantity extraction unit 29 has a predetermined correlation with the selection feature quantity. And an alternative feature amount representing a feature of another shape of the part including the biological information. Then, the alternative feature quantity extraction unit 29 corrects the alternative feature quantity according to the correlation to obtain an approximate value of the selection feature quantity.

本実施形態では、代替特徴量抽出部29は、上記のように、手の平の幅との相関性が高い、何れかの指の幅、あるいは、親指と人差し指の付け根の中点と、薬指と小指の付け根の中点間の距離を代替特徴量として求める。そのために、代替特徴量抽出部29は、指の付け根を検出する。例えば、代替特徴量抽出部29は、生体画像の垂直方向に対して等間隔に複数の水平方向の走査線を設定する。そして代替特徴量抽出部29は、各走査線上で被写体領域上の輪郭の画素を検出することにより、隣接する二つの被写体領域に挟まれる背景領域を、隣接する2本の指の間の領域として検出する。そして代替特徴量抽出部29は、生体画像の上端側から順に、各走査線について指の間の領域を検出し、その指の間の領域の下端を、隣接する2本の指の付け根の中点とする。また、生体画像の右端側に小指が位置する場合、代替特徴量抽出部29は、検出された2本の指の付け根の中点のうち、最も右側の中点を小指と薬指の付け根の中点とする。同様に、代替特徴量抽出部29は、検出された2本の指の付け根の中点のうち、最も左側の中点を人指し指と中指の付け根の中点とする。なお、生体画像の左端側に小指が位置する場合には、代替特徴量抽出部29は、逆に、検出された2本の指の付け根の中点のうち、最も左側の中点を小指と薬指の付け根の中点とし、最も右側の中点を人指し指と中指の付け根の中点とする。   In the present embodiment, as described above, the alternative feature amount extraction unit 29 has a high correlation with the width of the palm, the width of any finger, or the midpoint of the base of the thumb and index finger, the ring finger, and the little finger. The distance between the midpoints of the roots of the is obtained as an alternative feature amount. For this purpose, the alternative feature amount extraction unit 29 detects the base of the finger. For example, the alternative feature amount extraction unit 29 sets a plurality of horizontal scanning lines at equal intervals with respect to the vertical direction of the biological image. Then, the alternative feature amount extraction unit 29 detects a contour pixel on the subject area on each scanning line, so that a background area sandwiched between two adjacent subject areas is set as an area between two adjacent fingers. To detect. Then, the substitute feature amount extraction unit 29 detects an area between the fingers for each scanning line in order from the upper end side of the biological image, and the lower end of the area between the fingers is located in the root of two adjacent fingers. Let it be a point. Further, when the little finger is located on the right end side of the biological image, the alternative feature amount extraction unit 29 sets the rightmost midpoint among the detected midpoints of the two finger roots to the middle of the little finger and the ring finger. Let it be a point. Similarly, the alternative feature amount extraction unit 29 sets the leftmost midpoint of the detected midpoints of the two finger bases as the midpoint of the base of the index finger and the middle finger. When the little finger is positioned on the left end side of the biological image, the substitute feature amount extraction unit 29 conversely selects the leftmost midpoint among the detected midpoints of the two finger bases as the little finger. The midpoint of the base of the ring finger is the midpoint of the index finger and the middle finger.

さらに、代替特徴量抽出部29は、人差し指と親指の付け根の中点を検出するために、人差し指の中指側の輪郭を近似的に表す直線(例えば、図6における線621)をもとめる。そして代替特徴量抽出部29は、その直線に直交し、かつ、人差し指と中指の付け根の中点を通る直線(例えば、図6における線622)が人差し指の親指側の輪郭と交差する位置を、人差し指と親指の付け根の中点とする。
なお、代替特徴量抽出部29は、人差し指の中指側の輪郭上の画素(例えば、生体画像の右端側に小指が位置している場合、生体画像上端付近における、生体画像の左端から2番目の輪郭上の画素に相当)を複数検出する。そして代替特徴量抽出部29は、それら複数の輪郭上の画素に対してハフ変換を実行することで、人差し指の中指側の輪郭を近似的に表す直線を検出できる。
Further, the alternative feature amount extraction unit 29 finds a straight line (for example, a line 621 in FIG. 6) that approximately represents the contour of the middle finger side of the index finger in order to detect the midpoint of the base of the index finger and the thumb. Then, the alternative feature amount extraction unit 29 determines a position where a straight line (for example, a line 622 in FIG. 6) that is orthogonal to the straight line and passes through the middle point between the index finger and the middle finger intersects the contour on the thumb side of the index finger. The midpoint of the base of the index finger and thumb.
Note that the alternative feature amount extraction unit 29 is the second pixel from the left end of the biometric image in the vicinity of the upper end of the biometric image when the little finger is positioned on the right end side of the biometric image. A plurality of pixels corresponding to the pixels on the contour are detected. The alternative feature amount extraction unit 29 can detect a straight line that approximately represents the middle finger side contour of the index finger by performing Hough transform on the pixels on the plurality of contours.

代替特徴量抽出部29は、生体画像から、2本の指の付け根の中点が3箇所検出でき、かつ、人差し指と親指の付け根の中点を検出できた場合、人差し指と親指の付け根の中点と小指と薬指の付け根の中点間の距離を代替特徴量として算出する。この距離は、指3本(人指し指、中指、薬指)分の幅に相当する。一方、本実施形態では、手の平の幅は、指4本(人指し指、中指、薬指、小指)分の幅に相当する。そこで代替特徴量抽出部29は、この距離に、約1.3〜1.4の値を持つ補正係数を乗じることにより、手の平の幅の近似値を算出する。   The alternative feature amount extraction unit 29 can detect three midpoints of the bases of two fingers from the biometric image, and can detect the midpoints of the bases of the index and thumbs. The distance between the middle point of the base of the point, little finger, and ring finger is calculated as an alternative feature amount. This distance corresponds to the width of three fingers (index finger, middle finger, and ring finger). On the other hand, in the present embodiment, the width of the palm corresponds to the width of four fingers (index finger, middle finger, ring finger, little finger). Therefore, the alternative feature amount extraction unit 29 calculates an approximate value of the palm width by multiplying this distance by a correction coefficient having a value of about 1.3 to 1.4.

あるいは、代替特徴量抽出部29は、隣接する2箇所の指の付け根の中点間の距離を、1本の指の幅として算出してもよい。この場合、代替特徴量抽出部29は、その指の幅に約4.0〜5.0の値を持つ補正係数を乗じることにより、手の平の幅の近似値を算出する。   Alternatively, the alternative feature amount extraction unit 29 may calculate the distance between the midpoints of the two adjacent finger bases as the width of one finger. In this case, the alternative feature amount extraction unit 29 calculates an approximate value of the palm width by multiplying the width of the finger by a correction coefficient having a value of about 4.0 to 5.0.

一方、隣接する指の付け根の中点が2箇所以下しか検出されなかった場合、少なくとも一部の指が閉じた状態で利用者の手が生体画像に写っていると推定される。そのため、小指と薬指の付け根の中点または中指と人差し指の付け根の中点の何れかが検出されていないおそれがある。そこでこの場合、代替特徴量抽出部29は、隣接する2箇所の指の付け根の中点間の距離をそれぞれ算出する。代替特徴量抽出部29は、これらの距離のうち、最も短いものを指の幅とする。あるいは、代替特徴量抽出部29は、これらの距離と、予め設定された指の幅の基準値とをそれぞれ比較し、その基準値に最も近い距離を指の幅としてもよい。あるいはまた、代替特徴量抽出部29は、隣接する2箇所の指の付け根の中点間の距離の何れかが、指の幅の基準値の2倍に対して約0.9〜1.1倍となっている場合、その距離の1/2を指の幅としてもよい。   On the other hand, if only two or less midpoints of the bases of adjacent fingers are detected, it is estimated that the user's hand is shown in the biological image with at least some of the fingers closed. Therefore, there is a possibility that either the midpoint of the base of the little finger and the ring finger or the midpoint of the base of the middle finger and the index finger is not detected. Therefore, in this case, the alternative feature quantity extraction unit 29 calculates the distance between the midpoints of the two adjacent finger bases. The alternative feature amount extraction unit 29 sets the shortest of these distances as the finger width. Alternatively, the alternative feature amount extraction unit 29 may compare these distances with a preset reference value of the finger width, and may use the distance closest to the reference value as the finger width. Alternatively, in the alternative feature amount extraction unit 29, any one of the distances between the midpoints of the two adjacent finger bases is about 0.9 to 1.1 times the double of the finger width reference value. If it is, 1/2 of the distance may be used as the finger width.

また、選択用特徴量評価部27にて、被写体領域の左端の輪郭及び右端の輪郭の何れもが、所定割合以上ガイドの内枠と一致していると判定されている場合、ガイドからはみ出るほど利用者の手が大きいと推定される。そこでこの場合、代替特徴量抽出部29は、ガイドの左端側の内枠とガイドの右端側の内枠間の距離を、代替特徴量として算出する。この場合、代替特徴量抽出部29は、ガイドの左端側の内枠とガイドの右端側の内枠間の距離を、そのまま手の平の幅の近似値とする。
代替特徴量抽出部29は、選択用特徴量の近似値を記憶部23に記憶する。
In addition, when the selection feature amount evaluation unit 27 determines that both the left end outline and the right end outline of the subject region coincide with the inner frame of the guide by a predetermined ratio or more, the selection feature amount evaluation unit 27 is more likely to protrude from the guide. It is estimated that the user's hand is large. Therefore, in this case, the alternative feature quantity extraction unit 29 calculates the distance between the inner frame on the left end side of the guide and the inner frame on the right end side of the guide as an alternative feature quantity. In this case, the alternative feature amount extraction unit 29 uses the distance between the inner frame on the left end side of the guide and the inner frame on the right end side of the guide as it is as an approximate value of the palm width.
The alternative feature quantity extraction unit 29 stores the approximate value of the selection feature quantity in the storage unit 23.

処理部24は、登録処理の実行時には、利用者の識別情報とともに、照合用データと、選択用特徴量または選択用特徴量の近似値を、通信部22を介して認証サーバ3へ送信する。
また処理部24は、生体認証処理の実行時には、照合用データと、選択用特徴量または選択用特徴量の近似値を、通信部22を介して認証サーバ3へ送信する。
When executing the registration process, the processing unit 24 transmits the verification data and the selection feature quantity or the approximate value of the selection feature quantity to the authentication server 3 via the communication unit 22 together with the user identification information.
In addition, when the biometric authentication process is executed, the processing unit 24 transmits the verification data and the selection feature quantity or the approximate value of the selection feature quantity to the authentication server 3 via the communication unit 22.

データサーバ4は、全ての登録利用者について、生体認証処理に用いられるデータを記憶する。そのためにデータサーバ4は、通信部41と、記憶部42と、制御部43とを有する。   The data server 4 stores data used for biometric authentication processing for all registered users. For this purpose, the data server 4 includes a communication unit 41, a storage unit 42, and a control unit 43.

通信部41は、データサーバ4と認証サーバ3とを通信可能に接続するためのインターフェース回路を有する。そして通信部41は、登録処理の実行時には、認証サーバ3から登録要求信号を受け取り、制御部43へ渡す。また通信部41は生体認証処理の実行時には、記憶部42に記憶されている登録利用者の照合用データ及び選択用特徴量を認証サーバ3へ送信する。   The communication unit 41 includes an interface circuit for connecting the data server 4 and the authentication server 3 so that they can communicate with each other. The communication unit 41 receives a registration request signal from the authentication server 3 and passes it to the control unit 43 when executing the registration process. Further, the communication unit 41 transmits the registered user verification data and the selection feature quantity stored in the storage unit 42 to the authentication server 3 when the biometric authentication process is executed.

記憶部42は、例えば、半導体メモリ、磁気ディスク装置、または光ディスク装置のうちの少なくとも何れか一つを有する。そして記憶部42は、データサーバ4を制御するために用いられる各種のプログラム及びデータを記憶する。また記憶部42は、全ての登録利用者について、利用者の識別情報、照合用データ及び選択用特徴量を記憶する。   The storage unit 42 includes, for example, at least one of a semiconductor memory, a magnetic disk device, and an optical disk device. The storage unit 42 stores various programs and data used for controlling the data server 4. The storage unit 42 stores user identification information, collation data, and selection feature amounts for all registered users.

制御部43は、少なくとも一つのプロセッサ及び周辺回路を有する。そして制御部43は、登録処理の実行時において、認証サーバ3から登録要求信号を受信すると、その登録要求信号に含まれる登録利用者の各種情報を記憶部42に記憶する。また制御部43は、生体認証処理の実行時において、認証サーバ3から選択用特徴量要求信号を受信すると、各登録利用者の選択用特徴量を記憶部42から読み出して認証サーバ3へ送信する。また制御部43は、認証サーバ3から照合用データ要求信号を受信すると、選択された登録利用者の照合用データを記憶部42から読み出して認証サーバ3へ送信する。   The control unit 43 includes at least one processor and peripheral circuits. When receiving a registration request signal from the authentication server 3 during execution of the registration process, the control unit 43 stores various information of the registered user included in the registration request signal in the storage unit 42. When the control unit 43 receives a selection feature quantity request signal from the authentication server 3 during execution of the biometric authentication process, the control unit 43 reads the selection feature quantity of each registered user from the storage unit 42 and transmits it to the authentication server 3. . When receiving the verification data request signal from the authentication server 3, the control unit 43 reads the verification data of the selected registered user from the storage unit 42 and transmits it to the authentication server 3.

認証サーバ3は、登録処理の実行時には、端末2から受信した照合用データと選択用特徴量を、利用者の識別情報とともにデータサーバ4へ送信する。なお、選択用特徴量の代わりに選択用特徴量の近似値が求められている場合、認証サーバ3は、その近似値を選択用特徴量としてデータサーバ4へ送信する。
また認証サーバ3は、生体認証処理の実行時には、端末2から受信した選択用特徴量に基づいて、照合処理の対象となる登録利用者を選択する。そして認証サーバ3は、選択された登録利用者の照合用データと端末2から受信した照合用データを用いて照合処理を実行し、利用者を何れかの登録利用者として認証するか否か判定する。そして認証サーバ3は、利用者を登録利用者の何れかとして認証した場合、認証サーバ3が実装された装置をその利用者が使用することを許可する。あるいは、認証サーバ3は、図示しない他の装置へ、利用者が認証された旨を表す信号を送信して、その利用者が他の装置を使用することを許可する。
そのために、認証サーバ3は、通信部31と、記憶部32と、処理部33とを有する。
At the time of executing the registration process, the authentication server 3 transmits the verification data and the selection feature quantity received from the terminal 2 to the data server 4 together with the user identification information. If an approximate value of the feature value for selection is obtained instead of the feature value for selection, the authentication server 3 transmits the approximate value to the data server 4 as the feature value for selection.
Further, when executing the biometric authentication process, the authentication server 3 selects a registered user to be a target of the matching process based on the selection feature amount received from the terminal 2. Then, the authentication server 3 executes a verification process using the selected registered user verification data and the verification data received from the terminal 2, and determines whether to authenticate the user as any registered user. To do. When the authentication server 3 authenticates the user as one of the registered users, the authentication server 3 permits the user to use the device on which the authentication server 3 is mounted. Alternatively, the authentication server 3 transmits a signal indicating that the user has been authenticated to another device (not shown) and permits the user to use the other device.
For this purpose, the authentication server 3 includes a communication unit 31, a storage unit 32, and a processing unit 33.

通信部31は、通信ネットワーク5に認証サーバ3を接続するための通信インターフェース回路を有する。そして通信部31は、端末2から通信ネットワーク5を介して受信した情報を処理部33へ渡す。また通信部31は、処理部33から受け取った認証結果を表す情報を通信ネットワーク5を介して端末2へ送信してもよい。
さらに通信部31は、認証サーバ3とデータサーバ4とを通信可能に接続するためのインターフェース回路を有する。そして通信部31は、生体認証処理の実行時には、データサーバ4から各登録利用者の識別情報及び選択用特徴量と、選択された登録利用者の照合用データを受信し、処理部33へ渡す。また通信部31は、登録処理の実行時には、端末2から受信した照合用データ及び選択用特徴量を、利用者の識別情報とともにデータサーバ4へ送信する。
The communication unit 31 includes a communication interface circuit for connecting the authentication server 3 to the communication network 5. Then, the communication unit 31 passes information received from the terminal 2 via the communication network 5 to the processing unit 33. The communication unit 31 may transmit information representing the authentication result received from the processing unit 33 to the terminal 2 via the communication network 5.
Furthermore, the communication unit 31 includes an interface circuit for connecting the authentication server 3 and the data server 4 so that they can communicate with each other. When the biometric authentication process is executed, the communication unit 31 receives the identification information and selection feature amount of each registered user and the selected registration user verification data from the data server 4 and passes them to the processing unit 33. . Further, when executing the registration process, the communication unit 31 transmits the matching data and the selection feature amount received from the terminal 2 to the data server 4 together with the user identification information.

記憶部32は、例えば、半導体メモリ、磁気ディスク装置、または光ディスク装置のうちの少なくとも何れか一つを有する。そして記憶部32は、認証サーバ3を制御するために用いられる各種のプログラム及びデータを記憶する。また記憶部32は、全ての登録利用者の識別情報を記憶する。さらに記憶部32は、生体認証処理の実行時には、各登録利用者の識別情報、選択用特徴量及び選択された登録利用者の照合用データを一時的に保存する。さらに記憶部32は、登録処理の実行時には、端末2から受信した照合用データ、選択用特徴量または選択用特徴量の近似値を、利用者の識別情報とともに一時的に保存する。   The storage unit 32 includes, for example, at least one of a semiconductor memory, a magnetic disk device, and an optical disk device. The storage unit 32 stores various programs and data used for controlling the authentication server 3. The storage unit 32 stores identification information of all registered users. Furthermore, when the biometric authentication process is executed, the storage unit 32 temporarily stores the identification information of each registered user, the selection feature amount, and the verification data of the selected registered user. Further, when executing the registration process, the storage unit 32 temporarily stores the matching data, the selection feature quantity, or the approximate value of the selection feature quantity received from the terminal 2 together with the user identification information.

処理部33は、少なくとも一つのプロセッサ及び周辺回路を有する。そして処理部33は、生体認証処理における、登録利用者の選択及び利用者の入力生体情報と選択された登録利用者の登録生体情報との照合を実行する。また処理部33は、登録処理を実行する。   The processing unit 33 includes at least one processor and peripheral circuits. And the process part 33 performs the collation with the selection of a registered user and a user's input biometric information, and the registration biometric information of the selected registered user in biometrics authentication processing. The processing unit 33 executes registration processing.

図7は、認証サーバ3の処理部33の機能ブロック図である。処理部33は、選択部34と、照合部35と、認証判定部36と、登録部37とを有する。処理部33が有するこれらの各部は、処理部33が有するプロセッサ上で実行されるコンピュータプログラムによって実装される機能モジュールである。あるいは、処理部33が有するこれらの各部は、ファームウェアとして認証サーバ3に実装されてもよい。   FIG. 7 is a functional block diagram of the processing unit 33 of the authentication server 3. The processing unit 33 includes a selection unit 34, a collation unit 35, an authentication determination unit 36, and a registration unit 37. Each of these units included in the processing unit 33 is a functional module implemented by a computer program executed on a processor included in the processing unit 33. Or these each part which the process part 33 has may be mounted in the authentication server 3 as firmware.

選択部34、照合部35及び認証判定部36は、生体認証処理の実行時において使用され、一方、登録部37は、登録処理の実行時において使用される。そこで、以下では、生体認証処理と登録処理とに分けて説明する。   The selection unit 34, the verification unit 35, and the authentication determination unit 36 are used when the biometric authentication process is executed, while the registration unit 37 is used when the registration process is executed. Therefore, in the following, the biometric authentication process and the registration process will be described separately.

(生体認証処理)
先ず、利用者を何れかの登録利用者として認証するか否かを判定する生体認証処理について説明する。
生体認証処理の実行時において、処理部33は、端末2から利用者の選択用特徴量または選択用特徴量の近似値を受け取ると、通信部31を介してデータサーバ4に対して選択用特徴量要求信号を送信する。そして処理部33は、データサーバ4から、全ての登録利用者の選択用特徴量を受け取り、記憶部32に一時的に記憶する。なお、上記では、認証サーバ3は選択用特徴量を生体認証処理の実行時にデータサーバ4から取得しているが、認証サーバ3は選択用特徴量を予め取得しておき記憶部32に記憶させておいてもよい。
(Biometric authentication process)
First, a biometric authentication process for determining whether to authenticate a user as any registered user will be described.
When the biometric authentication process is executed, the processing unit 33 receives the selection feature quantity of the user or an approximate value of the selection feature quantity from the terminal 2, and the selection feature is sent to the data server 4 via the communication unit 31. Send a quantity request signal. Then, the processing unit 33 receives selection feature amounts of all registered users from the data server 4 and temporarily stores them in the storage unit 32. In the above description, the authentication server 3 obtains the selection feature quantity from the data server 4 when the biometric authentication process is executed. However, the authentication server 3 obtains the selection feature quantity in advance and stores it in the storage unit 32. You may keep it.

選択部34は、選択用特徴量に基づいて、照合対象となる登録利用者を選択する。そのために、選択部34は、端末2から受け取った利用者の選択用特徴量または選択用特徴量の近似値と、各登録利用者の選択用特徴量とに基づいて、利用者の生体情報と登録利用者の生体情報間の類似度合いを表す選択用スコアを算出する。なお、一人の登録利用者に対する選択用スコアの算出に要する演算量は、一人の登録利用者に対する照合処理の演算量よりも少ない。そのため、選択部34が選択用スコアに基づいて照合対象となる登録利用者を選択することにより、生体認証装置1は、全ての登録利用者に対して照合処理を実行するよりも演算量を削減できる。   The selection unit 34 selects a registered user to be collated based on the selection feature amount. For this purpose, the selection unit 34 receives the user's biometric information based on the selection feature quantity of the user or the approximate value of the selection feature quantity received from the terminal 2 and the selection feature quantity of each registered user. A selection score representing the degree of similarity between biometric information of registered users is calculated. Note that the amount of computation required to calculate the selection score for one registered user is smaller than the amount of computation for the matching process for one registered user. Therefore, when the selection unit 34 selects a registered user to be verified based on the selection score, the biometric authentication device 1 reduces the amount of calculation compared to executing verification processing for all registered users. it can.

例えば、選択部34は、利用者の選択用特徴量または選択用特徴量の近似値と、登録利用者の選択用特徴量との差の絶対値を選択用スコアとして算出する。すなわち、選択用スコアが小さいほど、利用者の選択用特徴量または選択用特徴量の近似値と登録利用者の選択用特徴量は類似している。   For example, the selection unit 34 calculates the absolute value of the difference between the selection feature quantity of the user or the approximate value of the selection feature quantity and the selection feature quantity of the registered user as the selection score. That is, as the selection score is smaller, the user's selection feature quantity or the approximate value of the selection feature quantity and the registered user's selection feature quantity are more similar.

選択部34は、登録利用者ごとに選択用スコアを算出する。そして選択部34は、選択用スコアが小さい方から順に第2の所定数の登録利用者を、利用者の選択用特徴量または選択用特徴量の近似値と類似している選択用特徴量を持つ登録利用者として選択する。なお第2の所定数は、登録利用者の総数である第1の所定数よりも小さい値であり、認証サーバ3の処理能力に応じて予め設定される。   The selection unit 34 calculates a selection score for each registered user. Then, the selection unit 34 selects the second predetermined number of registered users in ascending order of the selection score, and selects the selection feature amount similar to the selection feature amount of the user or the approximate value of the selection feature amount. Select as a registered user. The second predetermined number is a value smaller than the first predetermined number, which is the total number of registered users, and is set in advance according to the processing capability of the authentication server 3.

あるいは、選択部34は、選択用スコアが所定値未満となる登録利用者のみを、利用者の選択用特徴量または選択用特徴量の近似値と類似している選択用特徴量を持つ登録利用者として選択してもよい。これにより、選択された登録利用者の数が第2の所定数より少なくなり、その結果として生体認証処理全体の演算量を削減できる可能性がある。所定値は、例えば、実験的に、登録利用者本人が選択されないことによる本人棄却率が許容最大値以下となるように設定される。   Alternatively, the selection unit 34 uses only registered users whose selection score is less than a predetermined value for registered use having a selection feature amount similar to the user's selection feature amount or an approximate value of the selection feature amount. You may choose as a person. As a result, the number of selected registered users is less than the second predetermined number, and as a result, there is a possibility that the calculation amount of the entire biometric authentication process can be reduced. The predetermined value is set such that, for example, the principal rejection rate due to the fact that the registered user is not selected is equal to or less than the allowable maximum value experimentally.

選択部34は、選択された登録利用者の識別情報を処理部33に返す。そして処理部33は、データサーバ4に対して、照合用データ要求信号とともに、選択された登録利用者の識別情報を送信する。そして処理部33は、データサーバ4から、選択された登録利用者の照合用データを受け取り、記憶部32に一時的に記憶する。   The selection unit 34 returns the identification information of the selected registered user to the processing unit 33. Then, the processing unit 33 transmits the identification information of the selected registered user to the data server 4 together with the verification data request signal. Then, the processing unit 33 receives the selected registered user verification data from the data server 4 and temporarily stores it in the storage unit 32.

照合部35は、端末2から受け取った利用者の照合用データと選択された各登録利用者の照合用データとを用いて、利用者の入力生体情報と選択された各登録利用者の登録生体情報とを照合する。そして照合部35は、照合処理の結果として、入力生体情報が登録生体情報に類似している度合いを表す類似度を、選択された登録利用者ごとに求める。   Using the user verification data received from the terminal 2 and the selected registered user verification data, the verification unit 35 uses the input biometric information of the user and the registered biometric data of each selected registered user. Match information. And the collation part 35 calculates | requires the similarity showing the degree to which input biometric information is similar to registration biometric information for every selected registration user as a result of collation processing.

照合部35は、照合処理として、例えば、マニューシャマッチング、あるいはパターンマッチングを用いることができる。   The matching unit 35 can use, for example, minutia matching or pattern matching as the matching process.

照合部35は、マニューシャマッチングを用いる場合、静脈パターンについての登録利用者の照合用データに含まれるマニューシャと、利用者の照合用データに含まれるマニューシャとの間で一致するマニューシャの個数を求める。そして照合部35は、その一致する個数を利用者の静脈パターンについて抽出されたマニューシャの個数で割ることにより、利用者の静脈パターンと登録利用者の静脈パターンとの類似度を算出できる。
あるいは、照合部35は、パターンマッチングを用いる場合、利用者の生体画像と登録利用者の生体画像間の相対的な位置を変えつつ、正規化相互相関値を算出する。そして照合部35は、その正規化相互相関値の最大値を、利用者の静脈パターンと登録利用者の静脈パターンとの類似度とする。
When the minutia matching is used, the collation unit 35 obtains the number of minutiaes that match between the minutia included in the registered user's collation data for the vein pattern and the minutia included in the user's collation data. Then, the collation unit 35 can calculate the similarity between the user's vein pattern and the registered user's vein pattern by dividing the matching number by the number of minutiae extracted for the user's vein pattern.
Alternatively, when using pattern matching, the matching unit 35 calculates the normalized cross-correlation value while changing the relative position between the biometric image of the user and the biometric image of the registered user. Then, the matching unit 35 sets the maximum value of the normalized cross-correlation value as the similarity between the user's vein pattern and the registered user's vein pattern.

照合部35は、選択された登録利用者のそれぞれについて算出した類似度のうちの最大値を求める。そして照合部35は、類似度の最大値及びその最大値に対応する登録利用者の識別情報を認証判定部36へ渡す。   The collation unit 35 obtains the maximum value among the similarities calculated for each of the selected registered users. Then, the collation unit 35 passes the maximum value of the similarity and the identification information of the registered user corresponding to the maximum value to the authentication determination unit 36.

認証判定部36は、類似度の最大値が認証判定閾値以上となる場合、入力生体情報と、類似度の最大値に対応する登録生体情報は一致すると判定する。そして認証判定部36は、利用者を、その類似度の最大値に対応する登録生体情報を持つ登録利用者として認証する。認証判定部36は、利用者を認証すると、その認証結果を処理部33へ通知する。   The authentication determination unit determines that the input biometric information matches the registered biometric information corresponding to the maximum value of the similarity when the maximum value of the similarity is equal to or greater than the authentication determination threshold. The authentication determination unit 36 authenticates the user as a registered user having registered biometric information corresponding to the maximum value of the similarity. When authenticating the user, the authentication determination unit 36 notifies the processing unit 33 of the authentication result.

一方、認証判定部36は、類似度の最大値が認証判定閾値未満となる場合、入力生体情報と登録生体情報は一致しないと判定する。この場合には、認証判定部36は、利用者を認証しない。認証判定部36は、利用者の認証に失敗したことを示す認証結果を処理部33へ通知する。そして処理部33は、端末2に、認証結果を表す認証結果情報を送信してもよい。   On the other hand, the authentication determination unit 36 determines that the input biometric information and the registered biometric information do not match when the maximum similarity is less than the authentication determination threshold. In this case, the authentication determination unit 36 does not authenticate the user. The authentication determination unit 36 notifies the processing unit 33 of an authentication result indicating that the user authentication has failed. Then, the processing unit 33 may transmit authentication result information representing the authentication result to the terminal 2.

認証判定閾値は、何れかの登録利用者本人が利用者である場合にのみ、認証判定部36が認証に成功するような値に設定されることが好ましい。そして認証判定閾値は、登録利用者とは異なる他人が利用者である場合には、認証判定部36が認証に失敗するような値に設定されることが好ましい。例えば、認証判定閾値は、類似度の取りうる最大値と最小値の差に0.7を乗じた値を、類似度の最小値に加えた値とすることができる。   The authentication determination threshold is preferably set to a value such that the authentication determination unit 36 succeeds in authentication only when any registered user is a user. The authentication determination threshold is preferably set to a value that causes the authentication determination unit 36 to fail authentication when another person different from the registered user is the user. For example, the authentication determination threshold value may be a value obtained by adding a value obtained by multiplying the difference between the maximum value and the minimum value of similarity by 0.7 to the minimum value of similarity.

図8は、生体認証処理の動作フローチャートである。
端末2の処理部24は、生体情報取得部21から利用者の生体情報が写った生体画像を取得する(ステップS201)。そして処理部24の被写体領域検出部25は、生体画像上で生体情報を含む部位が写っている被写体領域を検出する(ステップS202)。その後、処理部24の照合用データ生成部26は、被写体領域から生体情報についての照合用データを生成する(ステップS203)。
FIG. 8 is an operation flowchart of the biometric authentication process.
The processing unit 24 of the terminal 2 acquires a biological image in which the user's biological information is captured from the biological information acquisition unit 21 (step S201). Then, the subject region detection unit 25 of the processing unit 24 detects a subject region in which a part including biological information is shown on the biological image (step S202). Thereafter, the collation data generation unit 26 of the processing unit 24 generates collation data for the biological information from the subject region (step S203).

また処理部24の選択用特徴量評価部27は、図5に示された動作フローチャートに従って、生体画像から選択用特徴量を抽出できるか否か判定する(ステップS204)。選択用特徴量評価部27が、生体情報の再取得が必要と判定した場合、処理部24は、ステップS201以降の処理を繰り返す。   Further, the selection feature quantity evaluation unit 27 of the processing unit 24 determines whether or not the selection feature quantity can be extracted from the biological image in accordance with the operation flowchart shown in FIG. 5 (step S204). When the selection feature quantity evaluation unit 27 determines that the biometric information needs to be reacquired, the processing unit 24 repeats the processes after step S201.

一方、選択用特徴量評価部27が選択用特徴量を抽出できると判定した場合、処理部24の選択用特徴量抽出部28は、被写体領域から選択用特徴量を求める(ステップS205)。
あるいは、選択用特徴量評価部27が選択用特徴量を抽出できない可能性があると判定した場合、処理部24の代替特徴量抽出部29は、被写体領域から代替特徴量を抽出し、その代替特徴量に基づいて選択用特徴量の近似値を求める(ステップS206)。
On the other hand, when the selection feature quantity evaluation unit 27 determines that the selection feature quantity can be extracted, the selection feature quantity extraction unit 28 of the processing unit 24 obtains the selection feature quantity from the subject region (step S205).
Alternatively, if the selection feature quantity evaluation unit 27 determines that there is a possibility that the selection feature quantity may not be extracted, the alternative feature quantity extraction unit 29 of the processing unit 24 extracts the alternative feature quantity from the subject region and replaces it. Based on the feature value, an approximate value of the feature value for selection is obtained (step S206).

ステップS205またはS206の後、処理部24は、照合用データと、選択用特徴量または選択用特徴量の近似値を、通信ネットワーク5を介して認証サーバ3へ送信する。   After step S <b> 205 or S <b> 206, the processing unit 24 transmits the matching data and the selection feature quantity or the approximate value of the selection feature quantity to the authentication server 3 via the communication network 5.

認証サーバ3は、端末2から利用者の照合用データと、選択用特徴量または選択用特徴量の近似値を受信すると、データサーバ4へ選択用特徴量要求信号を送信する。そして認証サーバ3は、データサーバ4から全ての登録利用者の選択用特徴量を取得する(ステップS207)。認証サーバ3の処理部33の選択部34は、利用者の選択用特徴量またはその近似値と、各登録利用者の選択用特徴量とに基づいて、全ての登録利用者の選択用スコアを算出する(ステップS208)。選択部34は、利用者の選択用特徴量またはその近似値と、登録利用者の選択用特徴量とが類似している度合いが高いことを表す選択用スコアを持つ登録利用者から順に、第2の所定数の登録利用者を選択する(ステップS209)。
認証サーバ3は、データサーバ4へ、選択された登録利用者の識別情報と照合用データ要求信号を送信する。そして認証サーバ3は、データサーバ4から、選択された登録利用者の照合用データを受け取る。
Upon receiving the user verification data and the selection feature quantity or the approximate value of the selection feature quantity from the terminal 2, the authentication server 3 transmits a selection feature quantity request signal to the data server 4. Then, the authentication server 3 acquires feature values for selection of all registered users from the data server 4 (step S207). The selection unit 34 of the processing unit 33 of the authentication server 3 obtains the selection scores of all registered users based on the selection feature amount of the user or its approximate value and the selection feature amount of each registered user. Calculate (step S208). The selection unit 34 sequentially starts with the registered users having a selection score indicating that the degree of similarity between the user's selection feature quantity or its approximate value and the registration user's selection feature quantity is high. A predetermined number of registered users of 2 is selected (step S209).
The authentication server 3 transmits the identification information of the selected registered user and a verification data request signal to the data server 4. Then, the authentication server 3 receives the verification data of the selected registered user from the data server 4.

照合部35は、選択された各登録利用者について、利用者の照合用データと登録利用者の照合用データとに基づいてその利用者の生体情報と登録利用者の生体情報間の類似度をそれぞれ算出する(ステップS210)。そして照合部35は、類似度の最大値を求め、類似度の最大値とともに、その最大値に対応する登録利用者の識別情報を処理部33の認証判定部36へ渡す。   For each selected registered user, the collation unit 35 determines the similarity between the user's biometric information and the registered user's biometric information based on the user's collation data and the registered user's collation data. Each is calculated (step S210). Then, the collation unit 35 obtains the maximum value of the similarity and passes the identification information of the registered user corresponding to the maximum value together with the maximum value of the similarity to the authentication determination unit 36 of the processing unit 33.

認証判定部36は、類似度の最大値が認証判定用閾値以上となるか否か判定する(ステップS211)。
類似度の最大値が認証判定用閾値以上である場合(ステップS211−Yes)、認証判定部36は、利用者を類似度の最大値に対応する識別情報と関連付けられた登録利用者として認証する(ステップS212)。
一方、類似度の最大値が認証判定用閾値未満である場合(ステップS211−No)、認証判定部36は利用者を認証しない(ステップS213)。
ステップS212またはS213の後、生体認証装置1は、生体認証処理を終了する。
なお、生体認証装置1は、ステップS203の処理と、S204〜S206の処理の順序を入れ替えてもよい。
The authentication determination unit 36 determines whether or not the maximum similarity value is equal to or greater than the authentication determination threshold value (step S211).
When the maximum value of the similarity is equal to or greater than the threshold for authentication determination (step S211—Yes), the authentication determination unit 36 authenticates the user as a registered user associated with the identification information corresponding to the maximum value of similarity. (Step S212).
On the other hand, when the maximum value of the similarity is less than the threshold value for authentication determination (step S211—No), the authentication determination unit 36 does not authenticate the user (step S213).
After step S212 or S213, the biometric authentication device 1 ends the biometric authentication process.
The biometric authentication device 1 may interchange the order of the process in step S203 and the processes in steps S204 to S206.

(登録処理)
次に、登録利用者の生体情報を登録生体情報として登録する登録処理について説明する。
(registration process)
Next, a registration process for registering biometric information of a registered user as registered biometric information will be described.

図9は、登録処理の動作フローチャートである。
端末2の処理部24は、図示しない入力部を介して利用者のユーザ名を取得する(ステップS301)。また処理部24は、生体情報取得部21から利用者の生体情報が写った生体画像を取得する(ステップS302)。そして処理部24の被写体領域検出部25は、生体画像上で生体情報を含む部位が写っている被写体領域を検出する(ステップS303)。その後、処理部24の照合用データ生成部26は、被写体領域から生体情報についての照合用データを生成する(ステップS304)。
FIG. 9 is an operation flowchart of the registration process.
The processing unit 24 of the terminal 2 acquires the user name of the user via an input unit (not shown) (Step S301). Further, the processing unit 24 acquires a biological image in which the user's biological information is captured from the biological information acquisition unit 21 (step S302). Then, the subject region detection unit 25 of the processing unit 24 detects a subject region in which a part including biological information is shown on the biological image (step S303). Thereafter, the collation data generation unit 26 of the processing unit 24 generates collation data for the biological information from the subject area (step S304).

また処理部24の選択用特徴量評価部27は、図5に示された動作フローチャートに従って、生体画像から、選択用特徴量を抽出できるか否か判定する(ステップS305)。選択用特徴量評価部27が、生体情報の再取得が必要と判定した場合、処理部24は、ステップS302以降の処理を繰り返す。   Further, the selection feature amount evaluation unit 27 of the processing unit 24 determines whether or not the selection feature amount can be extracted from the biological image according to the operation flowchart shown in FIG. 5 (step S305). When the selection feature quantity evaluation unit 27 determines that the biometric information needs to be reacquired, the processing unit 24 repeats the processing from step S302 onward.

一方、選択用特徴量評価部27が選択用特徴量を抽出できると判定した場合、処理部24の選択用特徴量抽出部28は、被写体領域から選択用特徴量を求める(ステップS306)。
あるいは、選択用特徴量評価部27が選択用特徴量を抽出できない可能性があると判定した場合、処理部24の代替特徴量抽出部29は、被写体領域から代替特徴量を抽出し、その代替特徴量に基づいて選択用特徴量の近似値を求める(ステップS307)。
On the other hand, when the selection feature quantity evaluation unit 27 determines that the selection feature quantity can be extracted, the selection feature quantity extraction unit 28 of the processing unit 24 obtains the selection feature quantity from the subject area (step S306).
Alternatively, if the selection feature quantity evaluation unit 27 determines that there is a possibility that the selection feature quantity may not be extracted, the alternative feature quantity extraction unit 29 of the processing unit 24 extracts the alternative feature quantity from the subject region and replaces it. Based on the feature value, an approximate value of the feature value for selection is obtained (step S307).

ステップS306またはS307の後、処理部24は、照合用データと、選択用特徴量または選択用特徴量の近似値を、登録しようとする利用者のユーザ名とともに、通信ネットワーク5を介して認証サーバ3へ送信する。   After step S306 or S307, the processing unit 24 authenticates the verification data and the selection feature quantity or the approximate value of the selection feature quantity together with the user name of the user who wants to register via the communication network 5. 3 to send.

認証サーバ3は、端末2から利用者の照合用データと、選択用特徴量または選択用特徴量の近似値を受信すると、処理部33の登録部37は、利用者に対して一意に設定されるユーザ識別番号を設定する。そして登録部37は、登録要求信号を生成する(ステップS308)。その登録要求信号は、利用者のユーザ名、ユーザ識別番号といった識別情報、照合用データ、及び選択用特徴量を含む。そして登録部37は、その登録要求信号をデータサーバ4へ送信する(ステップS309)。
データサーバ4の制御部43は、登録要求信号を受信すると、その登録要求信号に含まれる、利用者の識別情報、照合用データ、選択用特徴量といった各種情報を記憶部42に記憶する(ステップS310)。そして生体認証装置1は、登録処理を終了する。
なお、生体認証装置1は、ステップS303の処理とS304〜S307の処理の順序を入れ替えてもよい。
When the authentication server 3 receives the user verification data and the selection feature quantity or the approximate value of the selection feature quantity from the terminal 2, the registration unit 37 of the processing unit 33 is uniquely set for the user. Set the user identification number. Then, the registration unit 37 generates a registration request signal (step S308). The registration request signal includes identification information such as a user name of the user and a user identification number, verification data, and a selection feature amount. The registration unit 37 transmits the registration request signal to the data server 4 (step S309).
When receiving the registration request signal, the control unit 43 of the data server 4 stores various types of information, such as user identification information, collation data, and selection feature amounts, included in the registration request signal in the storage unit 42 (Step S43). S310). Then, the biometric authentication device 1 ends the registration process.
The biometric authentication device 1 may interchange the order of the process in step S303 and the processes in steps S304 to S307.

以上に説明してきたように、この実施形態による生体認証装置は、照合対象となる登録利用者を選択するための選択用特徴量を抽出できない可能性がある場合、選択用特徴量との相関性が高い代替特徴量を抽出する。そしてこの生体認証装置は、代替特徴量に基づいて選択用特徴量の近似値を求め、その近似値を選択用特徴量の代わりに登録利用者の選択に利用することで、選択用特徴量を抽出できない場合でも、照合対象となる登録利用者を適切に選択できる。   As described above, the biometric authentication device according to this embodiment has a correlation with a selection feature amount when there is a possibility that a selection feature amount for selecting a registered user to be collated cannot be extracted. To extract high alternative features. The biometric authentication apparatus obtains an approximate value of the selection feature quantity based on the alternative feature quantity, and uses the approximate value for the selection of the registered user instead of the selection feature quantity. Even if it cannot be extracted, it is possible to appropriately select registered users to be collated.

次に、第2の実施形態による、生体認証装置について説明する。第2の実施形態による生体認証装置は、代替特徴量と選択用特徴量の両方を抽出可能な場合、代替特徴量と選択用特徴量の両方とも抽出する。そしてこの生体認証装置は、代替特徴量と選択用特徴量のうち確からしい方の特徴量を、照合対象となる登録利用者を選択するために利用する。以下では、第2の実施形態による生体認証装置の各構成要素のうち、第1の実施形態による生体認証装置の構成要素と相違する点について説明する。   Next, a biometric authentication device according to the second embodiment will be described. The biometric authentication device according to the second embodiment extracts both the substitute feature quantity and the selection feature quantity when both the substitute feature quantity and the selection feature quantity can be extracted. The biometric authentication device uses the most probable feature quantity of the alternative feature quantity and the selection feature quantity in order to select a registered user to be collated. Below, among the components of the biometric authentication device according to the second embodiment, differences from the components of the biometric authentication device according to the first embodiment will be described.

図10は、第2の実施形態による端末2の処理部241の機能ブロック図である。処理部241は、被写体領域検出部25と、照合用データ生成部26と、選択用特徴量評価部27と、選択用特徴量抽出部28と、代替特徴量抽出部29と、特徴量選択部30とを有する。
第2の実施形態による処理部241は、第1の実施形態による端末の処理部24と比較して、選択用特徴量評価部27により実行される処理と、特徴量選択部30について相違する。そこで以下では、選択用特徴量評価部27及び特徴量選択部30について説明する。生体認証装置のその他の構成要素については、第1の実施形態の対応する構成要素の説明を参照されたい。
FIG. 10 is a functional block diagram of the processing unit 241 of the terminal 2 according to the second embodiment. The processing unit 241 includes a subject area detection unit 25, a collation data generation unit 26, a selection feature quantity evaluation unit 27, a selection feature quantity extraction unit 28, an alternative feature quantity extraction unit 29, and a feature quantity selection unit. 30.
The processing unit 241 according to the second embodiment differs from the processing executed by the selection feature amount evaluation unit 27 in the feature amount selection unit 30 as compared with the processing unit 24 of the terminal according to the first embodiment. Therefore, hereinafter, the selection feature quantity evaluation unit 27 and the feature quantity selection unit 30 will be described. For the other components of the biometric authentication device, refer to the description of the corresponding components in the first embodiment.

選択用特徴量評価部27は、選択用特徴量を正確に抽出できない可能性がある場合であっても、一応は選択用特徴量を抽出できる場合、代替特徴量抽出部29に代替特徴量を抽出させるだけでなく、選択用特徴量抽出部28にも選択用特徴量を抽出させる。例えば、選択用特徴量評価処理の動作フローチャートのステップS106において、手の平の幅の算出に利用される部分の少なくとも一部が許容範囲から外れる場合に、選択用特徴量評価部27は、代替特徴量だけでなく選択用特徴量も抽出させる。この場合、選択用特徴量抽出部28は、手の平の幅の算出に利用した、小指側端点の座標と、人差し指側端点の座標も、選択用特徴量とともに記憶部23に記憶させる。同様に、代替特徴量抽出部29は、代替特徴量に利用した位置の座標、例えば、代替特徴量が親指と人指し指の付け根の中点と、薬指と小指の付け根の中点間の距離である場合、その二つの中点の座標を選択用特徴量の近似値とともに記憶部23に記憶させる。   Even if there is a possibility that the selection feature quantity may not be extracted accurately, the selection feature quantity evaluation unit 27, if it is possible to extract the selection feature quantity, In addition to the extraction, the selection feature amount extraction unit 28 also extracts the selection feature amount. For example, if at least a part of the portion used for calculating the palm width is out of the allowable range in step S106 of the operation flowchart of the selection feature amount evaluation process, the selection feature amount evaluation unit 27 sets the alternative feature amount. As well as extracting feature quantities for selection. In this case, the selection feature quantity extraction unit 28 also stores the coordinates of the little finger side end point and the index finger side end point used in the calculation of the palm width together with the selection feature quantity in the storage unit 23. Similarly, the substitute feature amount extraction unit 29 is the coordinates of the position used for the substitute feature amount, for example, the distance between the midpoint of the base of the thumb and the index finger and the midpoint of the base of the ring finger and the little finger. In this case, the coordinates of the two middle points are stored in the storage unit 23 together with the approximate value of the selection feature amount.

また、選択用特徴量評価処理の動作フローチャートのステップS107において、輪郭輝度差が所定の輝度閾値未満となる場合も、選択用特徴量評価部27は、代替特徴量だけでなく選択用特徴量も抽出させてもよい。この場合、選択用特徴量抽出部28は、手の平の幅の算出に利用した小指側端点に相当する画素と人差し指側端点に相当する画素の輝度値の平均値とそれら画素に隣接する背景領域の画素の輝度値の平均値との差を、選択用特徴量とともに記憶部23に記憶させる。同様に、代替特徴量抽出部29は、代替特徴量に利用した被写体領域の輪郭上の画素の輝度値の平均値とそれら画素に隣接する背景領域内の画素の輝度値の平均値との差を、選択用特徴量の近似値とともに記憶部23に記憶させる。   Also, in step S107 in the operation flowchart of the selection feature quantity evaluation process, even when the contour luminance difference is less than the predetermined luminance threshold, the selection feature quantity evaluation unit 27 not only selects the alternative feature quantity but also the selection feature quantity. It may be extracted. In this case, the selection feature amount extraction unit 28 calculates the average value of the luminance values of the pixels corresponding to the little finger side end points and the index finger side end points used for calculating the palm width and the background region adjacent to the pixels. The difference from the average value of the luminance values of the pixels is stored in the storage unit 23 together with the selection feature amount. Similarly, the alternative feature amount extraction unit 29 determines the difference between the average value of the luminance values of the pixels on the contour of the subject area used for the alternative feature amount and the average value of the luminance values of the pixels in the background area adjacent to those pixels. Are stored in the storage unit 23 together with the approximate value of the feature value for selection.

特徴量選択部30は、選択用特徴量と代替特徴量の両方が算出されている場合、それら二つの特徴量のうち、より確からしい方の特徴量を、照合対象の登録利用者を選択するための特徴量として選択する。
例えば、選択用特徴量及び代替特徴量の算出に利用された被写体領域の輪郭上の二つの画素の座標が記憶されている場合、特徴量選択部30は、選択用特徴量及び代替特徴量のそれぞれについて、それら二つの画素と許容範囲までの距離の平均値を算出する。なお、輪郭上の画素が許容範囲に含まれている場合には、その画素と許容範囲との距離は0とする。特徴量選択部30は、選択用特徴量及び代替特徴量のうち、被写体領域の輪郭上の二つの画素と許容範囲との距離の平均値が小さい方の特徴量をより確からしいとして選択する。なお、生体画像の中心は、一般的に生体情報取得部21の光学系の光軸上に位置する点に対応するので、その光学系の歪曲収差の影響を受けない。また、生体画像の中心は、生体情報取得部21の光学系による周辺光量の低下の影響を受けない。そこで特徴量選択部30は、生体画像の中心から選択用特徴量の算出に利用された被写体領域の輪郭上の二つの画素までの距離の平均値と、生体画像の中心から代替特徴量の算出に利用された被写体領域の輪郭上の二つの画素までの距離の平均値を算出してもよい。そして特徴量選択部30は、生体画像の中心からの距離の平均値が小さい方の特徴量を、より確からしいとして選択してもよい。
When both the selection feature quantity and the substitute feature quantity are calculated, the feature quantity selection unit 30 selects the more probable feature quantity of the two feature quantities, and selects the registered user to be collated. Is selected as a feature amount.
For example, when the coordinates of two pixels on the contour of the subject region used for calculation of the selection feature amount and the substitute feature amount are stored, the feature amount selection unit 30 stores the selection feature amount and the substitute feature amount. For each, the average value of the distance between these two pixels and the allowable range is calculated. When a pixel on the contour is included in the allowable range, the distance between the pixel and the allowable range is 0. The feature amount selection unit 30 selects the feature amount having the smaller average value of the distance between the two pixels on the contour of the subject region and the allowable range from the selection feature amount and the alternative feature amount as being more likely. Since the center of the biological image generally corresponds to a point located on the optical axis of the optical system of the biological information acquisition unit 21, it is not affected by the distortion of the optical system. Further, the center of the biological image is not affected by the decrease in the amount of peripheral light due to the optical system of the biological information acquisition unit 21. Therefore, the feature quantity selection unit 30 calculates the average value of the distance from the center of the biological image to the two pixels on the contour of the subject area used for calculating the feature quantity for selection, and the alternative feature quantity from the center of the biological image. The average value of the distances to two pixels on the contour of the subject area used for the calculation may be calculated. And the feature-value selection part 30 may select the feature-value with the smaller average value of the distance from the center of a biometric image as being more probable.

また、選択用特徴量及び代替特徴量の算出に利用された被写体領域の輪郭上の画素の輝度値の平均値と隣接する背景領域内の画素の輝度値の平均値との差が記憶されている場合、特徴量選択部30は、その輝度値の平均値の差が大きい方の特徴量を選択する。   Also, the difference between the average value of the luminance values of the pixels on the contour of the subject area used for the calculation of the selection feature amount and the alternative feature amount and the average value of the luminance values of the pixels in the adjacent background region is stored. If so, the feature value selection unit 30 selects the feature value having the larger difference between the average values of the luminance values.

処理部24は、選択用特徴量及び代替特徴量のうち、選択された方の特徴量(ただし、代替特徴量が選択された場合には、選択用特徴量の近似値)を、利用者の照合用データとともに、認証サーバ3へ送信する。   The processing unit 24 selects the selected feature amount of the selection feature amount and the alternative feature amount (however, if the alternative feature amount is selected, the approximate value of the selection feature amount) The data is transmitted to the authentication server 3 together with the verification data.

第2の実施形態によれば、生体認証装置は、選択用特徴量と代替特徴量の両方を抽出できる場合、それら特徴量のうちの確からしい方を照合対象の登録利用者の選択に利用できる。そのため、この生体認証装置は、照合対象の登録利用者をより適切に選択できる。   According to the second embodiment, when the biometric authentication device can extract both the feature quantity for selection and the alternative feature quantity, the most probable one of these feature quantities can be used for the selection of the registered user to be collated. . Therefore, this biometric authentication device can more appropriately select registered users to be verified.

次に、第3の実施形態による、生体認証装置について説明する。第3の実施形態による生体認証装置は、指紋を手の平の静脈パターンとともに、あるいは指紋のみを照合に利用する。そしてこの生体認証装置は、選択用特徴量として、指紋の渦中心を一端とする指の長さを用い、代替特徴量として、生体画像上で指紋が写っている領域の重心を一端とする指の長さを用いる。以下では、第3の実施形態による生体認証装置の各構成要素のうち、第1の実施形態による生体認証装置の構成要素と相違する点について説明する。   Next, a biometric authentication device according to a third embodiment will be described. The biometric authentication apparatus according to the third embodiment uses a fingerprint together with a palm vein pattern or only a fingerprint for collation. This biometric authentication device uses the length of the finger with the vortex center of the fingerprint as one end as the selection feature quantity, and the finger with the centroid of the region where the fingerprint appears on the biometric image as one alternative feature quantity. Is used. Below, among the components of the biometric authentication device according to the third embodiment, differences from the components of the biometric authentication device according to the first embodiment will be described.

生体情報取得部21は、利用者の何れかの指の指紋が写った第2の生体画像を生成する。そのために、生体情報取得部21は、指紋センサを有する。この指紋センサは、例えば、何れかの指の先端から、その指の付け根までを撮影可能な指紋センサであればよく、例えば、光路分離法光学式の指紋センサとすることができる。
なお、指紋だけでなく、手の平の静脈パターンも照合に利用する場合には、指紋センサは、手の平の静脈パターンを撮影するエリアセンサよりも指先側に配置される。そして生体情報取得部21は、手の平の静脈パターンが写った生体画像と、指紋が写った第2の生体画像とを生成する。
The biometric information acquisition unit 21 generates a second biometric image in which the fingerprint of any finger of the user is shown. For this purpose, the biological information acquisition unit 21 has a fingerprint sensor. The fingerprint sensor may be any fingerprint sensor that can take an image from the tip of any finger to the base of the finger, for example, and may be an optical path separation optical fingerprint sensor.
When not only the fingerprint but also the palm vein pattern is used for collation, the fingerprint sensor is arranged closer to the fingertip than the area sensor that captures the palm vein pattern. Then, the biometric information acquisition unit 21 generates a biometric image showing the palm vein pattern and a second biometric image showing the fingerprint.

処理部24の照合用データ生成部26は、第2の生体画像から指紋についての照合用データを生成する。
そのために、照合用データ生成部26は、例えば、第2の生体画像中で指の隆線が写っている画素の集合である隆線領域と谷線が写っている画素と利用者の指が写っていない画素の集合である背景領域とを区別する。
そのために、照合用データ生成部26は、例えば、2値化閾値以上の画素値を持つ画素が隆線領域に含まれ、2値化閾値未満の画素値を持つ画素が背景領域に含まれるように第2の生体画像を2値化する。2値化閾値は、例えば、予め設定された固定値(例えば、100)、第2の生体画像内の平均画素値、あるいは、第2の生体画像全体またはその一部に含まれる画素値を判別分析することにより決定された閾値に設定される。また2値化された第2の生体画像において、隆線領域に含まれる画素の値は、例えば'1'に設定され、背景領域に含まれる画素の値は、例えば'0'に設定される。
The verification data generation unit 26 of the processing unit 24 generates verification data for a fingerprint from the second biological image.
For this purpose, the collation data generation unit 26 detects, for example, a pixel in which a ridge region and a valley line that are a set of pixels in which the ridge of the finger is reflected in the second biological image, and a user's finger. A background region that is a set of pixels that are not captured is distinguished.
For this purpose, the collation data generation unit 26 includes, for example, a pixel having a pixel value greater than or equal to the binarization threshold included in the ridge region and a pixel having a pixel value less than the binarization threshold included in the background region. The second biological image is binarized. The binarization threshold value is, for example, a predetermined fixed value (for example, 100), an average pixel value in the second biological image, or a pixel value included in the entire second biological image or a part thereof. It is set to a threshold value determined by analysis. Also, in the binarized second biological image, the value of the pixel included in the ridge area is set to “1”, for example, and the value of the pixel included in the background area is set to “0”, for example. .

照合用データ生成部26は、例えば、生体認証装置1がマニューシャマッチングにより照合処理を行う場合、そのマニューシャマッチングで用いられる隆線の端点または分岐点といった特徴点を第2の生体画像から抽出する。そして照合用データ生成部26は、その特徴点の位置またはその特徴点の種類を照合用データとする。   For example, when the biometric authentication device 1 performs matching processing by minutia matching, the collation data generation unit 26 extracts feature points such as ridge end points or branch points used in the minutia matching from the second biometric image. The collation data generation unit 26 uses the position of the feature point or the type of the feature point as collation data.

そのために、照合用データ生成部26は、2値化された第2の生体画像上で隆線に相当する画素値を持つ画素の集合に対して細線化処理を行って、隆線が細線化された細線化2値画像を生成する。そして照合用データ生成部26は、隆線の分岐点または端点の何れかに対応する複数のテンプレートを用いて細線化2値画像を走査することにより、何れかのテンプレートと一致するときの細線化2値画像上の位置を検出する。そして照合用データ生成部26は、検出された位置の中心画素を、マニューシャとして抽出する。なお、テンプレートは、例えば、3×3画素で表され、隆線の分岐点または端点に対応する2値パターンを持つ。   For this purpose, the collation data generation unit 26 performs thinning processing on a set of pixels having pixel values corresponding to ridges on the binarized second biological image, and the ridges are thinned. A thinned binary image is generated. Then, the collation data generation unit 26 scans the thinned binary image using a plurality of templates corresponding to either the branch points or the end points of the ridges, thereby thinning when matching with any of the templates. A position on the binary image is detected. Then, the verification data generation unit 26 extracts the central pixel at the detected position as a minutiae. The template is represented by, for example, 3 × 3 pixels and has a binary pattern corresponding to a branch point or an end point of a ridge.

照合用データ生成部26は、各特徴点の種類及び座標を照合用データとして記憶部23に記憶させる。   The collation data generation unit 26 stores the type and coordinates of each feature point in the storage unit 23 as collation data.

選択用特徴量評価部27は、第2の生体画像上の指紋の渦中心を抽出できるか否か判定する。選択用特徴量評価部27は、渦中心を抽出できない場合、選択用特徴量を抽出不能と判定する。
選択用特徴量評価部27は、例えば、隆線の分岐点または端点を検知するのと同様に、指紋の渦中心に対応するテンプレートと細線化された第2の生体画像との相対的な位置を変えつつ、パターンマッチングを行う。これにより、選択用特徴量評価部27は、そのテンプレートと細線化された第2の生体画像との正規化相互相関値を算出する。そしてその正規化相互相関値の最大値が、所定の閾値(例えば、0.8)以上である場合、選択用特徴量評価部27は、渦中心を検出できると判定する。そして選択用特徴量評価部27は、選択用特徴量抽出部28に、渦中心を一端とし、渦中心よりも指の付け根側の所定点を他端とする指の長さを、選択用特徴量として抽出させる。なお、所定点は、例えば、指の第1関節、第2関節あるいは付け根とすることができる。
The selection feature amount evaluation unit 27 determines whether or not the vortex center of the fingerprint on the second biological image can be extracted. If the vortex center cannot be extracted, the selection feature quantity evaluation unit 27 determines that the selection feature quantity cannot be extracted.
For example, the selection feature amount evaluating unit 27 detects the relative position between the template corresponding to the vortex center of the fingerprint and the thinned second biological image, as in the case of detecting the branch point or the end point of the ridge. While matching, pattern matching is performed. Thereby, the selection feature quantity evaluation unit 27 calculates a normalized cross-correlation value between the template and the thinned second biological image. If the maximum value of the normalized cross-correlation value is equal to or greater than a predetermined threshold (for example, 0.8), the selection feature amount evaluation unit 27 determines that the vortex center can be detected. Then, the selection feature quantity evaluation unit 27 causes the selection feature quantity extraction unit 28 to select the length of the finger with the vortex center as one end and the other end with a predetermined point closer to the base of the finger than the vortex center. Extract as a quantity. The predetermined point can be, for example, the first joint, the second joint, or the base of the finger.

一方、正規化相互相関値の最大値が所定の閾値未満である場合、選択用特徴量評価部27は、渦中心を検出できないと判定する。そして選択用特徴量評価部27は、代替特徴量抽出部29に、指紋の重心を一端とし、その重心よりも指の付け根側の所定点を他端とする指の長さを、代替特徴量として抽出させる。   On the other hand, when the maximum value of the normalized cross-correlation value is less than the predetermined threshold, the selection feature value evaluation unit 27 determines that the vortex center cannot be detected. Then, the selection feature quantity evaluation unit 27 gives the substitute feature quantity extraction unit 29 the length of the finger with the centroid of the fingerprint as one end and the other end with a predetermined point on the finger base side from the centroid. Let's extract as

なお、選択用特徴量評価部27は、第2の生体画像の品質、例えば、第2の生体画像の鮮明度に基づいて、渦中心が検出可能か否かを判定してもよい。この場合、選択用特徴量評価部27は、例えば、第2の生体画像に対して高速フーリエ変換など空間領域から周波数領域へ変換する処理を実行し、指紋の模様に相当する特定の周波数成分の値、またはパワースペクトルの最大値を鮮鋭度を表す評価値として求める。   Note that the selection feature amount evaluating unit 27 may determine whether or not the vortex center can be detected based on the quality of the second biological image, for example, the definition of the second biological image. In this case, for example, the selection feature quantity evaluation unit 27 performs a process of converting the second biological image from the spatial domain to the frequency domain, such as fast Fourier transform, and generates a specific frequency component corresponding to the fingerprint pattern. The value or the maximum value of the power spectrum is obtained as an evaluation value representing the sharpness.

あるいは、選択用特徴量評価部27は、局所的な隆線方向と、平滑化された隆線方向との差を鮮鋭度として算出してもよい。この場合、選択用特徴量評価部27は、例えば、細線化された第2の生体画像を複数のブロックに分割し、ブロックごとにそのブロックに含まれる隆線方向を算出する。なお、個々のブロックは、例えば、複数の隆線が含まれるサイズとする。そして選択用特徴量評価部27は、各ブロックについて、そのブロック内で隆線を表す画素が連続する線の接線方向の平均値をそのブロック内の隆線方向とする。
さらに、選択用特徴量評価部27は、各ブロックについて、そのブロック及び隣接ブロックの隆線方向の平均値を、そのブロックについての平滑化された隆線方向とする。そして選択用特徴量評価部27は、各ブロックについて求めた隆線方向と、平滑化された隆線方向の差の絶対値を求め、その差の絶対値の最大値を鮮鋭度を表す評価値とする。
Alternatively, the selection feature value evaluating unit 27 may calculate the difference between the local ridge direction and the smoothed ridge direction as the sharpness. In this case, for example, the selection feature amount evaluating unit 27 divides the thinned second biological image into a plurality of blocks, and calculates the ridge direction included in each block for each block. Each block has a size including a plurality of ridges, for example. Then, for each block, the selection feature value evaluating unit 27 sets an average value in a tangential direction of a line in which pixels representing ridges are continuous in the block as a ridge direction in the block.
Further, for each block, the selection feature value evaluating unit 27 sets the average value of the ridge directions of the block and the adjacent blocks as the smoothed ridge direction of the block. Then, the selection feature quantity evaluation unit 27 obtains an absolute value of a difference between the ridge direction obtained for each block and a smoothed ridge direction, and an absolute value of the difference is an evaluation value representing sharpness. And

選択用特徴量評価部27は、その評価値が所定の鮮鋭度閾値以上である場合、選択用特徴量抽出部28に、渦中心を一端とする指の長さを、選択用特徴量として抽出させる。一方、その評価値が所定の鮮鋭度閾値未満である場合、選択用特徴量評価部27は、代替特徴量抽出部29に、指紋の重心を一端とする指の長さを、代替特徴量として抽出させる。   When the evaluation value is equal to or greater than a predetermined sharpness threshold value, the selection feature amount evaluation unit 27 extracts the length of the finger having the vortex center as one end as the selection feature amount in the selection feature amount extraction unit 28. Let On the other hand, if the evaluation value is less than the predetermined sharpness threshold value, the selection feature amount evaluation unit 27 instructs the alternative feature amount extraction unit 29 to use the length of the finger having the fingerprint centroid as one alternative feature amount. Let it be extracted.

選択用特徴量抽出部28は、特定の指の指紋の渦中心から、その指の渦中心よりも指の付け根側の所定点までの長さを、選択用特徴量である指の長さとして算出する。
選択用特徴量抽出部28は、例えば、上記のように、指紋の渦中心に対応するテンプレートと細線化された第2の生体画像とのパターンマッチングによって、その細線化された第2の生体画像上でテンプレートと最も一致する位置を、渦中心として検出する。なお、選択用特徴量評価部27により渦中心が検出されている場合には、選択用特徴量抽出部28は、その検出された渦中心の座標をそのまま利用してもよい。
The selection feature quantity extraction unit 28 uses the length from the vortex center of the fingerprint of a specific finger to a predetermined point closer to the base of the finger than the vortex center of the finger as the length of the finger that is the selection feature quantity. calculate.
For example, as described above, the selection feature amount extraction unit 28 performs the pattern matching between the template corresponding to the vortex center of the fingerprint and the thinned second biological image, and the thinned second biological image. The position that best matches the template above is detected as the vortex center. When the vortex center is detected by the selection feature quantity evaluation unit 27, the selection feature quantity extraction unit 28 may use the coordinates of the detected vortex center as they are.

また、選択用特徴量抽出部28は、指の第1関節を検出するために、例えば、細線化された第2の生体画像を、複数の小領域に分割する。各小領域は、1本以上の隆線が含まれるサイズを有する。そして選択用特徴量抽出部28は、小領域ごとに隆線方向を求める。 第1関節の近傍では、隆線方向が指の長手方向、すなわち、第2の生体画像の垂直方向と略直交する小領域が多くなる。そこで選択用特徴量抽出部28は、渦中心よりも指の根元側で、隆線方向が第2の生体画像の垂直方向と略直交する方向となる小領域の数を、複数の方向のそれぞれについて、その方向と直交し、小領域の幅を持つラインごとに集計する。そして選択用特徴量抽出部28は、隆線方向が第2の生体画像の垂直方向と略直交する方向となる小領域の数が極大値となるラインのうち、渦中心に最も近いラインを第1関節として検出する。同様に、選択用特徴量抽出部28は、隆線方向が第2の生体画像の垂直方向と略直交する方向となる小領域の数が極大値となるラインのうち、渦中心から2番目に近いラインを第2関節として検出してもよい。あるいは、選択用特徴量抽出部28は、生体画像上で指の第1関節または第2関節の位置を検出する公知の他の手法に従って第1関節または第2関節の位置を検出してもよい。   In addition, the selection feature amount extraction unit 28 divides, for example, the thinned second biological image into a plurality of small regions in order to detect the first joint of the finger. Each small region has a size that includes one or more ridges. Then, the selection feature amount extraction unit 28 obtains the ridge direction for each small region. In the vicinity of the first joint, there are many small regions in which the ridge direction is substantially orthogonal to the longitudinal direction of the finger, that is, the vertical direction of the second biological image. Therefore, the selection feature amount extraction unit 28 determines the number of small regions in which the ridge direction is substantially orthogonal to the vertical direction of the second biological image on the finger base side from the vortex center in each of the plurality of directions. For each line that is orthogonal to the direction and has the width of the small area. Then, the selection feature amount extraction unit 28 selects the line closest to the vortex center among the lines in which the number of small areas in which the ridge direction is substantially perpendicular to the vertical direction of the second biological image is the maximum value. Detect as one joint. Similarly, the selection feature quantity extraction unit 28 is the second from the vortex center among the lines in which the number of small regions in which the ridge direction is substantially orthogonal to the vertical direction of the second biological image is a maximum value. A close line may be detected as the second joint. Alternatively, the selection feature amount extraction unit 28 may detect the position of the first joint or the second joint according to another known method for detecting the position of the first joint or the second joint of the finger on the biological image. .

さらに、選択用特徴量抽出部28は、隆線方向が第2の生体画像の垂直方向と略直交する方向となる小領域の数が極大値となるラインのうち、渦中心から3番目に近いラインを指の付け根として検出してもよい。あるいは、選択用特徴量抽出部28は、第2の生体画像の上端から順に、各行ごとに、指が写っている領域の幅を求め、さらに、その行における領域の幅と一つ上の行におけるその領域の幅との差を求める。そして選択用特徴量抽出部28は、その差が所定値以上となった行に指の付け根があるとしてもよい。
あるいはまた、生体情報取得部21が、手の平の静脈パターンを撮影するエリアセンサを有している場合には、選択用特徴量抽出部28は、そのエリアセンサにより生成される生体画像上で指の付け根を検出してもよい。エリアセンサと指紋センサ間の位置関係は固定なので、選択用特徴量抽出部28は、生体画像上の任意の画素を、第2の生体画像上の座標に変換できる。なお、その変換式は、例えば、予め記憶部23に記憶される。そして選択用特徴量抽出部28は、生体画像上の指の付け根の位置を第2の生体画像上の座標に変換することで、渦中心から指の付け根までの長さを算出できる。
Further, the selection feature amount extraction unit 28 is the third closest to the center of the vortex among the lines in which the number of small regions in which the ridge direction is in a direction substantially orthogonal to the vertical direction of the second biological image is a maximum value. The line may be detected as the base of the finger. Alternatively, the selection feature amount extraction unit 28 obtains the width of the region in which the finger is captured for each row in order from the upper end of the second biological image, and further, the width of the region in the row and the row one level higher. Find the difference from the width of the region at. Then, the selection feature amount extraction unit 28 may have a root of a finger in a row where the difference is equal to or greater than a predetermined value.
Alternatively, when the biometric information acquisition unit 21 includes an area sensor that captures a palm vein pattern, the selection feature amount extraction unit 28 uses a finger on the biometric image generated by the area sensor. The root may be detected. Since the positional relationship between the area sensor and the fingerprint sensor is fixed, the selection feature amount extraction unit 28 can convert any pixel on the biological image into coordinates on the second biological image. The conversion formula is stored in the storage unit 23 in advance, for example. Then, the selection feature amount extraction unit 28 can calculate the length from the center of the vortex to the base of the finger by converting the position of the base of the finger on the biometric image into coordinates on the second biometric image.

代替特徴量抽出部29は、特定の指の指紋の重心から、その指の重心よりも指の付け根側の所定点までの長さを、代替特徴量である指の長さとして算出する。
代替特徴量抽出部29は、例えば、指の第1関節よりも指の先端側の隆線に相当する画素の重心を、指紋の重心とする。なお、指の第1関節、第2関節あるいは指の付け根の位置は、選択用特徴量抽出部28に関して述べた方法と同様の方法によって検出可能である。ただしこの場合には、渦中心は検出されていないので、代替特徴量抽出部29は、指の先端から渦中心までの平均的な距離の位置よりも下方で第1関節、第2関節あるいは指の付け根を検出すればよい。
The substitute feature amount extraction unit 29 calculates a length from the center of gravity of the fingerprint of a specific finger to a predetermined point closer to the base of the finger than the center of gravity of the finger as the length of the finger as the substitute feature amount.
For example, the alternative feature amount extraction unit 29 sets the center of gravity of the pixel corresponding to the ridge on the tip side of the finger relative to the first joint of the finger as the center of gravity of the fingerprint. The position of the first joint, the second joint, or the base of the finger can be detected by a method similar to the method described for the selection feature amount extraction unit 28. However, in this case, since the vortex center has not been detected, the alternative feature amount extraction unit 29 has the first joint, the second joint, or the finger below the position of the average distance from the tip of the finger to the vortex center. What is necessary is just to detect the root of.

なお、指紋の重心は、一般的に、指紋の渦中心の近くに位置する。そこで代替特徴量抽出部29は、代替特徴量そのものを、選択用特徴量の近似値とする。
端末2の処理部24は、第1の実施形態と同様に、認証処理の実行時には、利用者の照合用データと選択用特徴量または選択用特徴量の近似値を、通信部22を介して認証サーバ3へ送信する。また処理部24は、登録処理の実行時には、利用者の照合用データと選択用特徴量または選択用特徴量の近似値を、利用者のユーザ名とともに、通信部22を介して認証サーバ3へ送信する。
Note that the center of gravity of the fingerprint is generally located near the vortex center of the fingerprint. Therefore, the alternative feature quantity extraction unit 29 sets the alternative feature quantity itself as an approximate value of the selection feature quantity.
As in the first embodiment, the processing unit 24 of the terminal 2 transmits the user verification data and the selection feature quantity or the approximate value of the selection feature quantity via the communication unit 22 when executing the authentication process. Transmit to the authentication server 3. Further, when executing the registration process, the processing unit 24 sends the user verification data and the selection feature quantity or the approximate value of the selection feature quantity together with the user name of the user to the authentication server 3 via the communication unit 22. Send.

認証サーバ3の処理部33の選択部34は、第1の実施形態における選択部34と同様に、登録利用者のそれぞれについて、その登録利用者の選択用特徴量と利用者の選択用特徴量またはその近似値との差の絶対値を選択用スコアとして算出する。そして選択部34は、選択用スコアに基づいて照合対象となる登録利用者を選択する。   As with the selection unit 34 in the first embodiment, the selection unit 34 of the processing unit 33 of the authentication server 3 has, for each registered user, a feature amount for selecting the registered user and a feature amount for selecting the user. Alternatively, the absolute value of the difference from the approximate value is calculated as a selection score. And the selection part 34 selects the registration user used as collation object based on the score for selection.

処理部33の照合部35は、利用者の照合用データと、選択された登録利用者の照合用データとに基づいて利用者の生体情報と選択された各登録利用者の生体情報間の類似度をそれぞれ算出する。   The collation unit 35 of the processing unit 33 is similar between the user biometric information and the selected biometric information of each registered user based on the user collation data and the selected registered user collation data. Each degree is calculated.

本実施形態では、第1の実施形態と同様に、照合部35は、マニューシャマッチングを用いる場合、登録利用者の照合用データに含まれる指紋のマニューシャと、利用者の照合用データに含まれるマニューシャとの間で一致するマニューシャの個数を求める。そして照合部35は、その一致する個数を利用者の指紋について抽出されたマニューシャの個数で割ることにより、利用者の指紋と登録利用者の指紋との類似度を算出できる。
あるいは、照合部35は、パターンマッチングを用いる場合、利用者の指が写っている領域と登録利用者の指が写っている領域との相対的な位置を変えつつ正規化相互相関値を算出する。そして照合部35は、その正規化相互相関値の最大値を、利用者の指紋と登録利用者の指紋との類似度とする。そして照合部35は、類似度の最大値をもとめ、その最大値及びその最大値に対応する登録利用者の識別情報を認証判定部36へ渡す。
In the present embodiment, as in the first embodiment, when using the minutia matching, the collation unit 35 uses the fingerprint minutia included in the registered user collation data and the minutia included in the user collation data. Find the number of minutiae that match. The collation unit 35 can calculate the similarity between the user's fingerprint and the registered user's fingerprint by dividing the number of matching by the number of minutiae extracted for the user's fingerprint.
Alternatively, when using pattern matching, the matching unit 35 calculates the normalized cross-correlation value while changing the relative position between the region where the user's finger is captured and the region where the registered user's finger is captured. . Then, the matching unit 35 sets the maximum value of the normalized cross-correlation value as the similarity between the user's fingerprint and the registered user's fingerprint. Then, the collation unit 35 obtains the maximum value of the similarity, and passes the identification value of the registered user corresponding to the maximum value and the maximum value to the authentication determination unit 36.

あるいは、照合部35は、手の平の静脈パターンも照合に利用する場合には、第1の実施形態と同様に、利用者の手の平の静脈パターンと選択された登録利用者の手の平の静脈パターンとの類似度も算出する。そして照合部35は、指紋の類似度と手の平の静脈パターンの類似度の合計の最大値をもとめ、その最大値及びその最大値に対応する登録利用者の識別情報を認証判定部36へ渡す。   Alternatively, in the case where the palm vein pattern is also used for collation, the collation unit 35 calculates the palm vein pattern between the palm of the user and the palm vein pattern of the selected registered user as in the first embodiment. Similarity is also calculated. Then, the collation unit 35 obtains the maximum value of the sum of the fingerprint similarity and the palm vein pattern similarity, and passes the maximum value and the identification information of the registered user corresponding to the maximum value to the authentication determination unit 36.

認証判定部36は、類似度の最大値、あるいは類似度の合計の最大値が所定の認証閾値以上であれば、利用者をその類似度の最大値または類似度の合計の最大値に対応する登録利用者として認証する。   If the maximum value of the similarity or the maximum value of the similarity is equal to or greater than a predetermined authentication threshold, the authentication determination unit 36 corresponds the user to the maximum value of the similarity or the maximum value of the similarity. Authenticate as a registered user.

この実施形態によれば、生体認証装置は、生体認証に指紋を利用する場合において、照合対象の登録利用者を選択するための選択用特徴量が正確に得られなくても、選択用特徴量との相関性が高い代替特徴量を利用することで登録利用者を適切に選択できる。   According to this embodiment, when the biometric authentication device uses a fingerprint for biometric authentication, the selection feature amount can be obtained even if the selection feature amount for selecting the registered user to be collated is not accurately obtained. The registered user can be appropriately selected by using an alternative feature amount having a high correlation with.

第3の実施形態の変形例によれば、生体情報取得部21の指紋センサは、複数の指の指紋を同時に撮影可能なエリアセンサを有し、複数の指の指紋が写った第2の生体画像を生成可能であってもよい。この場合には、端末2の処理部24の選択用特徴量評価部27は、選択用特徴量を抽出可能か否かの指標として、特定の指の第1関節から先の面積を(以下、便宜上指紋面積と呼ぶ)利用してもよい。   According to the modification of the third embodiment, the fingerprint sensor of the biometric information acquisition unit 21 has an area sensor that can simultaneously capture the fingerprints of a plurality of fingers, and the second living body in which the fingerprints of the plurality of fingers are reflected. It may be possible to generate an image. In this case, the selection feature amount evaluation unit 27 of the processing unit 24 of the terminal 2 uses the area from the first joint of the specific finger (hereinafter, referred to as an index as to whether or not the selection feature amount can be extracted). It may be used for convenience).

例えば、選択用特徴量評価部27は、第2の生体画像上で隆線に相当する輝度値を持つ画素の集合のうち、背景に相当する輝度値を持つ画素によって互いに分離される集合を、それぞれ、一つの指に相当する指領域とする。そして選択用特徴量評価部27は、指領域ごとに、第1関節の位置を求め、第1関節よりも先で隆線に相当する輝度値を持つ画素の数を、その指の指紋面積とする。   For example, the selection feature amount evaluation unit 27 determines a set of pixels separated from each other by a pixel having a luminance value corresponding to the background from among a set of pixels having a luminance value corresponding to a ridge on the second biological image. Each finger region corresponds to one finger. Then, the selection feature amount evaluation unit 27 obtains the position of the first joint for each finger region, and calculates the number of pixels having a luminance value corresponding to the ridge ahead of the first joint as the fingerprint area of the finger. To do.

選択用特徴量評価部27は、指紋センサにより撮影される各指の指紋面積が、それぞれ、所定の面積閾値以上である場合、選択用特徴量を抽出できると判定する。そして選択用特徴量評価部27は、特定の指について、渦中心から指の付け根または第2関節までの長さを選択用特徴量とする。なお、面積閾値は、例えば、指紋に含まれるマニューシャの全てが第2の生体画像に写るために必要な指紋の面積の下限値に設定される。
一方、選択用特徴量評価部27は、全ての指について指紋面積が面積閾値未満であれば、利用者に対して指紋の再入力を促すメッセージを端末2の表示部に表示させ、その後、生体情報取得部21は、利用者の指を撮影した第2の生体画像を再生成する。
また、選択用特徴量の算出対象となる指について、指紋面積が面積閾値未満であるものの、他の指の指紋面積が面積閾値以上であれば、選択用特徴量評価部27は、代替特徴量抽出部29に代替特徴量を算出させる。
The selection feature quantity evaluation unit 27 determines that the selection feature quantity can be extracted when the fingerprint area of each finger photographed by the fingerprint sensor is equal to or greater than a predetermined area threshold. Then, the selection feature quantity evaluation unit 27 sets the length from the center of the vortex to the root of the finger or the second joint as the selection feature quantity for a specific finger. The area threshold value is set to, for example, the lower limit value of the fingerprint area necessary for all of the minutiae included in the fingerprint to appear in the second biological image.
On the other hand, if the fingerprint area for all the fingers is less than the area threshold value, the selection feature quantity evaluation unit 27 displays a message prompting the user to re-enter the fingerprint on the display unit of the terminal 2, and then The information acquisition unit 21 regenerates a second biological image obtained by photographing the user's finger.
In addition, regarding the finger whose selection feature quantity is to be calculated, if the fingerprint area is less than the area threshold value, but the fingerprint area of the other finger is equal to or larger than the area threshold value, the selection feature quantity evaluation unit 27 substitutes the alternative feature quantity. The extraction unit 29 is made to calculate a substitute feature amount.

あるいは、選択用特徴量評価部27は、第2の生体画像上の各指の指紋面積のうちの最大値に対する、選択用特徴量として長さを求める指の指紋面積の比である面積比が所定の比率閾値以上であれば、選択用特徴量を抽出できると判定する。そして選択用特徴量評価部27は、その指について、渦中心から指の付け根または第2関節までの長さを選択用特徴量としてもよい。なお、比率閾値は、例えば、0.5〜0.8とすることができる。一方、面積比が比率閾値未満である場合、選択用特徴量評価部27は、代替特徴量抽出部29に代替特徴量を算出させる。   Alternatively, the selection feature amount evaluation unit 27 has an area ratio that is a ratio of the fingerprint area of the finger for obtaining the length as the selection feature amount with respect to the maximum value of the fingerprint areas of each finger on the second biological image. If it is equal to or greater than the predetermined ratio threshold, it is determined that the selection feature amount can be extracted. Then, the selection feature amount evaluation unit 27 may use the length from the center of the vortex to the base of the finger or the second joint as the selection feature amount. The ratio threshold value can be set to 0.5 to 0.8, for example. On the other hand, if the area ratio is less than the ratio threshold, the selection feature quantity evaluation unit 27 causes the substitution feature quantity extraction unit 29 to calculate a substitution feature quantity.

この場合、代替特徴量抽出部29は、選択用特徴量を求める指について、第1関節から指の付け根または第2関節までの長さを求める。さらに、代替特徴量抽出部29は、指紋面積が最大となる指についての指紋の重心から第1関節までの距離を算出し、その距離を、選択用特徴量を求める指の第1関節から指の付け根または第2関節までの長さに加算した値を代替特徴量とする。そして代替特徴量抽出部29は、その代替特徴量そのものを、選択用特徴量の近似値とする。   In this case, the alternative feature quantity extraction unit 29 obtains the length from the first joint to the base of the finger or the second joint for the finger for which the selection feature quantity is obtained. Further, the alternative feature amount extraction unit 29 calculates the distance from the center of gravity of the fingerprint to the first joint for the finger having the maximum fingerprint area, and calculates the distance from the first joint of the finger for obtaining the selection feature amount. The value added to the base of the head or the length to the second joint is used as an alternative feature amount. Then, the alternative feature quantity extraction unit 29 sets the alternative feature quantity itself as an approximate value of the selection feature quantity.

また、上記の各実施形態の変形例では、認証サーバの記憶部が、全ての登録利用者に関する生体認証処理用のデータを記憶していてもよい。この場合、データサーバは省略されてもよい。また、端末、認証サーバ及びデータサーバが一つの生体認証装置として一体化されていてもよい。この場合、一体化された生体認証装置の処理部が、上記の各実施形態における端末の処理部の機能及び認証サーバの処理部の機能を実現する。また一体化された生体認証装置の記憶部が、全ての登録利用者に関する生体認証処理用のデータを記憶する。   In the modification of each embodiment described above, the storage unit of the authentication server may store data for biometric authentication processing related to all registered users. In this case, the data server may be omitted. The terminal, the authentication server, and the data server may be integrated as one biometric authentication device. In this case, the processing unit of the integrated biometric authentication device realizes the function of the processing unit of the terminal and the function of the processing unit of the authentication server in each of the above embodiments. In addition, the storage unit of the integrated biometric authentication device stores data for biometric authentication processing related to all registered users.

さらに他の変形例によれば、端末及び認証サーバと別個に、利用者の照合用データ及び選択用特徴量をデータサーバに登録するための登録装置がデータサーバと通信可能に接続されていてもよい。この場合、登録装置は、端末の各構成要素を有し、登録装置の処理部は、認証サーバの登録部の機能を実現する。   According to yet another modification, a registration device for registering user verification data and selection feature quantities in the data server can be connected to the data server separately from the terminal and the authentication server. Good. In this case, the registration device has each component of the terminal, and the processing unit of the registration device realizes the function of the registration unit of the authentication server.

さらに、端末の処理部が有する各機能及び認証サーバの処理部が有する各機能をコンピュータに実現させるコンピュータプログラムは、磁気記録媒体または光記録媒体といったコンピュータによって読み取り可能な記録媒体に記録された形で提供されてもよい。ただし、その記録媒体には、搬送波は含まれない。   Furthermore, the computer program for causing the computer to realize each function of the processing unit of the terminal and each function of the processing unit of the authentication server is recorded in a computer-readable recording medium such as a magnetic recording medium or an optical recording medium. May be provided. However, the recording medium does not include a carrier wave.

ここに挙げられた全ての例及び特定の用語は、読者が、本発明及び当該技術の促進に対する本発明者により寄与された概念を理解することを助ける、教示的な目的において意図されたものであり、本発明の優位性及び劣等性を示すことに関する、本明細書の如何なる例の構成、そのような特定の挙げられた例及び条件に限定しないように解釈されるべきものである。本発明の実施形態は詳細に説明されているが、本発明の精神及び範囲から外れることなく、様々な変更、置換及び修正をこれに加えることが可能であることを理解されたい。
以上説明した実施形態及びその変形例に関し、更に以下の付記を開示する。
(付記1)
利用者の生体情報を含む部位が写った生体画像を生成する生体情報取得部と、
前記生体画像から、前記生体情報の特徴を表す照合用データを生成する照合用データ生成部と、
前記生体画像から前記部位の形状の特徴を表す選択用特徴量を抽出する選択用特徴量抽出部と、
前記生体画像から前記選択用特徴量と所定の相関関係を持つ、前記部位の他の形状の特徴を表す代替特徴量を抽出し、該代替特徴量を前記相関関係に応じて補正することにより前記選択用特徴量の近似値を算出する代替特徴量抽出部と、
前記生体画像における前記部位の品質に基づいて前記選択用特徴量を抽出可能か否か判定し、前記選択用特徴量を抽出可能と判定した場合には前記選択用特徴量抽出部に前記選択用特徴量を抽出させ、一方、前記選択用特徴量を抽出不能と判定した場合には、前記代替特徴量抽出部に前記選択用特徴量の近似値を算出させる選択用特徴量評価部と、
複数の登録利用者のそれぞれについて、当該登録利用者の前記照合用データと前記選択用特徴量とを記憶する記憶部と、
前記複数の登録利用者のうち、前記利用者の前記選択用特徴量または前記選択用特徴量の近似値と類似している前記選択用特徴量を持つ登録利用者を選択する選択部と、
前記選択された登録利用者の前記照合用データと前記利用者の前記照合用データとを照合する照合部と、
を有する生体認証装置。
(付記2)
前記選択用特徴量評価部は前記選択用特徴量と前記代替特徴量の何れも抽出可能な場合に前記選択用特徴量抽出部に前記選択用特徴量を抽出させるとともに前記代替特徴量抽出部に前記選択用特徴量の近似値を算出させ、
前記選択用特徴量と前記選択用特徴量の近似値のうち、確からしい方を前記登録利用者の選択に利用するべく選択する特徴量選択部をさらに有する付記1に記載の生体認証装置。
(付記3)
前記選択用特徴量評価部は、前記選択用特徴量と関連する前記部位の一部を前記生体画像から検出できない場合、前記代替特徴量抽出部に前記選択用特徴量の近似値を算出させる、付記1または2に記載の生体認証装置。
(付記4)
前記生体情報を含む部位は手であり、前記選択用特徴量抽出部は前記選択用特徴量として前記生体画像上での手の平の幅を求め、前記代替特徴量抽出部は前記代替特徴量として前記生体画像上での何れかの指の幅、または人指し指と親指の付け根の中点と、薬指と小指の付け根の中点間の距離、または前記生体情報取得部に利用者が手を載置するための前記生体情報取得部の左端に位置する左ガイド部材と前記生体情報取得部の右端に位置する右ガイド部材間の間隔を求める、付記1〜3の何れか一つに記載の生体認証装置。
(付記5)
前記選択用特徴量評価部は、前記生体画像に写る物体の形状の歪みが無視できる前記生体画像上の許容範囲から前記利用者の手の少なくとも一部が外れている場合、前記代替特徴量抽出部に、前記代替特徴量として前記生体画像上での何れかの指の幅または人指し指と親指の付け根の中点と薬指と小指の付け根の中点間の距離を求めさせる、付記4に記載の生体認証装置。
(付記6)
前記生体情報取得部は、エリアセンサと前記部位の像を前記エリアセンサ上に結像する光学系とを有し、前記選択用特徴量評価部は、前記光学系による光量の低下が前記利用者の手の輪郭の検出に影響しない前記生体画像上の第2の許容範囲から前記利用者の手の少なくとも一部が外れている場合、前記代替特徴量抽出部に、前記代替特徴量として前記生体画像上での何れかの指の幅または人指し指と親指の付け根の中点と薬指と小指の付け根の中点間の距離を求めさせる、付記4に記載の生体認証装置。
(付記7)
前記代替特徴量抽出部は、前記代替特徴量として何れかの指の幅を求めた場合、当該指の幅に、一つの指の幅に対する手の平の幅の比を乗じることにより、前記選択用特徴量の近似値を算出する、付記4〜6の何れか一つに記載の生体認証装置。
(付記8)
前記代替特徴量抽出部は、前記代替特徴量として人指し指と親指の付け根の中点と薬指と小指の付け根の中点間の距離を求めた場合、当該距離に、当該距離に対する手の平の幅の比を乗じることにより、前記選択用特徴量の近似値を算出する、付記4〜6の何れか一つに記載の生体認証装置。
(付記9)
前記選択用特徴量評価部は、前記生体画像上で利用者の手が写っている領域の左端が前記左ガイド部材の前記生体画像上の位置と一致し、かつ、前記生体画像上で利用者の手が写っている領域の右端が前記右ガイド部材の前記生体画像上の位置と一致する場合、前記代替特徴量抽出部に、前記生体画像上での前記右ガイド部材と前記左ガイド部材間の間隔を前記選択用特徴量の近似値として求めさせる、付記4に記載の生体認証装置。
(付記10)
前記生体情報を含む部位は指であり、前記選択用特徴量抽出部は前記選択用特徴量として前記生体画像上での指紋の渦中心を一端とする指の長さを求め、前記代替特徴量抽出部は前記選択用特徴量の近似値として前記生体画像上での指紋領域の重心を一端とする指の長さを求める、付記1〜3の何れか一つに記載の生体認証装置。
(付記11)
前記選択用特徴量評価部は、前記指紋の渦中心を検出できない場合、前記代替特徴量抽出部に前記代替特徴量として前記生体画像上での指紋領域の重心を一端とする指の長さを求めさせる、付記10に記載の生体認証装置。
(付記12)
前記生体情報取得部は、前記利用者の複数の指が写った前記生体画像を生成し、
前記選択用特徴量評価部は、前記生体画像上での前記利用者の複数の指のうち第1の指の面積が当該指の指紋の特徴を抽出できないほど小さい場合、前記代替特徴量抽出部に前記選択用特徴量の近似値を算出させ、
前記代替特徴量抽出部は、前記第1の指の第1関節から当該第1の指の第1関節よりも根元側の所定点までの長さに、前記複数の指のうちの第2の指の指紋の重心から当該第2の指の第1関節までの長さを加えた値を前記選択用特徴量の近似値とする、付記10に記載の生体認証装置。
(付記13)
端末と、
前記端末と通信ネットワークを介して接続された認証サーバとを有し、
前記端末は、前記照合用データ生成部と、前記選択用特徴量評価部と、前記選択用特徴量抽出部と、前記代替特徴量抽出部とを有し、
前記認証サーバは、前記選択部と前記照合部とを有する、付記1〜12の何れか一つに記載の生体認証装置。
(付記14)
利用者の生体情報を含む部位が写った生体画像を生成する生体情報取得部と、
前記生体画像から、前記生体情報の特徴を表す照合用データを生成する照合用データ生成部と、
前記生体画像から前記部位の形状の特徴を表す選択用特徴量を抽出する選択用特徴量抽出部と、
前記生体画像から前記選択用特徴量と所定の相関関係を持つ、前記部位の他の形状の特徴を表す代替特徴量を抽出し、該代替特徴量を前記相関関係に応じて補正することにより前記選択用特徴量の近似値を算出する代替特徴量抽出部と、
前記生体画像における前記部位の品質に基づいて前記選択用特徴量を抽出可能か否か判定し、前記選択用特徴量を抽出可能と判定した場合には前記選択用特徴量抽出部に前記選択用特徴量を抽出させ、一方、前記選択用特徴量を抽出不能と判定した場合には、前記代替特徴量抽出部に前記選択用特徴量の近似値を算出させる選択用特徴量評価部と、
前記利用者の識別情報と、前記照合用データ及び前記選択用特徴量または前記選択用特徴量の近似値とを関連付けて記憶部に記憶する登録部と、
を有する生体情報登録装置。
(付記15)
利用者の生体情報を含む部位が写った生体画像を生成し、
前記生体画像から、前記生体情報の特徴を表す照合用データを生成し、
前記生体画像における前記部位の品質に基づいて前記部位の形状の特徴を表す選択用特徴量を抽出可能か否か判定し、前記選択用特徴量を抽出可能と判定した場合には前記選択用特徴量を抽出させ、一方、前記選択用特徴量を抽出不能と判定した場合には、前記選択用特徴量と所定の相関関係を持つ、前記部位の他の形状の特徴を表す代替特徴量を抽出し、該代替特徴量を前記相関関係に応じて補正することにより前記選択用特徴量の近似値を算出し、
前記複数の登録利用者のうち、前記利用者の前記選択用特徴量または前記選択用特徴量の近似値と類似している前記選択用特徴量を持つ登録利用者を選択し、
前記選択された登録利用者の前記照合用データと前記利用者の前記照合用データとを照合する、
ことを含む生体認証方法。
(付記16)
利用者の生体情報を含む部位が写った生体画像から、前記生体情報の特徴を表す照合用データを生成し、
前記生体画像における前記部位の品質に基づいて前記部位の形状の特徴を表す選択用特徴量を抽出可能か否か判定し、前記選択用特徴量を抽出可能と判定した場合には前記選択用特徴量を抽出させ、一方、前記選択用特徴量を抽出不能と判定した場合には、前記選択用特徴量と所定の相関関係を持つ、前記部位の他の形状の特徴を表す代替特徴量を抽出し、該代替特徴量を前記相関関係に応じて補正することにより前記選択用特徴量の近似値を算出し、
前記複数の登録利用者のうち、前記利用者の前記選択用特徴量または前記選択用特徴量の近似値と類似している前記選択用特徴量を持つ登録利用者を選択し、
前記選択された登録利用者の前記照合用データと前記利用者の前記照合用データとを照合する、
ことをコンピュータに実行させるための生体認証用コンピュータプログラム。
All examples and specific terms listed herein are intended for instructional purposes to help the reader understand the concepts contributed by the inventor to the present invention and the promotion of the technology. It should be construed that it is not limited to the construction of any example herein, such specific examples and conditions, with respect to showing the superiority and inferiority of the present invention. Although embodiments of the present invention have been described in detail, it should be understood that various changes, substitutions and modifications can be made thereto without departing from the spirit and scope of the present invention.
The following supplementary notes are further disclosed regarding the embodiment described above and its modifications.
(Appendix 1)
A biological information acquisition unit that generates a biological image in which a part including the biological information of the user is captured;
A collation data generation unit that generates collation data representing characteristics of the biometric information from the biometric image;
A feature extraction unit for selection that extracts a feature for selection representing the feature of the shape of the part from the biological image;
By extracting a substitute feature amount representing a feature of another shape of the part having a predetermined correlation with the selection feature amount from the biological image, and correcting the substitute feature amount according to the correlation An alternative feature quantity extraction unit that calculates an approximate value of the feature quantity for selection;
It is determined whether or not the selection feature amount can be extracted based on the quality of the part in the biological image, and when it is determined that the selection feature amount can be extracted, the selection feature amount extraction unit determines the selection feature amount. A feature quantity extraction unit, on the other hand, if it is determined that the selection feature quantity cannot be extracted, a selection feature quantity evaluation unit that causes the alternative feature quantity extraction unit to calculate an approximate value of the selection feature quantity;
For each of a plurality of registered users, a storage unit that stores the matching user data and the selection feature amount of the registered user;
A selection unit that selects a registered user having the selection feature amount similar to the selection feature amount of the user or the approximate value of the selection feature amount among the plurality of registered users;
A collation unit that collates the collation data of the selected registered user with the collation data of the user;
A biometric authentication device.
(Appendix 2)
The selection feature quantity evaluation unit causes the selection feature quantity extraction unit to extract the selection feature quantity when both the selection feature quantity and the substitution feature quantity can be extracted, and causes the substitution feature quantity extraction unit to Calculating an approximate value of the feature for selection;
The biometric authentication device according to supplementary note 1, further comprising a feature amount selection unit that selects a probable one of the selection feature amount and an approximate value of the selection feature amount for selection by the registered user.
(Appendix 3)
The selection feature quantity evaluation unit causes the alternative feature quantity extraction unit to calculate an approximate value of the selection feature quantity when a part of the part related to the selection feature quantity cannot be detected from the biological image. The biometric authentication device according to appendix 1 or 2.
(Appendix 4)
The part including the biological information is a hand, the selection feature quantity extraction unit obtains a palm width on the biological image as the selection feature quantity, and the substitute feature quantity extraction unit uses the substitute feature quantity as the substitution feature quantity. The width of any finger on the biometric image, or the distance between the midpoint of the base of the index finger and thumb and the midpoint of the base of the ring finger and little finger, or the user places his / her hand on the biometric information acquisition unit The biometric authentication device according to any one of appendices 1 to 3, wherein an interval between a left guide member positioned at a left end of the biometric information acquisition unit and a right guide member positioned at a right end of the biometric information acquisition unit is obtained. .
(Appendix 5)
The selection feature quantity evaluation unit extracts the substitute feature quantity when at least a part of the user's hand is out of an allowable range on the biological image in which distortion of the shape of the object shown in the biological image can be ignored. 5. The information processing apparatus according to claim 4, further comprising: determining a width of any finger on the biological image or a distance between a midpoint of the base of the index finger and the thumb and a midpoint of the base of the ring finger and the little finger as the substitute feature amount. Biometric authentication device.
(Appendix 6)
The biological information acquisition unit includes an area sensor and an optical system that forms an image of the part on the area sensor, and the selection feature amount evaluation unit is configured to reduce a light amount due to the optical system. When at least a part of the user's hand is out of the second allowable range on the biological image that does not affect the detection of the contour of the hand of the user, the biological feature is extracted as the alternative feature amount in the alternative feature amount extraction unit. The biometric authentication device according to appendix 4, wherein the biometric authentication apparatus is configured to obtain a width of any finger on the image or a distance between a midpoint of the base of the index finger and the thumb and a midpoint of the base of the ring finger and the little finger.
(Appendix 7)
When the alternative feature amount extraction unit obtains the width of any finger as the alternative feature amount, the feature for selection is obtained by multiplying the width of the finger by the ratio of the width of the palm to the width of one finger. The biometric authentication device according to any one of appendices 4 to 6, which calculates an approximate value of the quantity.
(Appendix 8)
When the alternative feature amount extraction unit obtains the distance between the midpoint of the base of the index finger and thumb and the midpoint of the base of the ring finger and little finger as the alternative feature amount, the ratio of the palm width to the distance is calculated as the distance. The biometric authentication device according to any one of appendices 4 to 6, wherein an approximate value of the feature value for selection is calculated by multiplying.
(Appendix 9)
The selection feature quantity evaluation unit has a left end of a region where a user's hand is shown on the biological image coincides with a position of the left guide member on the biological image, and the user on the biological image. When the right end of the region where the hand is shown coincides with the position of the right guide member on the biological image, the substitute feature amount extraction unit is provided with the space between the right guide member and the left guide member on the biological image. The biometric authentication device according to appendix 4, wherein the interval is obtained as an approximate value of the selection feature amount.
(Appendix 10)
The part including the biological information is a finger, and the selection feature amount extraction unit obtains the length of the finger with one end of the vortex center of the fingerprint on the biological image as the selection feature amount, and the substitute feature amount The biometric authentication device according to any one of appendices 1 to 3, wherein the extraction unit obtains a finger length having one end at a center of gravity of the fingerprint region on the biometric image as an approximate value of the feature value for selection.
(Appendix 11)
If the selection feature quantity evaluation unit cannot detect the vortex center of the fingerprint, the alternative feature quantity extraction unit sets the length of the finger with the center of the fingerprint area on the biological image as one end as the substitute feature quantity. The biometric authentication device according to appendix 10, which is requested.
(Appendix 12)
The biometric information acquisition unit generates the biometric image showing a plurality of fingers of the user,
If the area of the first finger among the plurality of fingers of the user on the biometric image is so small that the feature of the fingerprint of the finger cannot be extracted, the selection feature amount evaluation unit To calculate an approximate value of the feature for selection,
The alternative feature amount extraction unit has a length from the first joint of the first finger to a predetermined point closer to the root side than the first joint of the first finger. The biometric authentication device according to appendix 10, wherein a value obtained by adding a length from the center of gravity of the fingerprint of the finger to the first joint of the second finger is an approximate value of the selection feature amount.
(Appendix 13)
A terminal,
An authentication server connected to the terminal via a communication network;
The terminal includes the collation data generation unit, the selection feature amount evaluation unit, the selection feature amount extraction unit, and the alternative feature amount extraction unit.
The biometric authentication device according to any one of appendices 1 to 12, wherein the authentication server includes the selection unit and the verification unit.
(Appendix 14)
A biological information acquisition unit that generates a biological image in which a part including the biological information of the user is captured;
A collation data generation unit that generates collation data representing characteristics of the biometric information from the biometric image;
A feature extraction unit for selection that extracts a feature for selection representing the feature of the shape of the part from the biological image;
By extracting a substitute feature amount representing a feature of another shape of the part having a predetermined correlation with the selection feature amount from the biological image, and correcting the substitute feature amount according to the correlation An alternative feature quantity extraction unit that calculates an approximate value of the feature quantity for selection;
It is determined whether or not the selection feature amount can be extracted based on the quality of the part in the biological image, and when it is determined that the selection feature amount can be extracted, the selection feature amount extraction unit determines the selection feature amount. A feature quantity extraction unit, on the other hand, if it is determined that the selection feature quantity cannot be extracted, a selection feature quantity evaluation unit that causes the alternative feature quantity extraction unit to calculate an approximate value of the selection feature quantity;
A registration unit that associates the identification information of the user with the matching data and the selection feature quantity or an approximate value of the selection feature quantity in a storage unit;
A biometric information registration device.
(Appendix 15)
Generate a biological image showing the part containing the user's biological information,
From the biometric image, generate verification data representing the characteristics of the biometric information,
Based on the quality of the part in the biological image, it is determined whether or not a feature for selection representing the feature of the shape of the part can be extracted. On the other hand, if it is determined that the selection feature quantity cannot be extracted, an alternative feature quantity representing a feature of another shape of the part having a predetermined correlation with the selection feature quantity is extracted. And calculating an approximate value of the feature for selection by correcting the substitute feature according to the correlation,
Of the plurality of registered users, select a registered user having the selection feature amount similar to the selection feature amount of the user or an approximate value of the selection feature amount;
Collating the collation data of the selected registered user with the collation data of the user;
A biometric authentication method.
(Appendix 16)
From the biometric image in which the part including the biometric information of the user is captured, the verification data representing the characteristics of the biometric information is generated,
Based on the quality of the part in the biological image, it is determined whether or not a feature for selection representing the feature of the shape of the part can be extracted. On the other hand, if it is determined that the selection feature quantity cannot be extracted, an alternative feature quantity representing a feature of another shape of the part having a predetermined correlation with the selection feature quantity is extracted. And calculating an approximate value of the feature for selection by correcting the substitute feature according to the correlation,
Of the plurality of registered users, select a registered user having the selection feature amount similar to the selection feature amount of the user or an approximate value of the selection feature amount;
Collating the collation data of the selected registered user with the collation data of the user;
A computer program for biometric authentication for causing a computer to execute this.

1 生体認証装置
2 端末
21 生体情報取得部
22 通信部
23 記憶部
24 処理部
25 被写体領域検出部
26 照合用データ生成部
27 選択用特徴量評価部
28 選択用特徴量抽出部
29 代替特徴量抽出部
30 特徴量選択部
3 認証サーバ
31 通信部
32 記憶部
33 処理部
34 選択部
35 照合部
36 認証判定部
37 登録部
4 データサーバ
41 通信部
42 記憶部
43 制御部
5 通信ネットワーク
DESCRIPTION OF SYMBOLS 1 Biometric authentication apparatus 2 Terminal 21 Biometric information acquisition part 22 Communication part 23 Storage part 24 Processing part 25 Subject area detection part 26 Collation data generation part 27 Selection feature-value evaluation part 28 Selection feature-value extraction part 29 Alternative feature-value extraction Unit 30 feature amount selection unit 3 authentication server 31 communication unit 32 storage unit 33 processing unit 34 selection unit 35 verification unit 36 authentication determination unit 37 registration unit 4 data server 41 communication unit 42 storage unit 43 control unit 5 communication network

Claims (7)

利用者の生体情報を含む部位が写った生体画像を生成する生体情報取得部と、
前記生体画像から、前記生体情報の特徴を表す照合用データを生成する照合用データ生成部と、
前記生体画像から前記部位の形状の特徴を表す選択用特徴量を抽出する選択用特徴量抽出部と、
前記生体画像から前記選択用特徴量と所定の相関関係を持つ、前記部位の他の形状の特徴を表す代替特徴量を抽出し、該代替特徴量を前記相関関係に応じて補正することにより前記選択用特徴量の近似値を算出する代替特徴量抽出部と、
前記生体画像における前記部位の品質に基づいて前記選択用特徴量を抽出可能か否か判定し、前記選択用特徴量を抽出可能と判定した場合には前記選択用特徴量抽出部に前記選択用特徴量を抽出させ、一方、前記選択用特徴量を抽出不能と判定した場合には、前記代替特徴量抽出部に前記選択用特徴量の近似値を算出させる選択用特徴量評価部と、
複数の登録利用者のそれぞれについて、当該登録利用者の前記照合用データと前記選択用特徴量とを記憶する記憶部と、
前記複数の登録利用者のうち、前記利用者の前記選択用特徴量または前記選択用特徴量の近似値と類似している前記選択用特徴量を持つ登録利用者を選択する選択部と、
前記選択された登録利用者の前記照合用データと前記利用者の前記照合用データとを照合する照合部と、
を有する生体認証装置。
A biological information acquisition unit that generates a biological image in which a part including the biological information of the user is captured;
A collation data generation unit that generates collation data representing characteristics of the biometric information from the biometric image;
A feature extraction unit for selection that extracts a feature for selection representing the feature of the shape of the part from the biological image;
By extracting a substitute feature amount representing a feature of another shape of the part having a predetermined correlation with the selection feature amount from the biological image, and correcting the substitute feature amount according to the correlation An alternative feature quantity extraction unit that calculates an approximate value of the feature quantity for selection;
It is determined whether or not the selection feature amount can be extracted based on the quality of the part in the biological image, and when it is determined that the selection feature amount can be extracted, the selection feature amount extraction unit determines the selection feature amount. A feature quantity extraction unit, on the other hand, if it is determined that the selection feature quantity cannot be extracted, a selection feature quantity evaluation unit that causes the alternative feature quantity extraction unit to calculate an approximate value of the selection feature quantity;
For each of a plurality of registered users, a storage unit that stores the matching user data and the selection feature amount of the registered user;
A selection unit that selects a registered user having the selection feature amount similar to the selection feature amount of the user or the approximate value of the selection feature amount among the plurality of registered users;
A collation unit that collates the collation data of the selected registered user with the collation data of the user;
A biometric authentication device.
前記選択用特徴量評価部は前記選択用特徴量と前記代替特徴量の何れも抽出可能な場合に前記選択用特徴量抽出部に前記選択用特徴量を抽出させるとともに前記代替特徴量抽出部に前記選択用特徴量の近似値を算出させ、
前記選択用特徴量と前記選択用特徴量の近似値のうち、確からしい方を前記登録利用者の選択に利用するべく選択する特徴量選択部をさらに有する請求項1に記載の生体認証装置。
The selection feature quantity evaluation unit causes the selection feature quantity extraction unit to extract the selection feature quantity when both the selection feature quantity and the substitution feature quantity can be extracted, and causes the substitution feature quantity extraction unit to Calculating an approximate value of the feature for selection;
The biometric authentication device according to claim 1, further comprising a feature quantity selection unit that selects a probable one of the selection feature quantity and an approximate value of the selection feature quantity to be used for selection by the registered user.
前記選択用特徴量評価部は、前記選択用特徴量と関連する前記部位の一部を前記生体画像から検出できない場合、前記代替特徴量抽出部に前記選択用特徴量の近似値を算出させる、請求項1または2に記載の生体認証装置。   The selection feature quantity evaluation unit causes the alternative feature quantity extraction unit to calculate an approximate value of the selection feature quantity when a part of the part related to the selection feature quantity cannot be detected from the biological image. The biometric authentication device according to claim 1. 前記生体情報を含む部位は手であり、前記選択用特徴量抽出部は前記選択用特徴量として前記生体画像上での手の平の幅を求め、前記代替特徴量抽出部は前記代替特徴量として前記生体画像上での何れかの指の幅、または人指し指と親指の付け根の中点と、薬指と小指の付け根の中点間の距離、または前記生体情報取得部に利用者が手を載置するための前記生体情報取得部の左端に位置する左ガイド部材と前記生体情報取得部の右端に位置する右ガイド部材間の間隔を求める、請求項1〜3の何れか一項に記載の生体認証装置。   The part including the biological information is a hand, the selection feature quantity extraction unit obtains a palm width on the biological image as the selection feature quantity, and the substitute feature quantity extraction unit uses the substitute feature quantity as the substitution feature quantity. The width of any finger on the biometric image, or the distance between the midpoint of the base of the index finger and thumb and the midpoint of the base of the ring finger and little finger, or the user places his / her hand on the biometric information acquisition unit The biometric authentication according to any one of claims 1 to 3, wherein an interval between a left guide member positioned at a left end of the biometric information acquisition unit and a right guide member positioned at a right end of the biometric information acquisition unit is obtained. apparatus. 前記生体情報を含む部位は指であり、前記選択用特徴量抽出部は前記選択用特徴量として前記生体画像上での指紋の渦中心を一端とする指の長さを求め、前記代替特徴量抽出部は前記選択用特徴量の近似値として前記生体画像上での指紋領域の重心を一端とする指の長さを求める、請求項1〜3の何れか一項に記載の生体認証装置。   The part including the biological information is a finger, and the selection feature amount extraction unit obtains the length of the finger with one end of the vortex center of the fingerprint on the biological image as the selection feature amount, and the substitute feature amount The biometric authentication device according to any one of claims 1 to 3, wherein the extraction unit obtains a finger length having one end at a center of gravity of the fingerprint region on the biometric image as an approximate value of the selection feature amount. 利用者の生体情報を含む部位が写った生体画像を生成し、
前記生体画像から、前記生体情報の特徴を表す照合用データを生成し、
前記生体画像における前記部位の品質に基づいて前記部位の形状の特徴を表す選択用特徴量を抽出可能か否か判定し、前記選択用特徴量を抽出可能と判定した場合には前記選択用特徴量を抽出させ、一方、前記選択用特徴量を抽出不能と判定した場合には、前記選択用特徴量と所定の相関関係を持つ、前記部位の他の形状の特徴を表す代替特徴量を抽出し、該代替特徴量を前記相関関係に応じて補正することにより前記選択用特徴量の近似値を算出し、
数の登録利用者のうち、前記利用者の前記選択用特徴量または前記選択用特徴量の近似値と類似している前記選択用特徴量を持つ登録利用者を選択し、
前記選択された登録利用者の前記照合用データと前記利用者の前記照合用データとを照合する、
ことを含む生体認証方法。
Generate a biological image showing the part containing the user's biological information,
From the biometric image, generate verification data representing the characteristics of the biometric information,
Based on the quality of the part in the biological image, it is determined whether or not a feature for selection representing the feature of the shape of the part can be extracted, and when it is determined that the feature for selection can be extracted, the selection feature On the other hand, if it is determined that the selection feature quantity cannot be extracted, an alternative feature quantity representing a feature of another shape of the part having a predetermined correlation with the selection feature quantity is extracted. And calculating an approximate value of the feature for selection by correcting the substitute feature according to the correlation ,
Of multiple registered users, select the registered user with the selected feature quantity that is similar to the approximation of the selected feature quantity or the selected feature quantity of the user,
Collating the collation data of the selected registered user with the collation data of the user;
A biometric authentication method.
利用者の生体情報を含む部位が写った生体画像から、前記生体情報の特徴を表す照合用データを生成し、
前記生体画像における前記部位の品質に基づいて前記部位の形状の特徴を表す選択用特徴量を抽出可能か否か判定し、前記選択用特徴量を抽出可能と判定した場合には前記選択用特徴量を抽出させ、一方、前記選択用特徴量を抽出不能と判定した場合には、前記選択用特徴量と所定の相関関係を持つ、前記部位の他の形状の特徴を表す代替特徴量を抽出し、該代替特徴量を前記相関関係に応じて補正することにより前記選択用特徴量の近似値を算出し、
数の登録利用者のうち、前記利用者の前記選択用特徴量または前記選択用特徴量の近似値と類似している前記選択用特徴量を持つ登録利用者を選択し、
前記選択された登録利用者の前記照合用データと前記利用者の前記照合用データとを照合する、
ことをコンピュータに実行させるための生体認証用コンピュータプログラム。
From the biometric image in which the part including the biometric information of the user is captured, the verification data representing the characteristics of the biometric information is generated
Based on the quality of the part in the biological image, it is determined whether or not a feature for selection representing the feature of the shape of the part can be extracted, and when it is determined that the feature for selection can be extracted, the selection feature On the other hand, if it is determined that the selection feature quantity cannot be extracted, an alternative feature quantity representing a feature of another shape of the part having a predetermined correlation with the selection feature quantity is extracted. And calculating an approximate value of the feature for selection by correcting the substitute feature according to the correlation ,
Of multiple registered users, select the registered user with the selected feature quantity that is similar to the approximation of the selected feature quantity or the selected feature quantity of the user,
Collating the collation data of the selected registered user with the collation data of the user;
A computer program for biometric authentication for causing a computer to execute this.
JP2012250051A 2012-11-14 2012-11-14 Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program Active JP6056398B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012250051A JP6056398B2 (en) 2012-11-14 2012-11-14 Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012250051A JP6056398B2 (en) 2012-11-14 2012-11-14 Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program

Publications (2)

Publication Number Publication Date
JP2014099024A JP2014099024A (en) 2014-05-29
JP6056398B2 true JP6056398B2 (en) 2017-01-11

Family

ID=50940995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012250051A Active JP6056398B2 (en) 2012-11-14 2012-11-14 Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program

Country Status (1)

Country Link
JP (1) JP6056398B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6739896B2 (en) * 2014-12-16 2020-08-12 日本電気株式会社 Information processing device, information processing method, and program
EP3309742B1 (en) * 2015-06-15 2023-03-15 Nec Corporation Dermal image information processing device, dermal image information processing method, and program
JP6769899B2 (en) * 2017-03-21 2020-10-14 Kddi株式会社 Matching device, matching system, and matching method
US10136320B1 (en) 2017-11-22 2018-11-20 International Business Machines Corporation Authentication of users at multiple terminals
WO2022158345A1 (en) * 2021-01-22 2022-07-28 日本電気株式会社 Information processing device, information processing method, and recording medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1114171C (en) * 1996-08-27 2003-07-09 卡巴闭锁系统公开股份有限公司 Method and device for recognizing non-unrolled fingerprints
JP2004348522A (en) * 2003-05-23 2004-12-09 Nippon Telegr & Teleph Corp <Ntt> Detection method of palm-shape authentication reference point, and palm-shape authentication reference point detection device, program, and recording medium
JP2006268131A (en) * 2005-03-22 2006-10-05 Olympus Corp Authentication device and authentication method
WO2008120317A1 (en) * 2007-03-28 2008-10-09 Fujitsu Limited Checking device, authenticating device, checking method, authenticating method, checking program, and authenticating program
JP5810581B2 (en) * 2011-03-29 2015-11-11 富士通株式会社 Biological information processing apparatus, biological information processing method, and biological information processing program

Also Published As

Publication number Publication date
JP2014099024A (en) 2014-05-29

Similar Documents

Publication Publication Date Title
JP5799586B2 (en) Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program
JP5831018B2 (en) Biometric authentication device and method for adjusting user&#39;s hand position in biometric authentication device
KR101328358B1 (en) Biometric authentication device, biometric authentication method and computer readable recording medium having a computer program for biometric authentication recorded thereon
JP5477385B2 (en) Biological information processing apparatus, biological information processing method, and computer program for biological information processing
JP5930023B2 (en) Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program
JP6369078B2 (en) Image correction apparatus, image correction method, and computer program for image correction
JP5699845B2 (en) Biological information processing apparatus, biological information processing method, and computer program for biological information processing
JP6467852B2 (en) Biological information correction apparatus, biological information correction method, and biological information correction computer program
JP6089872B2 (en) Image correction apparatus, image correction method, and biometric authentication apparatus
JP6089610B2 (en) Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program
JP5799960B2 (en) Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program
US9129145B2 (en) Identification apparatus, identification method, and program
JP5812109B2 (en) Biological information processing apparatus, biological information processing method, and computer program for biological information processing
JP6751072B2 (en) Biometric system
JP6056398B2 (en) Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program
JP2015121874A (en) Biometric authentication device, data verification method for collation, and data verification computer program for collation
JP5915336B2 (en) Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program
JP6349817B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP6187262B2 (en) Biological information processing apparatus, biological information processing method, and computer program for biological information processing
JP6056577B2 (en) Biometric authentication apparatus, biometric authentication method, and biometric authentication computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160627

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161121

R150 Certificate of patent or registration of utility model

Ref document number: 6056398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150