JP2006209363A - Collating method and device - Google Patents

Collating method and device Download PDF

Info

Publication number
JP2006209363A
JP2006209363A JP2005018932A JP2005018932A JP2006209363A JP 2006209363 A JP2006209363 A JP 2006209363A JP 2005018932 A JP2005018932 A JP 2005018932A JP 2005018932 A JP2005018932 A JP 2005018932A JP 2006209363 A JP2006209363 A JP 2006209363A
Authority
JP
Japan
Prior art keywords
feature
image
directions
target image
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005018932A
Other languages
Japanese (ja)
Inventor
Hirobumi Saito
博文 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2005018932A priority Critical patent/JP2006209363A/en
Priority to US11/339,480 priority patent/US20060165264A1/en
Publication of JP2006209363A publication Critical patent/JP2006209363A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To highly accurately collate a reference image of a fingerprint or the like with an authentication subject image with a small memory capacity and low computational complexity. <P>SOLUTION: An imaging part takes a reference image and a subject image for collation. An arithmetic part calculates from the taken reference image features y11 to 14 characterizing directions of lines in the reference image in a plurality of directions, and calculates from the pickup subject image features y11 to 14 characterizing directions of lines in the subject image in a plurality of directions. A collating part collates the plurality of features y11 to 14 calculated in a plurality of directions in the subject image with the plurality of features y11 to 14 calculated in a plurality of directions in the reference image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

この発明は、指紋や虹彩などの生体情報を用いて、本人認証を行う際などに利用可能な照合方法および装置に関する。   The present invention relates to a verification method and apparatus that can be used when performing personal authentication using biometric information such as fingerprints and irises.

近年、指紋認証システムが携帯電話機などの携帯機器に搭載されるようになってきている。携帯機器は、デスクトップPCや大規模システムと異なり、メモリやCPU性能などに制限があるため、少ないメモリや安価なCPUで実装可能な認証方法が求められている。   In recent years, fingerprint authentication systems have been installed in mobile devices such as mobile phones. Unlike desktop PCs and large-scale systems, portable devices are limited in memory and CPU performance, so an authentication method that can be implemented with a small amount of memory and an inexpensive CPU is required.

従来の指紋認証方法には、大別して、(a)マニューシャ法、(b)パターンマッチング法、(c)チップマッチング法、(d)周波数解析法があった。(a)マニューシャ法は、指紋画像から、隆線の終端や分岐といった特徴的な点、すなわちマニューシャを抽出し、これらの点の情報を、2つの指紋画像間で比較することにより、指紋の照合を行い、本人か否かの判定を行う。   Conventional fingerprint authentication methods are roughly classified into (a) minutia method, (b) pattern matching method, (c) chip matching method, and (d) frequency analysis method. (A) In the minutiae method, fingerprint points are identified by extracting characteristic points such as ridge ends and branches from the fingerprint image, that is, minutiae, and comparing the information of these points between the two fingerprint images. And determine whether or not the person is the person.

(b)パターンマッチング法は、2つの指紋画像間で、画像のパターンを直接比較することにより、指紋の照合を行い、本人か否かの判定を行う。(c)チップマッチング法は、特徴点の周辺の小領域の画像、すなわちチップ画像を登録データとして持ち、このチップ画像を用いて指紋照合を行う。(d)周波数解析法は、指紋画像をスライスしたラインに対して、周波数解析を行い、スライン方向に垂直な方向に対する周波数成分の分布を、2つの指紋画像間で比較することにより、指紋の照合を行う。   (B) The pattern matching method performs fingerprint comparison by directly comparing image patterns between two fingerprint images, and determines whether or not the person is the person. (C) The chip matching method has an image of a small area around a feature point, that is, a chip image as registration data, and performs fingerprint collation using this chip image. (D) The frequency analysis method performs frequency analysis on a line obtained by slicing a fingerprint image, and compares fingerprint components by comparing the distribution of frequency components in the direction perpendicular to the line direction between two fingerprint images. I do.

特許文献1は、指紋画像などに対して、特徴ベクトルとその品質指標を抽出し、特徴ベクトルの誤差分布を用いて求めた信頼度情報を特徴量に付与し、これらを用いて指紋照合を行う技術を開示する。
特開平10−177650号公報
Patent Document 1 extracts a feature vector and its quality index from a fingerprint image, etc., assigns reliability information obtained using an error distribution of the feature vector to a feature amount, and performs fingerprint matching using these features. Disclose technology.
Japanese Patent Laid-Open No. 10-177650

しかしながら、(a)マニューシャ法および(c)チップマッチング法は、撮像した画像中で、切れている箇所を繋ぐなどの前処理が必要になり、演算量が多くなる。(b)パターンマッチング法は、画像全体のデータを記憶しなければならないので、特に多数人のデータを登録する場合、メモリ容量が大きくなってしまう。(d)周波数解析法は、周波数変換が必要になるため、演算量が多くなる。上記特許文献1も、統計的解析が必要になるため、演算量が多くなる。   However, (a) the minutiae method and (c) the chip matching method require preprocessing such as connecting cut portions in the captured image, and the amount of calculation increases. (B) Since the pattern matching method has to store the data of the entire image, the memory capacity becomes large especially when data of a large number of people is registered. (D) Since the frequency analysis method requires frequency conversion, the amount of calculation increases. The above-mentioned Patent Document 1 also requires a statistical analysis, which increases the amount of calculation.

本発明はこうした課題に鑑みてなされたものであり、その目的は、少ないメモリ容量、少ない演算量でいて、精度が高い照合を行うことができる照合方法および装置を提供することにある。   The present invention has been made in view of these problems, and an object of the present invention is to provide a collation method and apparatus capable of performing collation with high accuracy with a small memory capacity and a small amount of calculation.

上記課題を解決するために、本発明のある態様の照合方法は、照合のための参照画像から、参照画像内の線の方向を特徴づける特徴量、または参照画像を単一の物理量として特徴づける特徴量を、複数方向について算出するステップと、複数方向について算出した複数の特徴量を記録するステップと、を備える。「線」は、指紋の隆線または谷線であってもよい。「線の方向を特徴づける特徴量」は、各画素の勾配ベクトルを基に算出した値であってもよい。「単一の物理量」は、ベクトル量、スカラー量であってもよく、例えば、縞の切替回数など、画像濃度の切替り態様であってもよい。この態様によると、少ないメモリ容量で高い精度の参照データを登録することができる。   In order to solve the above-described problem, a collation method according to an aspect of the present invention characterizes, from a reference image for collation, a feature amount that characterizes the direction of a line in the reference image, or a reference image as a single physical quantity. The method includes a step of calculating feature amounts for a plurality of directions and a step of recording a plurality of feature amounts calculated for a plurality of directions. The “line” may be a ridge or valley line of a fingerprint. The “feature amount characterizing the direction of the line” may be a value calculated based on the gradient vector of each pixel. The “single physical quantity” may be a vector quantity or a scalar quantity, and may be an image density switching mode such as a fringe switching count. According to this aspect, reference data with high accuracy can be registered with a small memory capacity.

照合の対象画像から、対象画像内の線の方向を特徴づける特徴量、または対象画像を単一の物理量として特徴づける特徴量を、複数方向について算出するステップと、対象画像の複数方向について算出した複数の特徴量と、参照画像の複数方向について算出した複数の特徴量とを照合するステップと、を備えてもよい。この態様によると、複数の特徴量同士を照合するため、少ないメモリ容量、少ない演算量でいて、精度が高い照合を行うことができる。   A feature amount that characterizes the direction of a line in the target image or a feature amount that characterizes the target image as a single physical quantity is calculated for a plurality of directions from the target image to be collated, and is calculated for a plurality of directions of the target image. There may be provided a step of collating a plurality of feature amounts with a plurality of feature amounts calculated for a plurality of directions of the reference image. According to this aspect, since a plurality of feature quantities are collated, it is possible to perform collation with high accuracy with a small memory capacity and a small calculation amount.

照合するステップは、照合すべき特徴量の対応関係を変化させながら照合してもよい。この態様によると、参照画像と対象画像との回転ずれを検出することができ、照合精度を向上させることができる。   The step of collating may be performed while changing the correspondence between the feature amounts to be collated. According to this aspect, the rotational deviation between the reference image and the target image can be detected, and the collation accuracy can be improved.

本発明の別の態様もまた、照合方法である。この方法は、照合のための参照画像から、参照画像内の線の方向を特徴づける特徴量、または参照画像を単一の物理量として特徴づける特徴量を、少なくとも1方向について算出するステップと、照合の対象画像から、対象画像内の線の方向を特徴づける特徴量、または対象画像を単一の物理量として特徴づける特徴量を、少なくとも1方向について算出するステップと、参照画像の特徴量と、対象画像の特徴量とを照合するステップと、を備える。参照画像から算出するステップおよび対象画像から算出するステップは、参照画像および対象画像のいずれか一方を1方向について、他方を複数方向について算出し、照合するステップは、1方向について算出した特徴量と、複数方向について算出した特徴量のうち少なくとも1つ以上とを照合する。この態様によると、1対多で特徴量を照合することにより、回転ずれを検出することができ、さらに少ないメモリ容量、少ない演算量でいて、精度が高い照合を行うことができる。   Another aspect of the present invention is also a verification method. The method includes calculating, from at least one direction, a feature quantity that characterizes the direction of a line in the reference image or a feature quantity that characterizes the reference image as a single physical quantity from a reference image for collation; Calculating a feature quantity characterizing the direction of a line in the target image or a feature quantity characterizing the target image as a single physical quantity from at least one direction, a feature quantity of the reference image, and a target Collating with the feature quantity of the image. In the step of calculating from the reference image and the step of calculating from the target image, one of the reference image and the target image is calculated for one direction, and the other is calculated for a plurality of directions. Then, at least one or more of the feature quantities calculated for a plurality of directions are collated. According to this aspect, it is possible to detect a rotational shift by collating the feature amounts in a one-to-many manner, and it is possible to perform collation with high accuracy with a small memory capacity and a small calculation amount.

本発明のさらに別の態様もまた、照合方法である。この方法は、照合のための参照画像を複数の領域に、複数方向について分割するステップと、分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、各方向について特徴量群を生成するステップと、複数方向について算出した複数の特徴量群を記録するステップと、を備える。この態様によると、「特徴量群」は、各方向に沿った座標軸の関数であってもよい。この態様によると、少ないメモリ容量で高い精度の参照データを登録することができる。   Yet another embodiment of the present invention is also a collation method. This method includes a step of dividing a reference image for collation into a plurality of regions in a plurality of directions, a feature amount characterizing the direction of a line in the region for each divided region, or a single physical amount of the region. And a step of generating a feature amount group for each direction and a step of recording a plurality of feature amount groups calculated for a plurality of directions. According to this aspect, the “feature group” may be a function of coordinate axes along each direction. According to this aspect, reference data with high accuracy can be registered with a small memory capacity.

照合のための対象画像を複数の領域に、複数方向について分割するステップと、分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、各方向について特徴量群を生成するステップと、複数方向について算出した複数の特徴量群を記録するステップと、対象画像の複数方向について算出した複数の特徴量群と、参照画像の複数方向について算出した特徴量群とを照合するステップと、を備えてもよい。この態様によると、複数の特徴量群同士を照合するため、少ないメモリ容量、少ない演算量でいて、精度が高い照合を行うことができる。   A step of dividing the target image for collation into a plurality of regions in a plurality of directions, and a feature amount characterizing the direction of a line in the region for each divided region, or a feature characterizing the region as a single physical amount Calculating a quantity, generating a feature quantity group for each direction, recording a plurality of feature quantity groups calculated for a plurality of directions, a plurality of feature quantity groups calculated for a plurality of directions of the target image, and a reference image And a step of collating the feature amount groups calculated for the plurality of directions. According to this aspect, since a plurality of feature quantity groups are collated with each other, collation with high accuracy can be performed with a small memory capacity and a small calculation amount.

照合するステップは、照合すべき特徴量群の対応関係を変化させながら照合してもよい。この態様によると、参照画像と対象画像との回転ずれを検出することができ、照合精度を向上させることができる。   The step of collating may be performed while changing the correspondence relationship of the feature amount groups to be collated. According to this aspect, the rotational deviation between the reference image and the target image can be detected, and the collation accuracy can be improved.

本発明のさらに別の態様もまた、照合方法である。この方法は、照合のための参照画像を複数の領域に、少なくとも1方向について分割するステップと、分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、少なくとも1方向について特徴量群を生成するステップと、照合の対象画像を複数の領域に、少なくとも1方向について分割するステップと、分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、少なくとも1方向について特徴量群を生成するステップと、参照画像の特徴量群と、対象画像の特徴量群とを照合するステップと、を備える。参照画像から算出するステップおよび対象画像から算出するステップは、参照画像および対象画像のいずれか一方を1方向について、他方を複数方向について算出し、照合するステップは、1方向について算出した特徴量群と、複数方向について算出した特徴量群のうち少なくとも1つ以上とを照合する。この態様によると、1対多で特徴量群を照合することにより、回転ずれを検出することができ、さらに少ないメモリ容量、少ない演算量でいて、精度が高い照合を行うことができる。   Yet another embodiment of the present invention is also a collation method. In this method, a reference image for collation is divided into a plurality of regions in at least one direction, and a feature amount or a region that characterizes the direction of a line in the region is divided into a single region for each divided region. Calculating a feature quantity to be characterized as a physical quantity, generating a feature quantity group in at least one direction, dividing a target image to be collated into a plurality of areas in at least one direction, and, for each divided area, an area Calculating a feature quantity that characterizes the direction of a line in the image, or a feature quantity that characterizes a region as a single physical quantity, generating a feature quantity group for at least one direction, a feature quantity group of a reference image, and a target image And a step of collating with the feature quantity group. In the step of calculating from the reference image and the step of calculating from the target image, one of the reference image and the target image is calculated for one direction, the other is calculated for a plurality of directions, and the step of collating is a feature amount group calculated for one direction And at least one or more of the feature quantity groups calculated for a plurality of directions. According to this aspect, it is possible to detect a rotational shift by collating the feature amount groups in a one-to-many manner, and it is possible to perform collation with high accuracy with a small memory capacity and a small calculation amount.

算出するステップは、複数方向について特徴量群を算出する場合、参照画像または対象画像を回転させて、基準方向に対する特徴量群を算出してもよい。「基準方向」は、垂直方向または水平方向であってもよい。この態様によると、簡易なアルゴリズムで複数方向に対する特徴量群を算出することができる。   In the calculating step, when the feature amount group is calculated for a plurality of directions, the reference image or the target image may be rotated to calculate the feature amount group with respect to the reference direction. The “reference direction” may be a vertical direction or a horizontal direction. According to this aspect, it is possible to calculate a feature amount group for a plurality of directions with a simple algorithm.

算出するステップは、斜め方向に沿って特徴量群を算出する場合、領域を複数のサブ領域の集合として設定し、サブ領域ごとの特徴量を回転してもよい。「サブ領域」は、基準方向に沿った方形の領域であってもよい。「サブ領域」内の特徴量を各画素の勾配ベクトルを基に算出した値とした場合、各勾配ベクトルを上記斜め方向の基準方向からの角度に応じて、回転させてもよい。この勾配ベクトルを回転させる場合、所定の変換テーブルを参照することにより、回転させてもよい。この態様によると、少ないメモリ容量で複数方向に対する特徴量群を算出することができる。   In the calculating step, when calculating the feature amount group along the oblique direction, the region may be set as a set of a plurality of sub regions, and the feature amount for each sub region may be rotated. The “sub-region” may be a square region along the reference direction. When the feature amount in the “sub-region” is a value calculated based on the gradient vector of each pixel, each gradient vector may be rotated according to the angle from the reference direction in the oblique direction. When this gradient vector is rotated, it may be rotated by referring to a predetermined conversion table. According to this aspect, it is possible to calculate a feature amount group for a plurality of directions with a small memory capacity.

算出するステップは、撮像対象画像と撮像素子との相対的位置関係の想定範囲に応じて、複数方向について特徴量群を算出する場合の基準方向からの角度範囲を決定してもよい。この態様によると、無駄となる可能性の高い方向に対して特徴量群を算出し、それを記録したり、照合したりすることがなくなるため、少ないメモリ容量、少ない演算量でいて、精度の高い照合を行うことができる。   The calculating step may determine an angle range from the reference direction when calculating a feature amount group in a plurality of directions according to an assumed range of a relative positional relationship between the imaging target image and the imaging element. According to this aspect, a feature amount group is calculated in a direction that is likely to be wasted, and it is not recorded or collated. Therefore, a small memory capacity, a small calculation amount, and an accurate High verification can be performed.

本発明のさらに別の態様は、照合装置である。この装置は、照合のための参照画像および対象画像を撮像する撮像部と、撮像された参照画像から、参照画像内の線の方向を特徴づける特徴量、または参照画像を単一の物理量として特徴づける特徴量を、複数方向について算出し、および撮像された対象画像から、対象画像内の線の方向を特徴づける特徴量、または対象画像を単一の物理量として特徴づける特徴量を、複数方向について算出する演算部と、対象画像の複数方向について算出した複数の特徴量と、参照画像の複数方向について算出した複数の特徴量とを照合する照合部と、を備える。この態様によると、複数の特徴量同士を照合するため、少ないメモリ容量、少ない演算量でいて、精度が高い照合を行うことができる。   Yet another embodiment of the present invention is a collation device. The apparatus includes an imaging unit that captures a reference image and a target image for collation, and a feature amount that characterizes the direction of a line in the reference image from the captured reference image, or the reference image is characterized as a single physical quantity. The feature quantity to be attached is calculated for a plurality of directions, and the feature quantity that characterizes the direction of the line in the target image from the captured target image or the feature quantity that characterizes the target image as a single physical quantity is obtained for the plurality of directions. A calculation unit that calculates, and a collation unit that collates a plurality of feature amounts calculated in a plurality of directions of the target image and a plurality of feature amounts calculated in a plurality of directions of the reference image. According to this aspect, since a plurality of feature quantities are collated, it is possible to perform collation with high accuracy with a small memory capacity and a small calculation amount.

照合部は、照合すべき特徴量の対応関係を変化させながら照合してもよい。この態様によると、対応関係を変化させることにより、参照画像と対象画像との回転ずれを検出することができ、少ないメモリ容量、少ない演算量でいて、精度が高い照合を行うことができる。   The collation unit may collate while changing the correspondence relationship of the feature amounts to be collated. According to this aspect, by changing the correspondence relationship, it is possible to detect a rotational shift between the reference image and the target image, and it is possible to perform highly accurate collation with a small memory capacity and a small amount of calculation.

本発明のさらに別の態様もまた、照合装置である。この装置は、照合のための参照画像および対象画像を撮像する撮像部と、撮像された参照画像から、参照画像内の線の方向を特徴づける特徴量、または参照画像を単一の物理量として特徴づける特徴量を、少なくとも1方向について算出し、および撮像された対象画像から、対象画像内の線の方向を特徴づける特徴量、または対象画像を単一の物理量として特徴づける特徴量を、少なくとも1方向について算出する演算部と、参照画像の特徴量と、対象画像の特徴量とを照合部と、を備える。演算部は、参照画像および対象画像のいずれか一方を1方向について、他方を複数方向について算出し、照合部は、1方向について算出した特徴量と、複数方向について算出した特徴量のうち少なくとも1つ以上とを照合する。この態様によると、1対多で特徴量を照合することにより、回転ずれを検出することができ、さらに少ないメモリ容量、少ない演算量でいて、精度が高い照合を行うことができる。   Yet another embodiment of the present invention is also a verification device. The apparatus includes an imaging unit that captures a reference image and a target image for collation, and a feature amount that characterizes the direction of a line in the reference image from the captured reference image, or the reference image is characterized as a single physical quantity. And at least one feature amount that characterizes the direction of a line in the target image or a feature amount that characterizes the target image as a single physical amount from the captured target image. A calculation unit that calculates the direction, a reference image feature amount, and a target image feature amount are provided. The calculation unit calculates one of the reference image and the target image for one direction and the other for a plurality of directions, and the matching unit calculates at least one of the feature amount calculated for one direction and the feature amount calculated for the plurality of directions. Match more than one. According to this aspect, it is possible to detect a rotational shift by collating the feature amounts in a one-to-many manner, and it is possible to perform collation with high accuracy with a small memory capacity and a small calculation amount.

演算部は、撮像対象画像と撮像部との相対的位置関係の想定範囲に応じて、複数方向について特徴量を算出する場合の基準方向からの角度範囲を決定してもよい。「撮像部」は、撮像領域上の撮像対象の動きを規制するガイドを含んでもよい。また、ラインセンサを含んでもよい。この態様によると、無駄となる可能性の高い方向に対して特徴量を算出し、それを記録したり、照合したりすることがなくなるため、少ないメモリ容量、少ない演算量でいて、精度の高い照合を行うことができる。   The calculation unit may determine an angle range from the reference direction in the case of calculating a feature amount in a plurality of directions according to an assumed range of a relative positional relationship between the imaging target image and the imaging unit. The “imaging unit” may include a guide that regulates the movement of the imaging target on the imaging region. A line sensor may also be included. According to this aspect, the feature amount is calculated in a direction that is likely to be wasted, and it is not recorded or collated. Therefore, a small amount of memory, a small amount of calculation, and high accuracy are achieved. Verification can be performed.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、記録媒体などの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a computer program, a recording medium, and the like are also effective as an aspect of the present invention.

本発明によれば、少ないメモリ容量、少ない演算量でいて、精度が高い照合を行うことができる。   According to the present invention, it is possible to perform collation with high accuracy with a small memory capacity and a small calculation amount.

(実施形態1)
実施形態1は、指紋画像上の基準となる方向に対して、垂直な方向のラインに沿ったライン状の領域について、その領域内の隆線または谷線の方向を特徴づける1つのベクトルを求め、その成分を算出する。そして、その成分の基準方向の分布を求め、同様の方法で求めた登録データの分布と比較することにより、指紋画像間の照合を行い認証するものである。
(Embodiment 1)
The first embodiment obtains one vector characterizing the direction of a ridge or valley in a line-shaped area along a line perpendicular to the reference direction on the fingerprint image. The component is calculated. Then, the distribution of the reference direction of the component is obtained, and compared with the distribution of registered data obtained by the same method, the fingerprint images are collated and authenticated.

図1は、実施形態1における照合装置1の機能ブロックを示す図である。ここに示す各ブロックは、ハードウェア的には、プロセッサ、RAMなどの各種素子や、センサなどの各種デバイスで実現でき、ソフトウェア的にはコンピュータプログラムなどによって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。   FIG. 1 is a diagram illustrating functional blocks of the matching device 1 according to the first embodiment. Each block shown here can be realized in hardware by various elements such as a processor and RAM, and various devices such as sensors, and in software, it can be realized by a computer program. Depicts functional blocks realized by. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by a combination of hardware and software.

照合装置1は、撮像部100、処理部200を備える。撮像部100は、CCD(Charge Coupled Device)などが用いられ、ユーザの指を撮像し、画像データとして処理部200に出力する。例えば、携帯機器にCCDなどのラインセンサを搭載して撮像する場合、その上に指をかざしてもらい、そのラインセンサに対して垂直方向に指をスライドしてもらうことにより、指紋画像を採取してもよい。   The collation device 1 includes an imaging unit 100 and a processing unit 200. The imaging unit 100 uses a CCD (Charge Coupled Device) or the like, images a user's finger, and outputs the image to the processing unit 200 as image data. For example, when a line sensor such as a CCD is mounted on a portable device, a fingerprint image is collected by holding a finger over the line sensor and sliding the finger vertically with respect to the line sensor. May be.

処理部200は、画像バッファ210、演算部220、照合部230、および記録部240を含む。画像バッファ210は、撮像部100から入力される画像データを一時記憶したり、演算部220の作業領域としても利用されるメモリ領域である。演算部220は、画像バッファ210内の画像データに後述する各種の演算を施す。照合部230は、認証対象とすべく画像バッファ210内に記憶された画像データの特徴量と、記録部240に登録された画像データの特徴量とを比較して、同一人物の指紋であるか否かを判定する。記録部240は、予め撮像された指紋画像の特徴量を登録している。携帯電話機などに使用される場合、1人のデータが登録される場合が多いが、部屋のゲートなどに使用される場合、複数人のデータが登録される場合が多い。   The processing unit 200 includes an image buffer 210, a calculation unit 220, a collation unit 230, and a recording unit 240. The image buffer 210 is a memory area that temporarily stores image data input from the imaging unit 100 and is also used as a work area of the calculation unit 220. The calculation unit 220 performs various calculations described later on the image data in the image buffer 210. The collation unit 230 compares the feature amount of the image data stored in the image buffer 210 to be an authentication target with the feature amount of the image data registered in the recording unit 240, and determines whether the fingerprints are the same person. Determine whether or not. The recording unit 240 registers the feature amount of a fingerprint image captured in advance. When used for a mobile phone or the like, data for one person is often registered, but when used for a gate in a room or the like, data for a plurality of persons is often registered.

図2は、実施形態1における照合装置1の参照データを生成する処理を説明するためのフローチャートである。この参照データは、認証すべき人物の指紋画像を、所定の方向成分の分布として、ここでは線状の領域内の隆線または谷線方向を特徴づける特徴量の分布として、予め登録しておくものである。   FIG. 2 is a flowchart for explaining processing for generating reference data of the collation device 1 according to the first embodiment. In this reference data, a fingerprint image of a person to be authenticated is registered in advance as a distribution of a predetermined direction component, here as a distribution of a feature amount characterizing a ridge or valley direction in a linear region. Is.

まず、撮像部100は、ユーザがかざした指を撮像し、撮像した画像を電気信号に変換し、処理部200に出力する。処理部200は、その信号を画像データとして取得し、画像バッファ210に一時記憶する(S10)。演算部220は、その画像データを2値データに変換する(S12)。例えば、所定のしきい値より明るい値を白、それより暗い値を黒と判定する。そして、白を1または0、黒を0または1と表現する。   First, the imaging unit 100 captures an image of a finger held by the user, converts the captured image into an electrical signal, and outputs the electrical signal to the processing unit 200. The processing unit 200 acquires the signal as image data and temporarily stores it in the image buffer 210 (S10). The arithmetic unit 220 converts the image data into binary data (S12). For example, a value brighter than a predetermined threshold is determined to be white, and a value darker than that is determined to be black. White is expressed as 1 or 0, and black is expressed as 0 or 1.

次に、演算部220は、2値化した画像データを線状の領域ごとに分割する(S14)。図3は、実施形態1における撮像した指紋画像を示す図である。図3において、演算部220は、X軸方向を長手方向、Y軸方向を短手方向とする線状の領域12を、指紋画像上に形成している。この線状の領域は、短手方向を1画素または3画素に設定することが好ましい。このような線状の領域をY軸方向、すなわち指の長手方向に複数形成して、指紋画像を複数の領域に分割する。   Next, the calculation unit 220 divides the binarized image data for each linear region (S14). FIG. 3 is a diagram illustrating a captured fingerprint image in the first embodiment. In FIG. 3, the calculation unit 220 forms a linear region 12 with the X-axis direction as the longitudinal direction and the Y-axis direction as the short direction on the fingerprint image. In this linear region, the short direction is preferably set to one pixel or three pixels. A plurality of such linear regions are formed in the Y-axis direction, that is, the longitudinal direction of the finger, and the fingerprint image is divided into a plurality of regions.

次に、演算部220は、各画素の勾配を算出する(S16)。勾配の算出方法については、文献「コンピュータ画像処理、田村秀行編著、(株)オーム社、(p182〜191)」に記載された手法を用いることができる。   Next, the calculation unit 220 calculates the gradient of each pixel (S16). As a method for calculating the gradient, the method described in the document “Computer Image Processing, edited by Hideyuki Tamura, Ohm Co., Ltd. (p182-191)” can be used.

以下、簡単に説明すると、デジタル画像を対象に勾配を計算するためには、x方向およびy方向の1次の偏微分を計算する必要がある。
Δf(i,j)≡{f(i+1,j)−f(i−1,j)}/2 …(式1)
Δf(i,j)≡{f(i,j+1)−f(i,j−1)}/2 …(式2)
Briefly described below, in order to calculate a gradient for a digital image, it is necessary to calculate first-order partial differentials in the x and y directions.
Δ x f (i, j) ≡ {f (i + 1, j) −f (i−1, j)} / 2 (Expression 1)
Δ y f (i, j) ≡ {f (i, j + 1) −f (i, j−1)} / 2 (Expression 2)

デジタル画像に対する差分オペレータでは、(i,j)の画素における微分値が(i,j)を中心とした3×3の近傍の画素の濃度値、すなわちf(i±1,j±1)の線形結合として定義される。このことは、画像の微分を求める計算は、3×3の加重マトリクスを用いた空間フィルタリングによって実現できることを意味し、種々の差分オペレータは3×3の加重マトリクスによって表現することができる。以下では、(i,j)を中心とした3×3近傍を
f(i−1,j−1) f(i,j−1) f(i+1,j−1)
f(i−1,j) f(i,j) f(i+1,j) …(式3)
f(i−1,j+1) f(i,j+1) f(i+1,j+1)
と考え、これに対する加重マトリクスによって差分オペレータを記述することができる。
In the difference operator for a digital image, the differential value of the pixel at (i, j) is a density value of a pixel in the vicinity of 3 × 3 centered at (i, j), that is, f (i ± 1, j ± 1). Defined as a linear combination. This means that the calculation for obtaining the derivative of the image can be realized by spatial filtering using a 3 × 3 weighting matrix, and various difference operators can be expressed by a 3 × 3 weighting matrix. In the following, a 3 × 3 neighborhood centered at (i, j) is represented by f (i−1, j−1) f (i, j−1) f (i + 1, j−1)
f (i-1, j) f (i, j) f (i + 1, j) (Formula 3)
f (i-1, j + 1) f (i, j + 1) f (i + 1, j + 1)
The difference operator can be described by a weighting matrix for this.

例えば、式1、式2で定義されるx、y方向の1次偏微分オペレータは、
0 0 0 0 −1/2 0
−1/2 0 1/2 および 0 0 0 …(式4)
0 0 0 0 1/2 0
と表現される。すなわち、式3と式4の3×3の矩形領域において、対応する位置の画素の値と行列の要素の値の積をそれぞれ求め、それらの和を計算すると、式1、式2の右辺と一致する。
For example, the first-order partial differential operators in the x and y directions defined by Equation 1 and Equation 2 are
0 0 0 0 -1/2 0
−1/2 0 1/2 and 0 0 0 (Equation 4)
0 0 0 0 1/2 0
It is expressed. That is, in the 3 × 3 rectangular area of Equation 3 and Equation 4, the product of the value of the pixel at the corresponding position and the value of the element of the matrix are obtained, and the sum of those is calculated, and the right side of Equation 1 and Equation 2 Match.

勾配の大きさと方向は、式4の加重マトリクスで空間フィルタリングを行い、式1、式2で定義されるx、y方向の偏微分を計算した後、
|∇f(i,j)|=√{Δf(i,j)+Δf(i,j)} …(式5)
θ=tan−1{Δf(i,j)/Δf(i,j)} …(式6)
と求めることができる。
The gradient magnitude and direction are spatially filtered using the weighting matrix of Equation 4, and after calculating partial differentials in the x and y directions defined by Equations 1 and 2,
| ∇f (i, j) | = √ {Δ x f (i, j) 2 + Δ y f (i, j) 2} ... ( Equation 5)
θ = tan -1 {Δ y f (i, j) / Δ x f (i, j)} ... ( Equation 6)
It can be asked.

なお、上記差分オペレータには、ロバーツ・オペレータ、プリューウィット・オペレータ、ソーベル・オペレータなどを用いて、簡易に計算したり、ノイズ対策を施したりすることができる。   Note that the difference operator can be simply calculated using a Roberts operator, a Plewit operator, a Sobel operator, or the like, and noise countermeasures can be taken.

次に、演算部220は、式6で求めた勾配の方向、すなわち勾配ベクトルの角度を2倍にした数値の組を求める(S18)。本実施形態では、勾配ベクトルを用いて指紋の隆線あるいは谷線の方向を算出するが、隆線または谷線が同じ方向を向いている点であっても、勾配ベクトルの値は同じにならない。そこで、勾配ベクトルと座標軸のなす角度を2倍になうように勾配ベクトルを回転させて、x成分、y成分からなる1組の数値を求めることにより、同じ方向の隆線または谷線を、同じ成分をもつ一意の数値の組で表現することができる。例えば、45°、225°は、ちょうど反対方向であるが、2倍にすると、90°、450°となり、一意の方向を示すようになる。ここで、x成分、y成分からなる1組の数値は、ある座標系で、ベクトルを一定の規則で回転させたものである。以下、本明細書中では、この数値もベクトルとして表記する。   Next, the computing unit 220 obtains a set of numerical values obtained by doubling the gradient direction obtained by Equation 6, that is, the angle of the gradient vector (S18). In this embodiment, the direction of the ridge or valley line of the fingerprint is calculated using the gradient vector, but the value of the gradient vector is not the same even if the ridge or valley line is in the same direction. . Therefore, by rotating the gradient vector so that the angle formed by the gradient vector and the coordinate axis is doubled to obtain a set of numerical values composed of the x component and the y component, a ridge or valley line in the same direction is obtained. It can be expressed by a set of unique numerical values having the same components. For example, 45 ° and 225 ° are just opposite directions, but if doubled, they become 90 ° and 450 °, indicating a unique direction. Here, a set of numerical values composed of an x component and a y component is obtained by rotating a vector according to a certain rule in a certain coordinate system. Hereinafter, this numerical value is also expressed as a vector in this specification.

指紋画像のある領域の隆線または谷線の方向は、ローカルではバラツキが大きいので、後述するように、ある範囲で平均を取ることになる。その場合、上述したように勾配ベクトルの角度を2倍にして、一意のベクトルにしておけば、それらを単純に足し合わせて平均をとることにより、隆線または谷線の方向の近似値を得ることができる。この点、それをしない場合、反対の方向を向いている勾配ベクトルを足すと0になってしまい、単純な足し算を用いることができない。この場合、180°と0°とが等価であることを補償するための複雑な計算が必要になる。   The direction of ridges or valleys in a certain area of a fingerprint image varies widely locally, so that an average is taken in a certain range as will be described later. In that case, if the angle of the gradient vector is doubled to make it a unique vector as described above, an approximate value of the direction of the ridge or valley is obtained by simply adding them and averaging them. be able to. If this is not done, adding a gradient vector pointing in the opposite direction will result in 0, and a simple addition cannot be used. In this case, a complicated calculation is required to compensate that 180 ° and 0 ° are equivalent.

次に、演算部220は、各線状の領域について、各画素ごとに求めたベクトルを足し合わせて、平均化したベクトルを求める。このベクトルがその領域の特徴量となる(S20)。この特徴量は、その領域の隆線または谷線の方向の平均を示すような値であり、各領域について1つ定められる。   Next, the arithmetic unit 220 calculates an averaged vector by adding the vectors calculated for each pixel for each linear region. This vector becomes the feature amount of the region (S20). This feature amount is a value indicating the average of the direction of the ridge or valley of the region, and one feature amount is determined for each region.

この際、白い点または黒い点が複数続いた場合、勾配を定義できない状態が続くので、所定の個数を超えて、それが続いた場合、その部分を平均化処理の対象から外してもよい。なお、この所定の個数の最適値は、実験的に求めればよい。   At this time, when a plurality of white points or black points continue, a state in which the gradient cannot be defined continues. Therefore, when the number exceeds a predetermined number, the portion may be excluded from the target of the averaging process. The predetermined number of optimum values may be obtained experimentally.

最後に、演算部220は、各領域について求めたベクトルのx成分とy成分を求めて、記録部240に参照データとして記録する(S22)。なお、演算部220は、当該ベクトルのx成分とy成分の分布を後述するすようなスムージング処理してから、記録してもよい。   Finally, the calculation unit 220 obtains the x component and y component of the vector obtained for each region and records them as reference data in the recording unit 240 (S22). Note that the calculation unit 220 may record the x component and y component distribution of the vector after performing a smoothing process as described later.

図4は、図3の線状の領域12における特徴を表現するベクトルV(y0)を示す図である。線状の領域12は、図3に示した座標平面上のy=y0において切り出した領域である。図4は、その領域内の隆線または谷線方向の特徴を表現するベクトルV=(Vx,Vy)を示す。Vx(y0)およびVy(y0)は、ベクトルV(y0)の始点を原点とする直交座標上の終点座標を表したものである。特徴量は、上述した各画素の勾配ベクトルの角度を2倍して、平均化した値を用いることができる。   FIG. 4 is a diagram showing a vector V (y0) representing the feature in the linear region 12 of FIG. The linear region 12 is a region cut out at y = y0 on the coordinate plane shown in FIG. FIG. 4 shows a vector V = (Vx, Vy) representing features in the ridge or valley direction within that region. Vx (y0) and Vy (y0) represent end point coordinates on orthogonal coordinates with the start point of the vector V (y0) as the origin. As the feature amount, an average value obtained by doubling the angle of the gradient vector of each pixel described above can be used.

図5は、図3の画像を各線状の領域にスライスした場合の特徴量の分布を示す図である。図3に示した座標平面上のy方向に、すなわち線状の領域のスライス方向と垂直な方向に対して走査した場合の、特徴量の分布を示したものである。図5の横軸が図3のy軸、すなわち副走査方向を示し、縦軸が各領域における特徴量を示す。図5では、図4に示したように各領域を特徴づけるベクトルをx成分とy成分で表現している。演算部220は、登録すべき指紋画像から、このような各領域を特徴づけるベクトルのx成分とy成分の分布を求め、それを参照データとして記録部240に記録することができる。   FIG. 5 is a diagram illustrating a distribution of feature amounts when the image of FIG. 3 is sliced into linear regions. FIG. 4 shows a distribution of feature amounts when scanning is performed in the y direction on the coordinate plane shown in FIG. 3, that is, in a direction perpendicular to the slice direction of a linear region. The horizontal axis in FIG. 5 indicates the y axis in FIG. 3, that is, the sub-scanning direction, and the vertical axis indicates the feature amount in each region. In FIG. 5, as shown in FIG. 4, a vector characterizing each region is expressed by an x component and a y component. The calculation unit 220 can obtain the distribution of the x component and the y component of the vector characterizing each region from the fingerprint image to be registered, and record it as reference data in the recording unit 240.

図6は、実施形態1における照合装置1の認証処理を説明するためのフローチャートである。まず、撮像部100は、認証を要求しているユーザがかざした指を撮像し、撮像した画像を電気信号に変換し、処理部200に出力する。処理部200は、取得した画像に対して、図2のステップS12〜S20に示した処理と同様の処理を行い、認証対象データとしての画像データの特徴量分布を算出する(S30)。   FIG. 6 is a flowchart for explaining the authentication process of the verification device 1 according to the first embodiment. First, the imaging unit 100 captures an image of a finger held by a user requesting authentication, converts the captured image into an electrical signal, and outputs the electrical signal to the processing unit 200. The processing unit 200 performs the same processing as the processing shown in steps S12 to S20 in FIG. 2 on the acquired image, and calculates the feature amount distribution of the image data as authentication target data (S30).

次に、演算部220は、その特徴量分布にスムージング処理をかける(S32)。例えば、前後の値の数点を平均化する。どの程度のスムージングをかけるかは、アプリケーションなどにより異なり、最適値は実験的に求めてもよい。   Next, the computing unit 220 applies a smoothing process to the feature amount distribution (S32). For example, several points of the previous and subsequent values are averaged. The degree of smoothing depends on the application and the optimum value may be obtained experimentally.

次に、照合部230は、参照データの特徴量分布と、認証対象データの特徴量分布との照合を行う(S34)。この照合は、一方の分布を固定し、他方の分布をスライドしていくことにより、最も一致するパターンを求めることにより行う。単純に、全パターンについてパターンマッチングを行ってもよいが、計算量を減少させるために、両分布の注目点を検出して、その一致する点を中心に、その前後数パターンのマッチングだけを行ってもよい。例えば、注目点として、x成分の最大値となる点、0の点、微分すると0になる点、または傾きが最も急な点などを用いることができる。   Next, the collation unit 230 collates the feature quantity distribution of the reference data with the feature quantity distribution of the authentication target data (S34). This collation is performed by obtaining the most matching pattern by fixing one distribution and sliding the other distribution. You can simply perform pattern matching for all patterns, but in order to reduce the amount of calculation, detect the attention points of both distributions, and only perform matching of several patterns around the matching points. May be. For example, a point that becomes the maximum value of the x component, a point that is 0, a point that becomes 0 when differentiated, a point with the steepest slope, or the like can be used as a point of interest.

パターンマッチングは、y軸上の各点について、参照データと認証対象データとの各成文の差分を検出することにより行うことができる。例えば、下記式7によりマッチングのエネルギーEを算出することにより行う。
E=Σ√{ΔVx+ΔVy} …式7
Pattern matching can be performed by detecting a difference between each reference sentence and authentication target data for each point on the y-axis. For example, the calculation is performed by calculating the matching energy E by the following equation (7).
E = Σ√ {ΔVx 2 + ΔVy 2 } Equation 7

両分布のx成分の誤差ΔVxおよびy成分の誤差ΔVyを二乗して足した値の平方根をとると、当該x成分およびy成分は元々ベクトルの成分であるから、ベクトルの大きさの誤差を求めることができる。それをy軸方向に足し合わせた値をマッチングエネルギーEとする。したがって、このエネルギーEが大きいほど近似しない画像となり、小さいほど近似する画像となる。そして、最もマッチングエネルギーEが小さいパターンを重ね合わせ位置とする(S36)。なお、パターンマッチングの方法はこれに限らず、両分布のx成分の誤差ΔVxおよびy成分の誤差ΔVyのそれぞれの絶対値を足し合わせていくなどでもよい。なお、精度の高い照合方法を実験的に求め、その方法を用いてもよい。   Taking the square root of the value obtained by squaring the error ΔVx of the x component and the error ΔVy of the y component of both distributions, the x component and the y component are originally vector components, so that the vector size error is obtained. be able to. A value obtained by adding them in the y-axis direction is defined as a matching energy E. Therefore, the larger the energy E, the closer the image becomes, and the smaller the energy E, the closer the image. Then, the pattern having the smallest matching energy E is set as the overlapping position (S36). The pattern matching method is not limited to this, and the absolute values of the x component error ΔVx and the y component error ΔVy of both distributions may be added together. A highly accurate collation method may be experimentally obtained and used.

図7は、実施形態1における参照データの特徴量分布と、認証対象データの特徴量分布とを重ねて描写した図である。図7では、参照データの特徴量分布を実線で、認証対象データの特徴量分布を破線で示している。図7の例では、最初に両分布のx成分の最大値を検出する。そして、最大値p1同士が一致する位置と、その位置から一方の分布を、数点前後させた位置でパターンマッチングを行い、最もマッチする位置を重ね合わせ位置とする。   FIG. 7 is a diagram depicting the feature quantity distribution of the reference data and the feature quantity distribution of the authentication target data in the first embodiment. In FIG. 7, the feature amount distribution of the reference data is indicated by a solid line, and the feature amount distribution of the authentication target data is indicated by a broken line. In the example of FIG. 7, the maximum value of the x component of both distributions is first detected. Then, pattern matching is performed at a position where the maximum values p1 coincide with each other and a position where one of the distributions is shifted from that position by several points, and the position that best matches is set as the overlapping position.

照合部230は、算出したマッチングエネルギーEと、予め設定された認証を成功させるか否かを決定するためのしきい値とを比較し、マッチングエネルギーEが当該しきい値未満の場合、参照データと認証対象データとの照合が成功したとみなして、その指紋画像のユーザを認証する(S38)。逆に、マッチングエネルギーEが当該しきい値以上の場合、認証しない。以上の処理は、参照データが複数登録されている場合、それぞれの参照データと認証対象データとの間で行う。   The collation unit 230 compares the calculated matching energy E with a threshold value for determining whether or not to succeed in the preset authentication. If the matching energy E is less than the threshold value, the reference data The user of the fingerprint image is authenticated (S38). Conversely, if the matching energy E is greater than or equal to the threshold value, authentication is not performed. The above processing is performed between each reference data and authentication target data when a plurality of reference data is registered.

以上説明したように実施形態1によれば、指紋などの生体情報の画像を所定の領域ごとに分割し、各領域を特徴づける値を、参照画像と認証対象画像との間の照合処理に利用したことにより、少ないメモリ容量で認証処理をすることができる。また、計算量も低減することができ、認証処理を高速化することができる。したがって、バッテリ駆動などの携帯機器への認証処理に適用すれば、回路の小面積化、省電力化にもつながる。さらに、線状の領域ごとに特徴量を求めることにより、ラインセンサなどで撮像した指紋画像の照合に適している。さらに、各画素の特徴量を領域ごとに平均化したり、その平均化した特徴量の分布をスムージング処理するため、ノイズにも強い。また、線状の領域で平均化処理するため、参照データと認証対象データとの間で指が左右にスライドしていても、同一人物の指であるか否かを照合することができる。さらに、マニューシャ法と異なり、ノイズの強い指紋画像でも同様の状態で登録および認証を行えば、有効に機能させることができる。   As described above, according to the first embodiment, an image of biometric information such as a fingerprint is divided into predetermined areas, and values that characterize each area are used for matching processing between the reference image and the authentication target image. As a result, authentication processing can be performed with a small memory capacity. Also, the amount of calculation can be reduced, and the authentication process can be speeded up. Therefore, if it is applied to authentication processing for a portable device such as a battery drive, the circuit area can be reduced and power can be saved. Furthermore, by obtaining a feature amount for each linear region, it is suitable for collation of fingerprint images captured by a line sensor or the like. Furthermore, the feature amount of each pixel is averaged for each region, and the distribution of the averaged feature amount is smoothed, so that it is also resistant to noise. In addition, since the averaging process is performed on the linear area, it is possible to collate whether or not the fingers are the same person even if the finger slides left and right between the reference data and the authentication target data. Further, unlike the minutiae method, even a noisy fingerprint image can function effectively if registration and authentication are performed in the same state.

(実施形態2)
実施形態1では、線状の領域を得るための画像の分割の方法として、一方向に分割する例を説明した。この点、実施形態2では、複数方向に分割する例を説明する。例えば、2方向に画像をスライスすることができる。
(Embodiment 2)
In the first embodiment, an example of dividing in one direction has been described as a method of dividing an image for obtaining a linear region. In this regard, in the second embodiment, an example of dividing in a plurality of directions will be described. For example, an image can be sliced in two directions.

まず、実施形態2における照合装置1の構成および動作は、図1に示した実施形態1における照合装置1と同様のため説明を省略する。図8は、実施形態2における画像を垂直方向にスライスする例を示す図である。ここで、照合対象となる画像としては、上述した指紋画像以外に、虹彩画像、その他、生体情報を表現した画像であってもよい。図8では、便宜的に縞模様の画像で表現している。図9は、図8の各線状の領域における特徴量の分布を示す図である。各線状の領域を特徴づける特徴量A、Bを求め、これらのy方向、すなわち垂直方向に対する分布を示している。   First, the configuration and operation of the collation device 1 according to the second embodiment are the same as those of the collation device 1 according to the first embodiment shown in FIG. FIG. 8 is a diagram illustrating an example of slicing an image in the vertical direction according to the second embodiment. Here, as an image to be collated, in addition to the above-described fingerprint image, an iris image or other images expressing biological information may be used. In FIG. 8, it is expressed as a striped pattern image for convenience. FIG. 9 is a diagram illustrating the distribution of feature amounts in each linear region in FIG. The feature amounts A and B characterizing each linear region are obtained, and the distribution in the y direction, that is, the vertical direction is shown.

図10は、実施形態2における画像を斜め45°方向にスライスする例を示す図である。図10は、図8と同様の画像を斜め45°方向にスライスしている。図11は、図10の各線状の領域における特徴量の分布を示す図である。各線状の領域を特徴づける特徴量C、Dを求め、これらのz方向、すなわち斜め45°方向に対する分布を示している。このように、2方向に画像をスライスして、4種の特徴量A、B、C、Dで、画像の特徴を表現している。実施形態2における参照データを生成する処理および認証する処理も、これらの特徴量を利用して、実施形態1に説明した図2および図6と同様に処理することができる。この場合、各方向から算出されるマッチングエネルギーEが複数になるので、例えば、照合部230は、その平均値を求めて、認証するか否かを判断してもよい。   FIG. 10 is a diagram illustrating an example of slicing an image in the oblique 45 ° direction according to the second embodiment. FIG. 10 slices the same image as in FIG. 8 in a 45 ° oblique direction. FIG. 11 is a diagram showing the distribution of feature amounts in each linear region in FIG. The feature amounts C and D characterizing each linear region are obtained, and the distribution in the z direction, that is, the oblique 45 ° direction is shown. In this manner, the image is sliced in two directions, and the feature of the image is expressed by the four types of feature amounts A, B, C, and D. The process of generating reference data and the process of authenticating in the second embodiment can be performed in the same manner as in FIGS. 2 and 6 described in the first embodiment, using these feature amounts. In this case, since there are a plurality of matching energies E calculated from each direction, for example, the collation unit 230 may determine the average value to determine whether to authenticate.

ここで、特徴量は、実施形態1で説明した線状の領域内の隆線または谷線を特徴づけるベクトルのx成分およびy成分に限るものではない。例えば、画像の濃淡、輝度、色情報、その多の局所的な画像情報あるいは、これら画像情報から微分その他の計算によって求められたスカラー量、ベクトル量、その他の数値であってもよい。   Here, the feature amount is not limited to the x component and the y component of the vector that characterizes the ridge or valley line in the linear region described in the first embodiment. For example, it may be image density, brightness, color information, a lot of local image information, or a scalar amount, a vector amount, or other numerical values obtained from these image information by differentiation or other calculations.

なお、実施形態2における画像は、ラインセンサなどの1次元センサで撮像して、画像バッファ210に取り込み、2以上の方向にスライスしてもよいし、2次元センサを用いてもよい。また、2以上の方向の例としては、垂直方向、水平方向、斜め45°、斜め135°などが一般的であるが、これらに限るものでなく、任意の方向にスライスすることができる。さらに、2以上の方向の組み合わせも、垂直方向および斜め45°に限らず、任意に設定することができる。   Note that the image in the second embodiment may be captured by a one-dimensional sensor such as a line sensor, loaded into the image buffer 210, and sliced in two or more directions, or a two-dimensional sensor may be used. Examples of two or more directions are generally the vertical direction, the horizontal direction, the oblique 45 °, and the oblique 135 °, but are not limited thereto, and can be sliced in any direction. Furthermore, the combination of two or more directions is not limited to the vertical direction and the oblique 45 °, and can be arbitrarily set.

以上説明したように実施形態2によれば、線状の領域を得るための画像のスライス方向として、異なる複数の方向を用いることにより、実施形態1と比較し、照合の精度を高めることができる。実施形態2でも、マニューシャ法などのように、ある画像から他の画像を生成するわけでないので、単に原画像を記憶できるメモリ容量さえあればよい。したがって、少ないメモリ容量および少ない演算量で、精度の高い認証を行うことができる。   As described above, according to the second embodiment, by using a plurality of different directions as slice directions of an image for obtaining a linear region, the accuracy of matching can be improved as compared with the first embodiment. . In the second embodiment, another image is not generated from a certain image as in the minutia method, and therefore, it is sufficient if the memory capacity is sufficient to store the original image. Therefore, highly accurate authentication can be performed with a small memory capacity and a small amount of calculation.

(実施形態3)
実施形態1、2では、スライスした線状の領域が直線的な形状である場合の例を説明した。この形状は、それに限るものではなく、曲線状、閉曲線状、円状、同心円状などの非直線的なものでもよい。実施形態3では、非直線的な領域に分割する代表的な例として、虹彩画像の照合について説明する。
(Embodiment 3)
In the first and second embodiments, an example in which the sliced linear region has a linear shape has been described. This shape is not limited thereto, and may be a non-linear shape such as a curved shape, a closed curved shape, a circular shape, or a concentric circular shape. In the third embodiment, the matching of iris images will be described as a typical example of dividing into non-linear regions.

まず、実施形態3における照合装置1の構成および動作も、図1に示した実施形態1における照合装置1と同様のため説明を省略する。図12は、実施形態3における目の虹彩部分を同心円状の領域に分割する例を示す図である。図12では、各線状の領域として、同心円状に分割している。図13は、図12の各同心円状の領域における特徴量の分布を示す図である。各領域を特徴づける値の動系方向rの分布を求める。実施形態3における参照データを生成する処理および認証する処理も、この特徴量を利用して、実施形態1に説明した図2および図6と同様に処理することができる。   First, since the configuration and operation of the collation device 1 in the third embodiment are also the same as those of the collation device 1 in the first embodiment shown in FIG. FIG. 12 is a diagram illustrating an example of dividing the iris portion of the eye into concentric regions in the third embodiment. In FIG. 12, each linear region is divided into concentric circles. FIG. 13 is a diagram showing the distribution of feature amounts in each concentric region in FIG. The distribution of the dynamic system direction r of values characterizing each region is obtained. The process of generating reference data and the process of authenticating in the third embodiment can be performed in the same manner as in FIGS. 2 and 6 described in the first embodiment, using this feature amount.

虹彩の場合、図6で説明した照合処理が簡易になる。認証対象データと参照データの間で、瞳孔と虹彩との境界R0、および虹彩と白目部分との境界R1が合うように、両特徴量の分布を重ね合わせればよい。ただ、周囲の明るさなどにより瞳孔の大きさが変化するため、認証対象データの境界R0と境界R1との距離が参照データのそれと合うように、一様に伸縮する必要がある。   In the case of an iris, the matching process described in FIG. 6 is simplified. The distribution of both feature amounts may be overlapped so that the boundary R0 between the pupil and the iris and the boundary R1 between the iris and the white eye portion match between the authentication target data and the reference data. However, since the size of the pupil changes depending on the brightness of the surroundings, it is necessary to expand and contract uniformly so that the distance between the boundary R0 and the boundary R1 of the authentication target data matches that of the reference data.

以上説明したように実施形態3によれば、虹彩画像の照合を少ないメモリ容量、少ない計算量で行うことができる。また、各同心円状の領域において、各画素の勾配ベクトルなどを平均化して特徴量を求めているため、参照データに対して目の位置が回転していても、精度よく照合することができる。この性質は、実施形態1の指紋画像において、指の水平方向におけるスライドに強いという性質に相当するものである。また、まぶたに塞がれて、虹彩のすべての部分を撮像できない場合でも、瞳孔に近い部分の複数の領域で照合しても、相当程度の精度を維持することができる。   As described above, according to the third embodiment, the iris image can be collated with a small memory capacity and a small calculation amount. In addition, since the feature amount is obtained by averaging the gradient vector of each pixel in each concentric region, even if the eye position is rotated with respect to the reference data, it is possible to accurately collate. This property corresponds to the property that the finger image is resistant to sliding in the horizontal direction in the fingerprint image of the first embodiment. In addition, even when the eyelid is blocked and all the portions of the iris cannot be imaged, a considerable degree of accuracy can be maintained even if collation is performed on a plurality of regions near the pupil.

なお、虹彩の半分を照合に使用する場合、同心円状の領域ではなく、半円状の領域ごとに分割してもよい。また、このような非直線的な領域で分割する手法は、虹彩画像に限らず、指紋画像の場合でも適用可能である。例えば、指紋の渦の中心を検出して、そこから外側に同心円状に分割していってもよい。   When half of the iris is used for collation, it may be divided not for concentric areas but for each semicircular area. Further, such a method of dividing in a non-linear region is not limited to an iris image but can be applied to a fingerprint image. For example, the center of the fingerprint vortex may be detected and concentrically divided from there.

(実施形態4)
実施形態2では、複数方向に分割する例を説明した。即ち、複数方向に対して分割して得た複数の特徴を参照画像および認証対象画像について、対応する特徴同士を比較することにより、精度の高い照合を行うものである。この点、実施形態4では、複数の画像を比較する場合、画像ごとに1つ以上の方向に対して取得した特徴の数が異なる場合を想定する。そして、画像間において、種々の組み合わせで特徴同士を比較することにより、回転ずれを補償する。
(Embodiment 4)
In the second embodiment, the example of dividing in a plurality of directions has been described. That is, highly accurate collation is performed by comparing a plurality of features obtained by dividing a plurality of directions with respect to the reference image and the authentication target image. In this regard, in the fourth embodiment, when comparing a plurality of images, it is assumed that the number of features acquired in one or more directions is different for each image. Then, by comparing the features in various combinations between the images, the rotational deviation is compensated.

まず前提として、参照画像または認証対象画像のいずれか一方が、複数の方向に対して抽出した複数の特徴を持ち、他方が1つの方向に対して抽出した特徴を持つものとする。ここで、特徴とは、それを求める基準となる方向を示す座標軸の関数として求められたものであってもよく、上述したように勾配ベクトルを基に算出した特徴量の分布であってもよい。図14は、実施形態4における画像の複数方向に対して特徴を抽出する一例を示す図である。それぞれ角度の異なる複数の方向に対して特徴を抽出する。図14では便宜上、4方向しか示していない。より具体的には4本の座標軸y11〜14しか設定していない。この点、より複数の方向に対して座標軸を設定し、隣り合う座標軸同士のなす角を小さくしてもよい。特徴を抽出する方向が多いほど、画像を照合する際の回転ずれをより正確に検出し、補償することができる。   First, it is assumed that either the reference image or the authentication target image has a plurality of features extracted in a plurality of directions, and the other has a feature extracted in one direction. Here, the feature may be obtained as a function of a coordinate axis indicating a reference direction for obtaining the feature, or may be a distribution of feature amount calculated based on the gradient vector as described above. . FIG. 14 is a diagram illustrating an example of extracting features in a plurality of directions of an image according to the fourth embodiment. Features are extracted for a plurality of directions with different angles. FIG. 14 shows only four directions for convenience. More specifically, only four coordinate axes y11 to 14 are set. In this regard, coordinate axes may be set for a plurality of directions, and the angle formed between adjacent coordinate axes may be reduced. The more the direction in which the features are extracted, the more accurately the rotational shift when collating the images can be detected and compensated.

図15は、実施形態4における画像の複数方向に対して特徴を抽出する変形例を示す図である。画像の複数方向に対して特徴を算出する場合、その方向を設定する角度範囲を制限する。図15では、画像上にそれぞれ角度の異なる複数の座標軸y21〜24を設定する場合、垂直軸に対して狭角な座標軸を設定し、広角な座標軸を設定しない。このような画像上における方向の設定は、当該画像を撮像する撮像部100の物理的な形態に関連づけられる。   FIG. 15 is a diagram illustrating a modification example in which features are extracted in a plurality of directions of an image according to the fourth embodiment. When calculating features for a plurality of directions of an image, the angle range for setting the directions is limited. In FIG. 15, when a plurality of coordinate axes y21 to 24 having different angles are set on the image, a coordinate axis that is narrower than the vertical axis is set, and a wide-angle coordinate axis is not set. Such setting of the direction on the image is associated with the physical form of the imaging unit 100 that captures the image.

例えば、水平に取り付けられたラインセンサに対してユーザに指を上から下、または下から上にスライドしてもらい、指紋画像を撮像する場合、その指のスライドを規制するガイドを設ければ、指の回転ずれの範囲が規制される。これに関連づけて、画像上に方向を設定すれば、通常あり得ない方向の回転ずれを検出するための無駄な特徴を抽出することがなくなる。これに対して、面センサなどによる撮像のように、指などの撮像画像がどの方向にも回転ずれが起きる可能性がある場合、図15に示したように、画像上の全方向に対して特徴を抽出するとよい。   For example, if a finger is slid from top to bottom or from bottom to top with respect to a line sensor mounted horizontally, and a fingerprint image is captured, a guide for regulating the sliding of the finger is provided. The range of finger rotation deviation is regulated. If a direction is set on the image in association with this, it is not necessary to extract a useless feature for detecting a rotational deviation in a direction that is not normally possible. On the other hand, when there is a possibility that the image captured by the finger or the like is rotationally displaced in any direction as in the case of image capturing by a surface sensor or the like, as shown in FIG. It is good to extract features.

以下、これを前提に実施形態4の詳細を説明する。実施形態4における照合装置1の構成および動作も、図1に示した実施形態1における照合装置1と基本的に同様である。以下、異なる部分について説明する。図16は、実施形態4における複数の画像を照合する処理を説明するために示すフローチャートである。図16に示すフローチャートは、図6に示したフローチャートにおける照合処理(S34)のサブルーチンと位置づけるものとする。   Hereinafter, the details of the fourth embodiment will be described based on this assumption. The configuration and operation of the collation device 1 in the fourth embodiment are basically the same as those of the collation device 1 in the first embodiment shown in FIG. Hereinafter, different parts will be described. FIG. 16 is a flowchart for explaining the process of collating a plurality of images in the fourth embodiment. The flowchart shown in FIG. 16 is regarded as a subroutine of the collation process (S34) in the flowchart shown in FIG.

まず、参照画像または認証対象画像のいずれかが、図14や図15に示した複数方向に対する特徴を持ち、他方が1つの方向に対して特徴を持つ例を説明する。より具体的には、参照画像が複数方向で、認証対象画像が1つの方向の場合を説明する。   First, an example will be described in which either the reference image or the authentication target image has characteristics in a plurality of directions shown in FIGS. 14 and 15 and the other has characteristics in one direction. More specifically, a case where the reference image is in a plurality of directions and the authentication target image is in one direction will be described.

図16にて、演算部220は、認証対象画像の所定の方向に対して算出した特徴と、記録部240に予め登録されている参照画像の複数方向に対して算出した各特徴とを順次比較する(S362)。ここでは、図6のフローチャートで説明した同一軸上でのパターンマッチングを各比較ごとに行う必要はない。上記認証対象画像の特徴に最も近似する上記参照画像の特徴を特定できればよく、各特徴について、それを構成する特徴量の和を算出し、それらを比較する程度のものであってもよい。また、比較する順番はどのようなものでもよく、種々のアルゴリズムを用いることができる。例えば、水平に近い角度の方向から左右交互に垂直に近い角度の方向へ徐々に比較対象を移していってもよい。さらに、比較した結果、照合の精度が非常に高い特徴があった場合、その特徴に決定し、残りの特徴との比較を行わなくてもよい。   In FIG. 16, the calculation unit 220 sequentially compares the feature calculated for a predetermined direction of the authentication target image with each feature calculated for a plurality of directions of the reference image registered in advance in the recording unit 240. (S362). Here, it is not necessary to perform pattern matching on the same axis described in the flowchart of FIG. 6 for each comparison. The feature of the reference image that most closely approximates the feature of the authentication target image may be specified. For each feature, the sum of the feature values constituting the feature may be calculated and compared. The order of comparison may be any order, and various algorithms can be used. For example, the comparison target may be gradually shifted from the direction of an angle close to horizontal to the direction of an angle close to vertical alternately left and right. Furthermore, as a result of the comparison, if there is a feature with very high accuracy of matching, it is not necessary to determine that feature and compare it with the remaining features.

演算部220は、上記認証対象画像の特徴と、それに最も近似する参照画像の特徴との組み合わせを決定する(S364)。以下、図6のフローチャートで説明したように、その特徴同士をより詳細に照合し、認証すべきか否かを判定する。また、上記認証対象画像の特徴と上記参照画像の各特徴との各比較を、図6のように処理してもよい。そして、認証許可すべきマッチング度の照合結果が得られた場合、その段階で認証許可してもよい。   The calculation unit 220 determines a combination of the feature of the authentication target image and the feature of the reference image that is closest to the feature (S364). Hereinafter, as described in the flowchart of FIG. 6, the features are compared in more detail to determine whether or not to authenticate. Further, each comparison between the feature of the authentication target image and each feature of the reference image may be processed as shown in FIG. And when the collation result of the matching degree which should permit authentication is obtained, authentication may be permitted at that stage.

図17は、実施形態4における照合対象とすべき一方の画像が複数方向に対して特徴を持ち、他方の画像が1つの方向に対して特徴を持つ例を説明するための図である。図17にて、一方の指紋画像10は複数方向に対して座標軸y11〜14が設定される。演算部220は、各座標軸に沿って特徴を算出する。図17中の特徴量y11は、対応する座標軸y11に対する特徴を示す。他方の指紋画像20は垂直方向に対して座標軸y10が設定される。この場合、この座標軸y10に対する特徴y20と、前者の指紋画像10の各特徴y11〜14とを比較、照合する。したがって、図17では、4回の比較、照合を行う。   FIG. 17 is a diagram for describing an example in which one image to be collated in Embodiment 4 has a feature in a plurality of directions and the other image has a feature in one direction. In FIG. 17, one fingerprint image 10 has coordinate axes y11 to 14 set in a plurality of directions. The calculation unit 220 calculates a feature along each coordinate axis. A feature amount y11 in FIG. 17 indicates a feature with respect to the corresponding coordinate axis y11. The other fingerprint image 20 has a coordinate axis y10 set in the vertical direction. In this case, the feature y20 with respect to the coordinate axis y10 and the features y11 to 14 of the former fingerprint image 10 are compared and collated. Therefore, in FIG. 17, four comparisons and comparisons are performed.

なお、参照画像の特徴を複数にし、認証対象画像の特徴を1つに設定した場合、照合のとき、認証対象画像の特徴を抽出する時間が増大しないため、照合時間の増大を抑制しながら、照合精度向上を図ることができる。一方、参照画像の特徴を1つにし、認証対象画像の特徴を複数に設定した場合、参照データとして記録すべきデータ容量を抑制しながら、照合精度向上を図ることができる。また、図17のような照合方法は、2つの画像間で比較、照合を行う場合のみならず、3つ以上の画像間で行う場合にも適用可能である。その内の少なくとも1つの画像が1つの方向に対して特徴を持つ場合であればよい。   In addition, when the feature of the reference image is set to plural and the feature of the authentication target image is set to one, the time for extracting the feature of the authentication target image does not increase at the time of collation, and thus, while suppressing the increase in the collation time, The collation accuracy can be improved. On the other hand, when the number of features of the reference image is set to one and the number of features of the authentication target image is set, the verification accuracy can be improved while suppressing the data volume to be recorded as the reference data. The collation method as shown in FIG. 17 can be applied not only when comparing and collating between two images, but also when performing between three or more images. It suffices if at least one of the images has a feature in one direction.

次に、参照画像または認証対象画像のいずれもが、図14や図15に示した複数方向に対する特徴を持つ例を説明する。そして、参照画像と認証対象画像との間で相対角度を変えて、複数回比較、照合する。例えば、両画像を傾けない形態、いずれか一方を少し傾けた形態、それをさらに傾けた形態といったように、いずれかの画像を回転させながら比較、照合する。   Next, an example will be described in which both the reference image and the authentication target image have characteristics in a plurality of directions shown in FIGS. Then, the relative angle is changed between the reference image and the authentication target image, and comparison and verification are performed a plurality of times. For example, comparison and collation are performed while rotating either image, such as a form in which both images are not tilted, a form in which one of them is slightly tilted, or a form in which one of them is further tilted.

図16にて、演算部220は、認証対象画像の複数方向に対して抽出した特徴を含む特徴群と、記録部240に予め登録されている参照画像の複数方向に対して抽出した特徴を含む特徴群とを、いずれかの特徴群についてそれを構成する各特徴の組成形態を変化させながら、順次比較する(S362)。演算部220は、組成形態を固定した特徴群と、組成形態を変化させた特徴群の内、固定した特徴群に最も近似する組成形態の特徴群との組み合わせを決定する(S364)。以下、図6のフローチャートで説明したように、その特徴群を構成する各特徴同士を詳細に照合し、認証すべきか否かを判定する。この場合、実施形態2で説明したように、複数方向の特徴を比較、照合することにより、認証精度を向上させることができる。   In FIG. 16, the calculation unit 220 includes a feature group including features extracted in a plurality of directions of the authentication target image and features extracted in a plurality of directions of the reference image registered in the recording unit 240 in advance. The feature groups are sequentially compared while changing the composition form of each feature constituting the feature group (S362). The computing unit 220 determines a combination of a feature group with a fixed composition form and a feature group with a composition form that most closely approximates the fixed feature group among the feature groups with the changed composition form (S364). Hereinafter, as described with reference to the flowchart of FIG. 6, the features constituting the feature group are collated in detail to determine whether or not to authenticate. In this case, as described in the second embodiment, authentication accuracy can be improved by comparing and collating features in a plurality of directions.

図18は、実施形態4における照合対象とすべき複数の画像が複数方向に対して特徴を持つ例を説明するための図である。図18にて、一方の指紋画像10は複数方向に対して座標軸y11〜14が設定される。他方の指紋画像20も複数方向に対して座標軸y11〜14が設定される。演算部220は、各座標軸に沿って特徴を抽出する。前者の指紋画像10に対して、算出した各特徴y11〜14をまとめて特徴群15を組成する。後者の指紋画像20に対しても、算出した各特徴y11〜14をまとめて特徴群を組成する。そして、この特徴群の組成形態を変化させていく。または、組成形態の異なる複数の特徴群21〜24を予め組成しておき、順次用いてもよい。図18では、4種類の特徴群21〜24を組成する。その各特徴群と前者の指紋画像10の特徴群15とを比較、照合する。   FIG. 18 is a diagram for describing an example in which a plurality of images to be collated in the fourth embodiment have features in a plurality of directions. In FIG. 18, one fingerprint image 10 has coordinate axes y11 to 14 set in a plurality of directions. In the other fingerprint image 20, coordinate axes y11 to 14 are set in a plurality of directions. The calculation unit 220 extracts features along each coordinate axis. The feature group 15 is composed of the calculated features y11 to 14 for the former fingerprint image 10. For the latter fingerprint image 20 as well, the calculated features y11 to 14 are combined to form a feature group. And the composition form of this feature group is changed. Alternatively, a plurality of feature groups 21 to 24 having different composition forms may be preliminarily composed and sequentially used. In FIG. 18, four types of feature groups 21 to 24 are composed. Each feature group and the feature group 15 of the former fingerprint image 10 are compared and collated.

具体的には、前者の指紋画像10の特徴群15を構成する各特徴y11〜14と、それに対応する後者のある特徴群21を構成する各特徴y11〜14とを比較、照合する。次に、前者を固定したまま、後者の先と組成形態が異なる特徴群22を構成する各特徴y11〜14を、それぞれ対応する前者の特徴y11〜14と比較、照合する。以下、同様に後者の組成形態が異なる特徴群と比較、照合していく。これは、対応させる特徴を変えながら両指紋画像10、20を比較、照合していることになり、後者の指紋画像20を回転させながら、前者の指紋画像と比較、照合している状況を擬制することができる。このように、参照画像および認証対象画像の複数方向に対して特徴を抽出し、いずれかの画像が回転した状態を擬制しながら、比較、照合することにより、回転ずれを精度よく検出することができる。よって、照合精度向上を図ることができる。   Specifically, the features y11 to 14 constituting the feature group 15 of the former fingerprint image 10 are compared with the features y11 to 14 constituting the latter feature group 21 corresponding thereto. Next, with the former fixed, the features y11 to 14 constituting the feature group 22 having a different composition form from the latter are compared and verified with the corresponding features y11 to 14 respectively. Hereinafter, the latter will be compared and collated with feature groups having different composition forms. This means that both fingerprint images 10 and 20 are compared and verified while changing the corresponding features, and the situation where the latter fingerprint image 20 is rotated and compared with the former fingerprint image is simulated. can do. In this way, it is possible to accurately detect rotational deviations by extracting features in a plurality of directions of the reference image and the authentication target image and comparing and collating them while pretending to be a state in which one of the images is rotated. it can. Therefore, collation accuracy can be improved.

次に、図14、図15に示したような画像の複数方向に対して特徴を抽出する具体的手法を説明する。図19は、画像を回転させて複数方向に対して特徴を抽出する例を説明するための図である。演算部220は、撮像部100から入力され、画像バッファ210に一時記憶された画像データの所定の方向に対して特徴を抽出する。次に、この画像データを所定の角度回転し、その画像データの所定の方向に対して特徴を抽出する。これを繰り返して、画像の複数方向に対する特徴を抽出することができる。図19では、画像データを時計回りに所定角度ずつ回転させて、各状態の画像データの垂直方向に特徴を抽出する。   Next, a specific method for extracting features in a plurality of directions of an image as shown in FIGS. 14 and 15 will be described. FIG. 19 is a diagram for explaining an example of extracting features in a plurality of directions by rotating an image. The calculation unit 220 extracts features with respect to a predetermined direction of image data input from the imaging unit 100 and temporarily stored in the image buffer 210. Next, the image data is rotated by a predetermined angle, and features are extracted with respect to a predetermined direction of the image data. By repeating this, it is possible to extract features in a plurality of directions of the image. In FIG. 19, the image data is rotated clockwise by a predetermined angle to extract features in the vertical direction of the image data in each state.

次に、画像の複数方向に対して特徴を抽出する他の手法を説明する。図20は、画像を回転させずに複数方向に対して特徴を抽出する例を説明するための図である。垂直方向や水平方向に対しては、1つの線状の領域を容易に確定し、特徴を抽出することができる。図20では、画像を回転させずに斜め方向に対して特徴を抽出する手法を説明する。まず、演算部220は、斜め方向に対して特徴を抽出する場合、その方向に対して垂直な方向に線状の領域を設定する必要がある。この線状の領域を、画像の垂直および水平軸に沿った所定の方形領域Lの組み合わせで擬制する。上述したように、各画素の勾配ベクトルを利用して特徴量を算出する場合、最低、マトリクス状に9画素の方形領域を設定すれば、以下に説明する処理が可能である。   Next, another method for extracting features in a plurality of directions of an image will be described. FIG. 20 is a diagram for explaining an example of extracting features in a plurality of directions without rotating an image. With respect to the vertical and horizontal directions, one linear region can be easily determined and features can be extracted. FIG. 20 illustrates a method for extracting features in an oblique direction without rotating an image. First, when extracting a feature in an oblique direction, the arithmetic unit 220 needs to set a linear region in a direction perpendicular to the direction. This linear area is simulated by a combination of predetermined rectangular areas L along the vertical and horizontal axes of the image. As described above, when the feature amount is calculated using the gradient vector of each pixel, the processing described below can be performed by setting a square area of 9 pixels at least in a matrix.

演算部220は、画像に設定した特徴を求める方向と、垂直または水平方向との角度に応じて、各方形領域Lの特徴量を回転させる。これにより、実質的に特徴を求める方向に対して垂直方向への演算が可能となる。そして、各方形領域Lの特徴量を、同一の線状の領域を擬制する方形領域Lについて、足し合わせる。例えば、勾配ベクトルを利用する場合、各方形領域内Lの各画素ベクトルを算出し、上記角度に応じて、当該ベクトルを回転させる。このようにして得た勾配ベクトルを同一の線状の領域を擬制する方形領域について、足し合わせる。この場合、記録部240に予め補償すべき角度ごとに勾配ベクトルの回転量をテーブルとして記述しておいてもよい。   The calculation unit 220 rotates the feature amount of each square region L according to the angle between the direction for obtaining the feature set in the image and the vertical or horizontal direction. As a result, it is possible to perform a calculation in a direction perpendicular to the direction in which the feature is substantially obtained. And the feature-value of each square area | region L is added together about the square area | region L which imitates the same linear area | region. For example, when using a gradient vector, each pixel vector in each square region L is calculated, and the vector is rotated according to the angle. The gradient vector obtained in this way is added to a square area that simulates the same linear area. In this case, the rotation amount of the gradient vector may be described as a table for each angle to be compensated in advance in the recording unit 240.

このような処理によって、画像を回転させずとも、複数方向に対して特徴を抽出することができる。すなわち、画像を回転させた場合と同等の状況を擬制することができる。また、画像データを回転させる必要がないため、それに必要なメモリ領域も必要とせず、システムを圧迫する要因とならない。   By such processing, it is possible to extract features in a plurality of directions without rotating the image. That is, it is possible to simulate the same situation as when the image is rotated. Further, since it is not necessary to rotate the image data, a memory area necessary for the image data is not required, and this does not cause a pressure on the system.

以上説明したように実施形態4によれば、画像の照合を、少ないメモリ容量、少ない演算量でいて、高い精度で行うことができる。例えば、同一人物の指紋でも、参照データを登録するときと認証を要求するときとで指の方向が異なり、両者の画像に回転ずれが生じていれば、認証失敗となる可能性が大きい。この点、本実施形態4によれば、回転ずれを修正して画像を照合するため、同一人物の指紋であれば、認証成功と判定することができる。   As described above, according to the fourth embodiment, image matching can be performed with high accuracy with a small memory capacity and a small calculation amount. For example, even when the fingerprint of the same person is used, the direction of the finger is different when registering reference data and when authentication is requested, and there is a high possibility of authentication failure if both images have a rotational shift. In this regard, according to the fourth embodiment, since the rotation deviation is corrected and the images are collated, if the fingerprints of the same person are used, it can be determined that the authentication is successful.

以上、実施の形態をもとに本発明を説明した。これらの実施形態は例示であり、各構成要素の組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described above based on the embodiment. It is to be understood by those skilled in the art that these embodiments are exemplifications, and various modifications can be made to the combination of each component, and such modifications are also within the scope of the present invention.

上述した実施形態では線状の領域ごとに、その領域を特徴づける単一の物理量として、各画素の勾配ベクトルから算出したベクトルを用いた。この点、単一の物理量として、領域ごとに画像濃淡の切替回数を用いてもよい。例えば、画像を2値化して白黒画像とし、その白黒の切り替わる回数をカウントしてもよい。そのカウント値は、指紋などの縞の数となる。縞が縦のところは密度が濃く、一定距離内すなわち単位長さあたりでたくさん切り替わることになる。これをx方向およびy方向に行ってもよい。これによれば、単純な計算で、かつ少ないメモリ容量で照合が可能となる。   In the above-described embodiment, for each linear region, a vector calculated from the gradient vector of each pixel is used as a single physical quantity that characterizes the region. In this regard, as the single physical quantity, the number of times of switching the image density may be used for each region. For example, the image may be binarized into a black and white image, and the number of times that the black and white are switched may be counted. The count value is the number of stripes such as fingerprints. Where the stripes are vertical, the density is high, and a lot of switching occurs within a certain distance, that is, per unit length. This may be done in the x and y directions. According to this, collation is possible with a simple calculation and a small memory capacity.

また、上述した実施形態では、2値データを用いたが、256値などの多諧調データを用いてもよい。その場合も、上記文献「コンピュータ画像処理、田村秀行編著、(株)オーム社、(p182〜191)」に記載された手法を用いることができ、各画素の勾配ベクトルを算出することができる。これによれば、白黒画像と比較して演算量が多くなるが、精度の高い照合を行うことができる。   In the above-described embodiment, binary data is used. However, multi-tone data such as 256 values may be used. Also in that case, the technique described in the above-mentioned document “Computer Image Processing, edited by Hideyuki Tamura, Ohm Co., Ltd., (p182-191)” can be used, and the gradient vector of each pixel can be calculated. According to this, although the amount of calculation increases compared with a black-and-white image, highly accurate collation can be performed.

さらに、上述した照合処理の際、各線状の領域の内、縞模様になっていない領域を省いてもよい。例えば、ある線の長さに対してベクトルを設定値以上検出できない場合、白が設定値以上続いた場合、黒が設定値以上続いて黒くつぶれている領域と判断した場合、白黒の切替回数が設定値以下の場合などに、その領域を省いて処理する。これにより、照合の際の演算量を低減することができる。   Furthermore, in the above-described collation process, a region that is not striped may be omitted from each linear region. For example, if a vector cannot be detected for a certain line length more than a set value, white continues for a set value or more, black is determined to be a black area that continues for more than a set value, black and white switching count When the value is less than the set value, the processing is performed by omitting the area. Thereby, the amount of calculation at the time of collation can be reduced.

実施形態1における照合装置の機能ブロックを示す図である。It is a figure which shows the functional block of the collation apparatus in Embodiment 1. FIG. 実施形態1における照合装置の参照データを生成する処理を説明するためのフローチャートである。6 is a flowchart for explaining a process of generating reference data for the collation device according to the first embodiment. 実施形態1における撮像した指紋画像を示す図である。It is a figure which shows the fingerprint image imaged in Embodiment 1. FIG. 図3の線状の領域における特徴を表現するベクトルV(y0)を示す図である。It is a figure which shows the vector V (y0) expressing the characteristic in the linear area | region of FIG. 図3の画像を各線状の領域にスライスした場合の特徴量の分布を示す図である。It is a figure which shows distribution of the feature-value at the time of slicing the image of FIG. 3 in each linear area | region. 実施形態1における照合装置の認証処理を説明するためのフローチャートである。5 is a flowchart for explaining an authentication process of the collation device according to the first embodiment. 実施形態1における参照データの特徴量分布と、認証対象データの特徴量分布とを重ねて描写した図である。FIG. 3 is a diagram in which the feature quantity distribution of reference data and the feature quantity distribution of authentication target data are overlaid in the first embodiment. 実施形態2における画像を垂直方向にスライスする例を示す図である。It is a figure which shows the example which slices the image in Embodiment 2 to the orthogonal | vertical direction. 図8の各線状の領域における特徴量の分布を示す図である。It is a figure which shows distribution of the feature-value in each linear area | region of FIG. 実施形態2における画像を斜め45°方向にスライスする例を示す図である。It is a figure which shows the example which slices the image in Embodiment 2 in the diagonal 45 degree direction. 図10の各線状の領域における特徴量の分布を示す図である。It is a figure which shows distribution of the feature-value in each linear area | region of FIG. 実施形態3における目の虹彩部分を同心円状の領域に分割する例を示す図である。It is a figure which shows the example which divides | segments the iris part of the eye in Embodiment 3 into a concentric area | region. 図12の各同心円状の領域における特徴量の分布を示す図である。It is a figure which shows distribution of the feature-value in each concentric area | region of FIG. 実施形態4における画像の複数方向に対して特徴を抽出する一例を示す図である。FIG. 10 is a diagram illustrating an example of extracting features with respect to a plurality of directions of an image according to a fourth embodiment. 実施形態4における画像の複数方向に対して特徴を抽出する変形例を示す図である。FIG. 10 is a diagram illustrating a modification example in which features are extracted with respect to a plurality of directions of an image in the fourth embodiment. 実施形態4における複数の画像を照合する処理を説明するために示すフローチャートである。10 is a flowchart for explaining a process of collating a plurality of images in the fourth embodiment. 実施形態4における照合対象とすべき一方の画像が複数方向に対して特徴を持ち、他方の画像が1方向に対して特徴を持つ例を説明するための図である。FIG. 10 is a diagram for describing an example in which one image to be a collation target in Embodiment 4 has characteristics in a plurality of directions and the other image has characteristics in one direction. 実施形態4における照合対象とすべき複数の画像が複数方向に対して特徴を持つ例を説明するための図である。It is a figure for demonstrating the example in which the some image which should be made into the collation target in Embodiment 4 has the characteristic with respect to several directions. 画像を回転させて複数方向に対して特徴を抽出する例を説明するための図である。It is a figure for demonstrating the example which rotates an image and extracts a characteristic with respect to several directions. 画像を回転させずに複数方向に対して特徴を抽出する例を説明するための図である。It is a figure for demonstrating the example which extracts a characteristic with respect to several directions, without rotating an image.

符号の説明Explanation of symbols

1 照合装置、 100 撮像部、 200 処理部、 210 画像バッファ、 220 演算部、 230 照合部、 240 記録部。   DESCRIPTION OF SYMBOLS 1 collation apparatus, 100 imaging part, 200 process part, 210 image buffer, 220 calculating part, 230 collation part, 240 recording part.

Claims (15)

照合のための参照画像から、参照画像内の線の方向を特徴づける特徴量、または参照画像を単一の物理量として特徴づける特徴量を、複数方向について算出するステップと、
前記複数方向について算出した複数の特徴量を記録するステップと、
を備えることを特徴とする照合方法。
Calculating a feature quantity characterizing the direction of a line in the reference image from a reference image for matching, or a feature quantity characterizing the reference image as a single physical quantity for a plurality of directions;
Recording a plurality of feature quantities calculated for the plurality of directions;
A collation method comprising:
照合の対象画像から、対象画像内の線の方向を特徴づける特徴量、または対象画像を単一の物理量として特徴づける特徴量を、複数方向について算出するステップと、
前記対象画像の複数方向について算出した複数の特徴量と、前記参照画像の複数方向について算出した複数の特徴量とを照合するステップと、
を備えることを特徴とする請求項1に記載の照合方法。
Calculating a feature amount that characterizes the direction of a line in the target image or a feature amount that characterizes the target image as a single physical amount for a plurality of directions from the target image to be verified;
Collating a plurality of feature amounts calculated for a plurality of directions of the target image with a plurality of feature amounts calculated for a plurality of directions of the reference image;
The collation method according to claim 1, further comprising:
前記照合するステップは、照合すべき特徴量の対応関係を変化させながら照合することを特徴とする請求項2に記載の照合方法。   The collation method according to claim 2, wherein the collating step performs collation while changing a correspondence relationship of feature amounts to be collated. 照合のための参照画像から、参照画像内の線の方向を特徴づける特徴量、または参照画像を単一の物理量として特徴づける特徴量を、少なくとも1方向について算出するステップと、
照合の対象画像から、対象画像内の線の方向を特徴づける特徴量、または対象画像を単一の物理量として特徴づける特徴量を、少なくとも1方向について算出するステップと、
前記参照画像の特徴量と、前記対象画像の特徴量とを照合するステップと、を備え、
前記参照画像から算出するステップおよび前記対象画像から算出するステップは、前記参照画像および前記対象画像のいずれか一方を1方向について、他方を複数方向について算出し、
前記照合するステップは、1方向について算出した特徴量と、複数方向について算出した特徴量のうち少なくとも1つ以上とを照合することを特徴とする照合方法。
Calculating, from at least one direction, a feature amount that characterizes the direction of a line in the reference image or a feature amount that characterizes the reference image as a single physical amount from a reference image for matching;
Calculating, from at least one direction, a feature quantity that characterizes the direction of a line in the target image or a feature quantity that characterizes the target image as a single physical quantity from the target image to be collated;
Collating the feature quantity of the reference image with the feature quantity of the target image,
The step of calculating from the reference image and the step of calculating from the target image calculate one of the reference image and the target image in one direction and the other in a plurality of directions,
The collating method is characterized by collating a feature amount calculated for one direction with at least one of feature amounts calculated for a plurality of directions.
照合のための参照画像を複数の領域に、複数方向について分割するステップと、
分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、各方向について特徴量群を生成するステップと、
前記複数方向について算出した複数の特徴量群を記録するステップと、
を備えることを特徴とする照合方法。
Dividing a reference image for verification into a plurality of regions in a plurality of directions;
For each divided area, calculating a feature quantity characterizing the direction of a line in the area, or a feature quantity characterizing the area as a single physical quantity, and generating a feature quantity group for each direction;
Recording a plurality of feature amount groups calculated for the plurality of directions;
A collation method comprising:
照合のための対象画像を複数の領域に、複数方向について分割するステップと、
分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、各方向について特徴量群を生成するステップと、
前記複数方向について算出した複数の特徴量群を記録するステップと、
前記対象画像の複数方向について算出した複数の特徴量群と、前記参照画像の複数方向について算出した特徴量群とを照合するステップと、
を備えることを特徴とする請求項5に記載の照合方法。
Dividing the target image for verification into a plurality of regions in a plurality of directions;
For each divided area, calculating a feature quantity characterizing the direction of a line in the area, or a feature quantity characterizing the area as a single physical quantity, and generating a feature quantity group for each direction;
Recording a plurality of feature amount groups calculated for the plurality of directions;
Collating a plurality of feature amount groups calculated for a plurality of directions of the target image with a feature amount group calculated for a plurality of directions of the reference image;
The collation method according to claim 5, further comprising:
前記照合するステップは、照合すべき特徴量群の対応関係を変化させながら照合することを特徴とする請求項6に記載の照合方法。   The collation method according to claim 6, wherein the collating step performs collation while changing a correspondence relationship between the feature amount groups to be collated. 照合のための参照画像を複数の領域に、少なくとも1方向について分割するステップと、
分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、少なくとも1方向について特徴量群を生成するステップと、
照合の対象画像を複数の領域に、少なくとも1方向について分割するステップと、
分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、少なくとも1方向について特徴量群を生成するステップと、
前記参照画像の特徴量群と、前記対象画像の特徴量群とを照合するステップと、を備え、
前記参照画像から算出するステップおよび前記対象画像から算出するステップは、前記参照画像および前記対象画像のいずれか一方を1方向について、他方を複数方向について算出し、
前記照合するステップは、1方向について算出した特徴量群と、複数方向について算出した特徴量群のうち少なくとも1つ以上とを照合することを特徴とする照合方法。
Dividing a reference image for verification into a plurality of regions in at least one direction;
Calculating a feature quantity characterizing the direction of a line in the area for each divided area, or a feature quantity characterizing the area as a single physical quantity, and generating a feature quantity group in at least one direction;
Dividing the verification target image into a plurality of regions in at least one direction;
Calculating a feature quantity characterizing the direction of a line in the area for each divided area, or a feature quantity characterizing the area as a single physical quantity, and generating a feature quantity group for at least one direction;
Collating the feature quantity group of the reference image with the feature quantity group of the target image,
The step of calculating from the reference image and the step of calculating from the target image calculate one of the reference image and the target image in one direction and the other in a plurality of directions,
The collating step is characterized by collating a feature amount group calculated for one direction with at least one of feature amount groups calculated for a plurality of directions.
前記算出するステップは、複数方向について特徴量群を算出する場合、前記参照画像または前記対象画像を回転させて、基準方向に対する特徴量群を算出することを特徴とする請求項5から8のいずれかに記載の照合方法。   9. The feature calculation method according to claim 5, wherein, in the step of calculating, when calculating a feature amount group for a plurality of directions, the reference image or the target image is rotated to calculate a feature amount group with respect to a reference direction. The verification method described in Crab. 前記算出するステップは、斜め方向に沿って前記特徴量群を算出する場合、前記領域を複数のサブ領域の集合として設定し、前記サブ領域ごとの特徴量を回転することを特徴とする請求項5から9のいずれかに記載の照合方法。   The calculating step includes calculating the feature amount group along an oblique direction by setting the region as a set of a plurality of sub-regions and rotating the feature amount for each sub-region. The collation method according to any one of 5 to 9. 前記算出するステップは、撮像対象画像と撮像素子との相対的位置関係の想定範囲に応じて、複数方向について前記特徴量群を算出する場合の基準方向からの角度範囲を決定することを特徴とする請求項5から10のいずれかに記載の照合方法。   The calculating step includes determining an angle range from a reference direction when calculating the feature amount group in a plurality of directions according to an assumed range of a relative positional relationship between the imaging target image and the imaging element. The collation method according to any one of claims 5 to 10. 照合のための参照画像および対象画像を撮像する撮像部と、
撮像された参照画像から、参照画像内の線の方向を特徴づける特徴量、または参照画像を単一の物理量として特徴づける特徴量を、複数方向について算出し、および撮像された対象画像から、対象画像内の線の方向を特徴づける特徴量、または対象画像を単一の物理量として特徴づける特徴量を、複数方向について算出する演算部と、
前記対象画像の複数方向について算出した複数の特徴量と、前記参照画像の複数方向について算出した複数の特徴量とを照合する照合部と、
を備えることを特徴とする照合装置。
An imaging unit that captures a reference image and a target image for verification;
A feature quantity that characterizes the direction of a line in the reference image or a feature quantity that characterizes the reference image as a single physical quantity is calculated for a plurality of directions from the captured reference image, and the target is calculated from the captured target image. A calculation unit that calculates a characteristic amount that characterizes the direction of a line in the image or a characteristic amount that characterizes the target image as a single physical quantity for a plurality of directions;
A collation unit for collating a plurality of feature amounts calculated for a plurality of directions of the target image with a plurality of feature amounts calculated for a plurality of directions of the reference image;
A collation device comprising:
前記照合部は、照合すべき特徴量の対応関係を変化させながら照合することを特徴とする請求項12に記載の照合装置。   The collation apparatus according to claim 12, wherein the collation unit performs collation while changing a correspondence relationship of feature amounts to be collated. 照合のための参照画像および対象画像を撮像する撮像部と、
撮像された参照画像から、参照画像内の線の方向を特徴づける特徴量、または参照画像を単一の物理量として特徴づける特徴量を、少なくとも1方向について算出し、および撮像された対象画像から、対象画像内の線の方向を特徴づける特徴量、または対象画像を単一の物理量として特徴づける特徴量を、少なくとも1方向について算出する演算部と、
前記参照画像の特徴量と、前記対象画像の特徴量とを照合部と、を備え、
前記演算部は、前記参照画像および前記対象画像のいずれか一方を1方向について、他方を複数方向について算出し、
前記照合部は、1方向について算出した特徴量と、複数方向について算出した特徴量のうち少なくとも1つ以上とを照合することを特徴とする照合装置。
An imaging unit that captures a reference image and a target image for verification;
A feature amount that characterizes the direction of a line in the reference image or a feature amount that characterizes the reference image as a single physical quantity is calculated in at least one direction from the captured reference image, and from the captured target image, A calculation unit that calculates a feature amount that characterizes the direction of a line in the target image or a feature amount that characterizes the target image as a single physical quantity in at least one direction;
A matching unit that compares the feature amount of the reference image and the feature amount of the target image,
The calculation unit calculates one of the reference image and the target image for one direction and the other for a plurality of directions.
The collation unit is configured to collate a feature amount calculated for one direction with at least one of feature amounts calculated for a plurality of directions.
前記演算部は、撮像対象画像と前記撮像部との相対的位置関係の想定範囲に応じて、複数方向について特徴量を算出する場合の基準方向からの角度範囲を決定することを特徴とする請求項12から14のいずれかに記載の照合装置。   The calculation unit determines an angle range from a reference direction when calculating a feature value in a plurality of directions according to an assumed range of a relative positional relationship between an imaging target image and the imaging unit. Item 15. The verification device according to any one of Items 12 to 14.
JP2005018932A 2005-01-26 2005-01-26 Collating method and device Withdrawn JP2006209363A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005018932A JP2006209363A (en) 2005-01-26 2005-01-26 Collating method and device
US11/339,480 US20060165264A1 (en) 2005-01-26 2006-01-26 Method and apparatus for acquiring images, and verification method and verification apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005018932A JP2006209363A (en) 2005-01-26 2005-01-26 Collating method and device

Publications (1)

Publication Number Publication Date
JP2006209363A true JP2006209363A (en) 2006-08-10

Family

ID=36966167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005018932A Withdrawn JP2006209363A (en) 2005-01-26 2005-01-26 Collating method and device

Country Status (1)

Country Link
JP (1) JP2006209363A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10095912B2 (en) 2016-03-03 2018-10-09 Fujitsu Limited Biological image processing device, biological image processing method, and computer-readable non-transitory medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10095912B2 (en) 2016-03-03 2018-10-09 Fujitsu Limited Biological image processing device, biological image processing method, and computer-readable non-transitory medium

Similar Documents

Publication Publication Date Title
US11188734B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US10339362B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
US11263432B2 (en) Systems and methods for performing fingerprint based user authentication using imagery captured using mobile devices
JP7242528B2 (en) Systems and methods for performing fingerprint user authentication using images captured using mobile devices
US20060023921A1 (en) Authentication apparatus, verification method and verification apparatus
US10762366B2 (en) Finger vein identification method and device
KR102313794B1 (en) Method of validation of the use of a real finger as support of a fingerprint
US20120188056A1 (en) Methods and systems of authentication
US20060165264A1 (en) Method and apparatus for acquiring images, and verification method and verification apparatus
Ilankumaran et al. Multi-biometric authentication system using finger vein and iris in cloud computing
JPH10275233A (en) Information processing system, pointing device and information processor
US8655084B2 (en) Hand-based gender classification
JP2010240215A (en) Vein depth determination apparatus, vein depth determination method and program
JP2006277146A (en) Collating method and collating device
JP2006209364A (en) Image acquisition method and device, and collating method and device
WO2023028947A1 (en) Palm vein non-contact three-dimensional modeling method and apparatus, and authentication method
JP2006209363A (en) Collating method and device
JP2006133838A (en) Method and apparatus for verification
Smith et al. Contactless robust 3D palm-print identification using photometric stereo
JP2006277407A (en) Collating method and collating device
JP2006236309A (en) Collation method and collation apparatus
KR20200050139A (en) Apparatus and method for recognizing face

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061204

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20090120