JP2006209364A - Image acquisition method and device, and collating method and device - Google Patents
Image acquisition method and device, and collating method and device Download PDFInfo
- Publication number
- JP2006209364A JP2006209364A JP2005018933A JP2005018933A JP2006209364A JP 2006209364 A JP2006209364 A JP 2006209364A JP 2005018933 A JP2005018933 A JP 2005018933A JP 2005018933 A JP2005018933 A JP 2005018933A JP 2006209364 A JP2006209364 A JP 2006209364A
- Authority
- JP
- Japan
- Prior art keywords
- image
- partial
- feature
- feature amount
- partial images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
Abstract
Description
この発明は、指紋や虹彩などの生体情報を用いて、本人認証を行う際などに利用可能な画像取得方法および装置、ならびに照合方法および装置に関する。 The present invention relates to an image acquisition method and apparatus that can be used when performing personal authentication using biometric information such as fingerprints and irises, and a collation method and apparatus.
近年、指紋認証システムが携帯電話機などの携帯機器に搭載されるようになってきている。携帯機器は、デスクトップPCや大規模システムと異なり、メモリやCPU性能などに制限があるため、少ないメモリや安価なCPUで実装可能な認証方法が求められている。 In recent years, fingerprint authentication systems have been installed in mobile devices such as mobile phones. Unlike desktop PCs and large-scale systems, portable devices are limited in memory and CPU performance, so an authentication method that can be implemented with a small amount of memory and an inexpensive CPU is required.
従来の指紋認証方法には、大別して、(a)マニューシャ法、(b)パターンマッチング法、(c)チップマッチング法、(d)周波数解析法があった。(a)マニューシャ法は、指紋画像から、隆線の終端や分岐といった特徴的な点、すなわちマニューシャを抽出し、これらの点の情報を、2つの指紋画像間で比較することにより、指紋の照合を行い、本人か否かの判定を行う。 Conventional fingerprint authentication methods are roughly classified into (a) minutia method, (b) pattern matching method, (c) chip matching method, and (d) frequency analysis method. (A) In the minutiae method, fingerprint points are identified by extracting characteristic points such as ridge ends and branches from the fingerprint image, that is, minutiae, and comparing the information of these points between the two fingerprint images. And determine whether or not the person is the person.
(b)パターンマッチング法は、2つの指紋画像間で、画像のパターンを直接比較することにより、指紋の照合を行い、本人か否かの判定を行う。(c)チップマッチング法は、特徴点の周辺の小領域の画像、すなわちチップ画像を登録データとして持ち、このチップ画像を用いて指紋照合を行う。(d)周波数解析法は、指紋画像をスライスしたラインに対して、周波数解析を行い、スライン方向に垂直な方向に対する周波数成分の分布を、2つの指紋画像間で比較することにより、指紋の照合を行う。 (B) The pattern matching method performs fingerprint comparison by directly comparing image patterns between two fingerprint images, and determines whether or not the person is the person. (C) The chip matching method has an image of a small area around a feature point, that is, a chip image as registration data, and performs fingerprint collation using this chip image. (D) The frequency analysis method performs frequency analysis on a line obtained by slicing a fingerprint image, and compares fingerprint components by comparing the distribution of frequency components in the direction perpendicular to the line direction between two fingerprint images. I do.
特許文献1は、指紋画像などに対して、特徴ベクトルとその品質指標を抽出し、特徴ベクトルの誤差分布を用いて求めた信頼度情報を特徴量に付与し、これらを用いて指紋照合を行う技術を開示する。
しかしながら、(a)マニューシャ法および(c)チップマッチング法は、撮像した画像中で、切れている箇所を繋ぐなどの前処理が必要になり、演算量が多くなる。(b)パターンマッチング法は、画像全体のデータを記憶しなければならないので、特に多数人のデータを登録する場合、メモリ容量が大きくなってしまう。(d)周波数解析法は、周波数変換が必要になるため、演算量が多くなる。上記特許文献1も、統計的解析が必要になるため、演算量が多くなる。
However, (a) the minutiae method and (c) the chip matching method require preprocessing such as connecting cut portions in the captured image, and the amount of calculation increases. (B) Since the pattern matching method has to store the data of the entire image, the memory capacity becomes large especially when data of a large number of people is registered. (D) Since the frequency analysis method requires frequency conversion, the amount of calculation increases. The above-mentioned
本発明はこうした課題に鑑みてなされたものであり、その目的は、少ないメモリ容量、少ない演算量で画像の取得を行うことができる画像取得方法および装置を提供することにある。 The present invention has been made in view of these problems, and an object thereof is to provide an image acquisition method and apparatus capable of acquiring an image with a small memory capacity and a small calculation amount.
また、別の目的は、少ないメモリ容量、少ない演算量で画像の照合を行うことができる照合方法および装置を提供することにある。 Another object is to provide a collation method and apparatus capable of collating images with a small memory capacity and a small amount of calculation.
上記課題を解決するために、本発明のある態様の画像取得方法は、対象画像を複数の部分画像として取得するステップと、部分画像ごとに、部分画像内の線の方向を特徴づける特徴量、または部分画像を単一の物理量として特徴づける特徴量を算出するステップと、部分画像ごとの特徴量を利用して、対象画像を一枚の画像に構築する、または対象画像を一枚の画像に構築した場合の特徴量を構築するステップと、を備える。 In order to solve the above problems, an image acquisition method according to an aspect of the present invention includes a step of acquiring a target image as a plurality of partial images, and a feature amount that characterizes the direction of a line in the partial image for each partial image, Alternatively, a feature amount that characterizes the partial image as a single physical quantity and a feature amount for each partial image are used to construct the target image into a single image, or the target image into a single image. And constructing a feature quantity when constructed.
「線」は、指紋の隆線または谷線であってもよい。「線の方向を特徴づける特徴量」は、各画素の勾配ベクトルを基に算出した値であってもよい。「単一の物理量」は、ベクトル量、スカラー量であってもよく、例えば、縞の切替回数など、画像濃度の切替り態様であってもよい。この態様によると、少ないメモリ容量、少ない演算量で画像を取得することができる。 The “line” may be a ridge or valley line of a fingerprint. The “feature amount characterizing the direction of the line” may be a value calculated based on the gradient vector of each pixel. The “single physical quantity” may be a vector quantity or a scalar quantity, and may be an image density switching mode such as a fringe switching count. According to this aspect, an image can be acquired with a small memory capacity and a small calculation amount.
本発明の別の態様もまた、画像取得方法である。この方法は、対象画像を複数の部分画像として取得するステップと、部分画像ごとに所定の方向に沿って複数の領域に分割するステップと、分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、所定の方向に沿った特徴量群を部分画像ごとに生成するステップと、部分画像間の特徴量群同士の対応関係を参照して、対象画像を一枚の画像に構築する、または対象画像を一枚の画像に構築した場合の特徴量を構築するステップと、を備える。 Another aspect of the present invention is also an image acquisition method. In this method, a target image is acquired as a plurality of partial images, a step of dividing each partial image into a plurality of regions along a predetermined direction, and a direction of a line in the region is determined for each of the divided regions. The step of calculating the feature quantity to be characterized or the feature quantity that characterizes the region as a single physical quantity, generating a feature quantity group along a predetermined direction for each partial image, and correspondence between the feature quantity groups between the partial images Referring to the relationship, constructing the target image into one image, or constructing a feature amount when the target image is constructed into one image.
「特徴量群」は、各方向に沿った座標軸の関数であってもよい。この態様によると、少ないメモリ容量、少ない演算量で画像を取得することができる。 The “feature group” may be a function of coordinate axes along each direction. According to this aspect, an image can be acquired with a small memory capacity and a small calculation amount.
構築するステップは、部分画像間で対象画像の一部分が重複する場合、部分画像間の特徴量群同士の対応部分が重なり合うよう、部分画像同士をつないてもよい。この態様によると、撮像対象と撮像素子との相対的位置関係が変化しながら画像を撮像する場合など、部分画像間で対象画像の一部分が重複する場合も、少ないメモリ容量、少ない演算量で画像を取得することができる。 In the building step, when a part of the target image overlaps between the partial images, the partial images may be connected so that corresponding portions of the feature amount groups between the partial images overlap. According to this aspect, even when a part of the target image overlaps between partial images, such as when an image is captured while the relative positional relationship between the imaging target and the image sensor changes, the image is reduced with a small memory capacity and a small amount of calculation. Can be obtained.
本発明のさらに別の態様は、画像取得装置である。この装置は、対象画像を複数の部分画像として取得する撮像部と、部分画像ごとに、部分画像内の線の方向を特徴づける特徴量、または部分画像を単一の物理量として特徴づける特徴量を算出する演算部と、を備える。演算部は、部分画像ごとの特徴量を利用して、対象画像を一枚の画像に構築する、または対象画像を一枚の画像に構築した場合の特徴量を構築する。 Yet another embodiment of the present invention is an image acquisition device. This apparatus includes an imaging unit that acquires a target image as a plurality of partial images, and a feature amount that characterizes the direction of a line in the partial image or a feature amount that characterizes the partial image as a single physical amount for each partial image. A calculation unit for calculating. The calculation unit uses the feature amount of each partial image to construct the target image into one image, or constructs the feature amount when the target image is constructed into one image.
「撮像部」は、ラインセンサを備えてもよく、撮像対象物との相対的な位置変化により、「部分画像」を取得してもよい。この態様によると、少ないメモリ容量、少ない演算量で画像を取得することができる。 The “imaging unit” may include a line sensor, and may acquire a “partial image” by a relative position change with respect to the imaging target. According to this aspect, an image can be acquired with a small memory capacity and a small calculation amount.
本発明のさらに別の態様もまた、画像取得装置である。この装置は、対象画像を複数の部分画像として取得する撮像部と、部分画像ごとに所定の方向に沿って複数に分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、所定の方向に沿った特徴量群を部分画像ごとに生成する演算部と、を備える。演算部は、部分画像間の特徴量群同士の対応関係を参照して、対象画像を一枚の画像に構築する、または対象画像を一枚の画像に構築した場合の特徴量を構築する。この態様によると、少ないメモリ容量、少ない演算量で画像を取得することができる。 Yet another embodiment of the present invention is also an image acquisition device. This apparatus includes an imaging unit that acquires a target image as a plurality of partial images, and a feature amount that characterizes the direction of a line in the region for each region divided into a plurality of regions along a predetermined direction, or A calculation unit that calculates a feature value that characterizes the region as a single physical quantity, and generates a feature value group along a predetermined direction for each partial image. The calculation unit refers to the correspondence relationship between the feature amount groups between the partial images, and constructs the feature amount when the target image is constructed as one image or when the target image is constructed as one image. According to this aspect, an image can be acquired with a small memory capacity and a small calculation amount.
演算部は、部分画像間で対象画像の一部分が重複する場合、部分画像間の特徴量群同士の対応部分が重なり合うよう、部分画像同士をつないでもよい。この態様によると、撮像対象と撮像部との相対的位置関係が変化しながら画像を撮像する場合など、部分画像間で対象画像の一部分が重複する場合も、少ないメモリ容量、少ない演算量で画像を取得することができる。 When a part of the target image overlaps between the partial images, the calculation unit may connect the partial images so that the corresponding portions of the feature amount groups between the partial images overlap. According to this aspect, even when a part of the target image overlaps between partial images, such as when the image is captured while the relative positional relationship between the imaging target and the imaging unit is changed, the image is reduced with a small memory capacity and a small amount of calculation. Can be obtained.
本発明のさらに別の態様は、照合方法である。この方法は、照合の対象画像を複数の部分画像として取得するステップと、部分画像ごとに、部分画像内の線の方向を特徴づける特徴量、または部分画像を単一の物理量として特徴づける特徴量を算出するステップと、対象画像を構成する部分画像の特徴量と、参照画像を構成する部分画像の対応する特徴量とを照合するステップと、を備える。この態様によると、少ないメモリ容量、少ない演算量で画像を照合することができる。 Yet another embodiment of the present invention is a verification method. This method includes a step of acquiring a target image to be collated as a plurality of partial images, and a feature amount that characterizes the direction of a line in the partial image for each partial image, or a feature amount that characterizes the partial image as a single physical quantity. And a step of collating the feature quantity of the partial image constituting the target image with the corresponding feature quantity of the partial image constituting the reference image. According to this aspect, it is possible to collate images with a small memory capacity and a small calculation amount.
本発明のさらに別の態様もまた、照合方法である。この方法は、照合の対象画像を複数の部分画像として取得するステップと、部分画像ごとに所定の方向に沿って複数の領域に分割するステップと、分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、所定の方向に沿った特徴量群を部分画像ごとに生成するステップと、対象画像を構成する部分画像の特徴量群と、参照画像を構成する部分画像の対応する特徴量群とを照合するステップと、を備える。この態様によると、少ないメモリ容量、少ない演算量で画像を照合することができる。 Yet another embodiment of the present invention is also a collation method. In this method, a target image to be collated is acquired as a plurality of partial images, a step of dividing each partial image into a plurality of regions along a predetermined direction, and a line in the region for each divided region. Calculating a feature quantity that characterizes a direction or a feature quantity that characterizes a region as a single physical quantity, generating a feature quantity group along a predetermined direction for each partial image; and Collating the feature quantity group with the corresponding feature quantity group of the partial image constituting the reference image. According to this aspect, it is possible to collate images with a small memory capacity and a small calculation amount.
本発明のさらに別の態様は、照合装置である。この装置は、照合の対象画像を複数の部分画像として取得する撮像部と、部分画像ごとに、部分画像内の線の方向を特徴づける特徴量、または部分画像を単一の物理量として特徴づける特徴量を算出する演算部と、対象画像を構成する部分画像の特徴量と、参照画像を構成する部分画像の対応する特徴量とを照合する照合部と、を備える。この態様によると、少ないメモリ容量、少ない演算量で画像を照合することができる。 Yet another embodiment of the present invention is a collation device. This apparatus includes an imaging unit that acquires a target image to be collated as a plurality of partial images, and a feature amount that characterizes the direction of a line in the partial image for each partial image, or a feature that characterizes the partial image as a single physical amount. A calculation unit that calculates a quantity; and a matching unit that matches a feature quantity of a partial image constituting the target image with a corresponding feature quantity of the partial image constituting the reference image. According to this aspect, it is possible to collate images with a small memory capacity and a small calculation amount.
本発明のさらに別の態様もまた、照合装置である。この装置は、照合の対象画像を複数の部分画像として取得する撮像部と、部分画像ごとに所定の方向に沿って複数に分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、所定の方向に沿った特徴量群を部分画像ごとに生成する演算部と、対象画像を構成する部分画像の特徴量群と、参照画像を構成する部分画像の特徴量群とを照合する照合部と、を備える。この態様によると、少ないメモリ容量、少ない演算量で画像を照合することができる。 Yet another embodiment of the present invention is also a verification device. This apparatus includes an imaging unit that acquires a target image to be collated as a plurality of partial images, and a feature amount that characterizes the direction of a line in each region divided into a plurality of regions along a predetermined direction for each partial image. Or calculating a feature quantity that characterizes a region as a single physical quantity, generating a feature quantity group along a predetermined direction for each partial image, and a feature quantity group of a partial image constituting the target image; A collation unit that collates the feature amount groups of the partial images constituting the reference image. According to this aspect, it is possible to collate images with a small memory capacity and a small calculation amount.
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、記録媒体などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a computer program, a recording medium, and the like are also effective as an aspect of the present invention.
本発明によれば、少ないメモリ容量、少ない演算量で画像の取得を行うことができる。 According to the present invention, it is possible to acquire an image with a small memory capacity and a small calculation amount.
(実施形態1)
実施形態1は、指紋画像上の基準となる方向に対して、垂直な方向のラインに沿ったライン状の領域について、その領域内の隆線または谷線の方向を特徴づける1つのベクトルを求め、その成分を算出する。そして、その成分の基準方向の分布を求め、同様の方法で求めた登録データの分布と比較することにより、指紋画像間の照合を行い認証するものである。
(Embodiment 1)
The first embodiment obtains one vector characterizing the direction of a ridge or valley in a line-shaped area along a line perpendicular to the reference direction on the fingerprint image. The component is calculated. Then, the distribution of the reference direction of the component is obtained, and compared with the distribution of registered data obtained by the same method, the fingerprint images are collated and authenticated.
図1は、実施形態1における照合装置1の機能ブロックを示す図である。ここに示す各ブロックは、ハードウェア的には、プロセッサ、RAMなどの各種素子や、センサなどの各種デバイスで実現でき、ソフトウェア的にはコンピュータプログラムなどによって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろなかたちで実現できることは、当業者には理解されるところである。
FIG. 1 is a diagram illustrating functional blocks of the
照合装置1は、撮像部100、処理部200を備える。撮像部100は、CCD(Charge Coupled Device)などが用いられ、ユーザの指を撮像し、画像データとして処理部200に出力する。例えば、携帯機器にCCDなどのラインセンサを搭載して撮像する場合、その上に指をかざしてもらい、そのラインセンサに対して垂直方向に指をスライドしてもらうことにより、指紋画像を採取してもよい。
The
処理部200は、画像バッファ210、演算部220、照合部230、および記録部240を含む。画像バッファ210は、撮像部100から入力される画像データを一時記憶したり、演算部220の作業領域としても利用されるメモリ領域である。演算部220は、画像バッファ210内の画像データに後述する各種の演算を施す。照合部230は、認証対象とすべく画像バッファ210内に記憶された画像データの特徴量と、記録部240に登録された画像データの特徴量とを比較して、同一人物の指紋であるか否かを判定する。記録部240は、予め撮像された指紋画像の特徴量を登録している。携帯電話機などに使用される場合、1人のデータが登録される場合が多いが、部屋のゲートなどに使用される場合、複数人のデータが登録される場合が多い。
The
図2は、実施形態1における照合装置1の参照データを生成する処理を説明するためのフローチャートである。この参照データは、認証すべき人物の指紋画像を、所定の方向成分の分布として、ここでは線状の領域内の隆線または谷線方向を特徴づける特徴量の分布として、予め登録しておくものである。
FIG. 2 is a flowchart for explaining processing for generating reference data of the
まず、撮像部100は、ユーザがかざした指を撮像し、撮像した画像を電気信号に変換し、処理部200に出力する。処理部200は、その信号を画像データとして取得し、画像バッファ210に一時記憶する(S10)。演算部220は、その画像データを2値データに変換する(S12)。例えば、所定のしきい値より明るい値を白、それより暗い値を黒と判定する。そして、白を1または0、黒を0または1と表現する。
First, the
次に、演算部220は、2値化した画像データを線状の領域ごとに分割する(S14)。図3は、実施形態1における撮像した指紋画像を示す図である。図3において、演算部220は、X軸方向を長手方向、Y軸方向を短手方向とする線状の領域12を、指紋画像上に形成している。この線状の領域は、短手方向を1画素または3画素に設定することが好ましい。このような線状の領域をY軸方向、すなわち指の長手方向に複数形成して、指紋画像を複数の領域に分割する。
Next, the
次に、演算部220は、各画素の勾配を算出する(S16)。勾配の算出方法については、文献「コンピュータ画像処理、田村秀行編著、(株)オーム社、(p182〜191)」に記載された手法を用いることができる。
Next, the
以下、簡単に説明すると、デジタル画像を対象に勾配を計算するためには、x方向およびy方向の1次の偏微分を計算する必要がある。
Δxf(i,j)≡{f(i+1,j)−f(i−1,j)}/2 …(式1)
Δyf(i,j)≡{f(i,j+1)−f(i,j−1)}/2 …(式2)
Briefly described below, in order to calculate a gradient for a digital image, it is necessary to calculate first-order partial differentials in the x and y directions.
Δ x f (i, j) ≡ {f (i + 1, j) −f (i−1, j)} / 2 (Expression 1)
Δ y f (i, j) ≡ {f (i, j + 1) −f (i, j−1)} / 2 (Expression 2)
デジタル画像に対する差分オペレータでは、(i,j)の画素における微分値が(i,j)を中心とした3×3の近傍の画素の濃度値、すなわちf(i±1,j±1)の線形結合として定義される。このことは、画像の微分を求める計算は、3×3の加重マトリクスを用いた空間フィルタリングによって実現できることを意味し、種々の差分オペレータは3×3の加重マトリクスによって表現することができる。以下では、(i,j)を中心とした3×3近傍を
f(i−1,j−1) f(i,j−1) f(i+1,j−1)
f(i−1,j) f(i,j) f(i+1,j) …(式3)
f(i−1,j+1) f(i,j+1) f(i+1,j+1)
と考え、これに対する加重マトリクスによって差分オペレータを記述することができる。
In the difference operator for a digital image, the differential value of the pixel at (i, j) is a density value of a pixel in the vicinity of 3 × 3 centered at (i, j), that is, f (i ± 1, j ± 1). Defined as a linear combination. This means that the calculation for obtaining the derivative of the image can be realized by spatial filtering using a 3 × 3 weighting matrix, and various difference operators can be expressed by a 3 × 3 weighting matrix. In the following, a 3 × 3 neighborhood centered at (i, j) is represented by f (i−1, j−1) f (i, j−1) f (i + 1, j−1)
f (i-1, j) f (i, j) f (i + 1, j) (Formula 3)
f (i-1, j + 1) f (i, j + 1) f (i + 1, j + 1)
The difference operator can be described by a weighting matrix for this.
例えば、式1、式2で定義されるx、y方向の1次偏微分オペレータは、
0 0 0 0 −1/2 0
−1/2 0 1/2 および 0 0 0 …(式4)
0 0 0 0 1/2 0
と表現される。すなわち、式3と式4の3×3の矩形領域において、対応する位置の画素の値と行列の要素の値の積をそれぞれ求め、それらの和を計算すると、式1、式2の右辺と一致する。
For example, the first-order partial differential operators in the x and y directions defined by
0 0 0 0 -1/2 0
−1/2 0 1/2 and 0 0 0 (Equation 4)
0 0 0 0 1/2 0
It is expressed. That is, in the 3 × 3 rectangular area of Equation 3 and Equation 4, the product of the value of the pixel at the corresponding position and the value of the element of the matrix are obtained, and the sum of those is calculated, and the right side of
勾配の大きさと方向は、式4の加重マトリクスで空間フィルタリングを行い、式1、式2で定義されるx、y方向の偏微分を計算した後、
|∇f(i,j)|=√{Δxf(i,j)2+Δyf(i,j)2} …(式5)
θ=tan−1{Δyf(i,j)/Δxf(i,j)} …(式6)
と求めることができる。
The gradient magnitude and direction are spatially filtered using the weighting matrix of Equation 4, and after calculating partial differentials in the x and y directions defined by
| ∇f (i, j) | = √ {Δ x f (i, j) 2 + Δ y f (i, j) 2} ... ( Equation 5)
θ = tan -1 {Δ y f (i, j) / Δ x f (i, j)} ... ( Equation 6)
It can be asked.
なお、上記差分オペレータには、ロバーツ・オペレータ、プリューウィット・オペレータ、ソーベル・オペレータなどを用いて、簡易に計算したり、ノイズ対策を施したりすることができる。 Note that the difference operator can be simply calculated using a Roberts operator, a Plewit operator, a Sobel operator, or the like, and noise countermeasures can be taken.
次に、演算部220は、式6で求めた勾配の方向、すなわち勾配ベクトルの角度を2倍にした数値の組を求める(S18)。本実施形態では、勾配ベクトルを用いて指紋の隆線あるいは谷線の方向を算出するが、隆線または谷線が同じ方向を向いている点であっても、勾配ベクトルの値は同じにならない。そこで、勾配ベクトルと座標軸のなす角度を2倍になうように勾配ベクトルを回転させて、x成分、y成分からなる1組の数値を求めることにより、同じ方向の隆線または谷線を、同じ成分をもつ一意の数値の組で表現することができる。例えば、45°、225°は、ちょうど反対方向であるが、2倍にすると、90°、450°となり、一意の方向を示すようになる。ここで、x成分、y成分からなる1組の数値は、ある座標系で、ベクトルを一定の規則で回転させたものである。以下、本明細書中では、この数値もベクトルとして表記する。
Next, the
指紋画像のある領域の隆線または谷線の方向は、ローカルではバラツキが大きいので、後述するように、ある範囲で平均を取ることになる。その場合、上述したように勾配ベクトルの角度を2倍にして、一意のベクトルにしておけば、それらを単純に足し合わせて平均をとることにより、隆線または谷線の方向の近似値を得ることができる。この点、それをしない場合、反対の方向を向いている勾配ベクトルを足すと0になってしまい、単純な足し算を用いることができない。この場合、180°と0°とが等価であることを補償するための複雑な計算が必要になる。 The direction of ridges or valleys in a certain area of a fingerprint image varies widely locally, so that an average is taken in a certain range as will be described later. In that case, if the angle of the gradient vector is doubled to make it a unique vector as described above, an approximate value of the direction of the ridge or valley is obtained by simply adding them and averaging them. be able to. If this is not done, adding a gradient vector pointing in the opposite direction will result in 0, and a simple addition cannot be used. In this case, a complicated calculation is required to compensate that 180 ° and 0 ° are equivalent.
次に、演算部220は、各線状の領域について、各画素ごとに求めたベクトルを足し合わせて、平均化したベクトルを求める。このベクトルがその領域の特徴量となる(S20)。この特徴量は、その領域の隆線または谷線の方向の平均を示すような値であり、各領域について1つ定められる。
Next, the
この際、白い点または黒い点が複数続いた場合、勾配を定義できない状態が続くので、所定の個数を超えて、それが続いた場合、その部分を平均化処理の対象から外してもよい。なお、この所定の個数の最適値は、実験的に求めればよい。 At this time, when a plurality of white points or black points continue, a state in which the gradient cannot be defined continues. Therefore, when the number exceeds a predetermined number, the portion may be excluded from the target of the averaging process. The predetermined number of optimum values may be obtained experimentally.
最後に、演算部220は、各領域について求めたベクトルのx成分とy成分を求めて、記録部240に参照データとして記録する(S22)。なお、演算部220は、当該ベクトルのx成分とy成分の分布を後述するすようなスムージング処理してから、記録してもよい。
Finally, the
図4は、図3の線状の領域12における特徴を表現するベクトルV(y0)を示す図である。線状の領域12は、図3に示した座標平面上のy=y0において切り出した領域である。図4は、その領域内の隆線または谷線方向の特徴を表現するベクトルV=(Vx,Vy)を示す。Vx(y0)およびVy(y0)は、ベクトルV(y0)の始点を原点とする直交座標上の終点座標を表したものである。特徴量は、上述した各画素の勾配ベクトルの角度を2倍して、平均化した値を用いることができる。
FIG. 4 is a diagram showing a vector V (y0) representing the feature in the
図5は、図3の画像を各線状の領域にスライスした場合の特徴量の分布を示す図である。図3に示した座標平面上のy方向に、すなわち線状の領域のスライス方向と垂直な方向に対して走査した場合の、特徴量の分布を示したものである。図5の横軸が図3のy軸、すなわち副走査方向を示し、縦軸が各領域における特徴量を示す。図5では、図4に示したように各領域を特徴づけるベクトルをx成分とy成分で表現している。演算部220は、登録すべき指紋画像から、このような各領域を特徴づけるベクトルのx成分とy成分の分布を求め、それを参照データとして記録部240に記録することができる。
FIG. 5 is a diagram illustrating a distribution of feature amounts when the image of FIG. 3 is sliced into linear regions. FIG. 4 shows a distribution of feature amounts when scanning is performed in the y direction on the coordinate plane shown in FIG. 3, that is, in a direction perpendicular to the slice direction of a linear region. The horizontal axis in FIG. 5 indicates the y axis in FIG. 3, that is, the sub-scanning direction, and the vertical axis indicates the feature amount in each region. In FIG. 5, as shown in FIG. 4, a vector characterizing each region is expressed by an x component and a y component. The
図6は、実施形態1における照合装置1の認証処理を説明するためのフローチャートである。まず、撮像部100は、認証を要求しているユーザがかざした指を撮像し、撮像した画像を電気信号に変換し、処理部200に出力する。処理部200は、取得した画像に対して、図2のステップS12〜S20に示した処理と同様の処理を行い、認証対象データとしての画像データの特徴量分布を算出する(S30)。
FIG. 6 is a flowchart for explaining the authentication process of the
次に、演算部220は、その特徴量分布にスムージング処理をかける(S32)。例えば、前後の値の数点を平均化する。どの程度のスムージングをかけるかは、アプリケーションなどにより異なり、最適値は実験的に求めてもよい。
Next, the
次に、照合部230は、参照データの特徴量分布と、認証対象データの特徴量分布との照合を行う(S34)。この照合は、一方の分布を固定し、他方の分布をスライドしていくことにより、最も一致するパターンを求めることにより行う。単純に、全パターンについてパターンマッチングを行ってもよいが、計算量を減少させるために、両分布の注目点を検出して、その一致する点を中心に、その前後数パターンのマッチングだけを行ってもよい。例えば、注目点として、x成分の最大値となる点、0の点、微分すると0になる点、または傾きが最も急な点などを用いることができる。
Next, the
パターンマッチングは、y軸上の各点について、参照データと認証対象データとの各成文の差分を検出することにより行うことができる。例えば、下記式7によりマッチングのエネルギーEを算出することにより行う。
E=Σ√{ΔVx2+ΔVy2} …式7
Pattern matching can be performed by detecting a difference between each reference sentence and authentication target data for each point on the y-axis. For example, the calculation is performed by calculating the matching energy E by the following equation (7).
E = Σ√ {ΔVx 2 + ΔVy 2 } Equation 7
両分布のx成分の誤差ΔVxおよびy成分の誤差ΔVyを二乗して足した値の平方根をとると、当該x成分およびy成分は元々ベクトルの成分であるから、ベクトルの大きさの誤差を求めることができる。それをy軸方向に足し合わせた値をマッチングエネルギーEとする。したがって、このエネルギーEが大きいほど近似しない画像となり、小さいほど近似する画像となる。そして、最もマッチングエネルギーEが小さいパターンを重ね合わせ位置とする(S36)。なお、パターンマッチングの方法はこれに限らず、両分布のx成分の誤差ΔVxおよびy成分の誤差ΔVyのそれぞれの絶対値を足し合わせていくなどでもよい。なお、精度の高い照合方法を実験的に求め、その方法を用いてもよい。 Taking the square root of the value obtained by squaring the error ΔVx of the x component and the error ΔVy of the y component of both distributions, the x component and the y component are originally vector components, so that the vector size error is obtained. be able to. A value obtained by adding them in the y-axis direction is defined as a matching energy E. Therefore, the larger the energy E, the closer the image becomes, and the smaller the energy E, the closer the image. Then, the pattern having the smallest matching energy E is set as the overlapping position (S36). The pattern matching method is not limited to this, and the absolute values of the x component error ΔVx and the y component error ΔVy of both distributions may be added together. A highly accurate collation method may be experimentally obtained and used.
図7は、実施形態1における参照データの特徴量分布と、認証対象データの特徴量分布とを重ねて描写した図である。図7では、参照データの特徴量分布を実線で、認証対象データの特徴量分布を破線で示している。図7の例では、最初に両分布のx成分の最大値を検出する。そして、最大値p1同士が一致する位置と、その位置から一方の分布を、数点前後させた位置でパターンマッチングを行い、最もマッチする位置を重ね合わせ位置とする。 FIG. 7 is a diagram depicting the feature quantity distribution of the reference data and the feature quantity distribution of the authentication target data in the first embodiment. In FIG. 7, the feature amount distribution of the reference data is indicated by a solid line, and the feature amount distribution of the authentication target data is indicated by a broken line. In the example of FIG. 7, the maximum value of the x component of both distributions is first detected. Then, pattern matching is performed at a position where the maximum values p1 coincide with each other and a position where one of the distributions is shifted from that position by several points, and the position that best matches is set as the overlapping position.
照合部230は、算出したマッチングエネルギーEと、予め設定された認証を成功させるか否かを決定するためのしきい値とを比較し、マッチングエネルギーEが当該しきい値未満の場合、参照データと認証対象データとの照合が成功したとみなして、その指紋画像のユーザを認証する(S38)。逆に、マッチングエネルギーEが当該しきい値以上の場合、認証しない。以上の処理は、参照データが複数登録されている場合、それぞれの参照データと認証対象データとの間で行う。
The
以上説明したように実施形態1によれば、指紋などの生体情報の画像を所定の領域ごとに分割し、各領域を特徴づける値を、参照画像と認証対象画像との間の照合処理に利用したことにより、少ないメモリ容量で認証処理をすることができる。また、計算量も低減することができ、認証処理を高速化することができる。したがって、バッテリ駆動などの携帯機器への認証処理に適用すれば、回路の小面積化、省電力化にもつながる。さらに、線状の領域ごとに特徴量を求めることにより、ラインセンサなどで撮像した指紋画像の照合に適している。さらに、各画素の特徴量を領域ごとに平均化したり、その平均化した特徴量の分布をスムージング処理するため、ノイズにも強い。また、線状の領域で平均化処理するため、参照データと認証対象データとの間で指が左右にスライドしていても、同一人物の指であるか否かを照合することができる。さらに、マニューシャ法と異なり、ノイズの強い指紋画像でも同様の状態で登録および認証を行えば、有効に機能させることができる。 As described above, according to the first embodiment, an image of biometric information such as a fingerprint is divided into predetermined areas, and values that characterize each area are used for matching processing between the reference image and the authentication target image. As a result, authentication processing can be performed with a small memory capacity. Also, the amount of calculation can be reduced, and the authentication process can be speeded up. Therefore, if it is applied to authentication processing for a portable device such as a battery drive, the circuit area can be reduced and power can be saved. Furthermore, by obtaining a feature amount for each linear region, it is suitable for collation of fingerprint images captured by a line sensor or the like. Furthermore, the feature amount of each pixel is averaged for each region, and the distribution of the averaged feature amount is smoothed, so that it is also resistant to noise. In addition, since the averaging process is performed on the linear area, it is possible to collate whether or not the fingers are the same person even if the finger slides left and right between the reference data and the authentication target data. Further, unlike the minutiae method, even a noisy fingerprint image can function effectively if registration and authentication are performed in the same state.
(実施形態2)
実施形態1では、線状の領域を得るための画像の分割の方法として、一方向に分割する例を説明した。この点、実施形態2では、複数方向に分割する例を説明する。例えば、2方向に画像をスライスすることができる。
(Embodiment 2)
In the first embodiment, an example of dividing in one direction has been described as a method of dividing an image for obtaining a linear region. In this regard, in the second embodiment, an example of dividing in a plurality of directions will be described. For example, an image can be sliced in two directions.
まず、実施形態2における照合装置1の構成および動作は、図1に示した実施形態1における照合装置1と同様のため説明を省略する。図8は、実施形態2における画像を垂直方向にスライスする例を示す図である。ここで、照合対象となる画像としては、上述した指紋画像以外に、虹彩画像、その他、生体情報を表現した画像であってもよい。図8では、便宜的に縞模様の画像で表現している。図9は、図8の各線状の領域における特徴量の分布を示す図である。各線状の領域を特徴づける特徴量A、Bを求め、これらのy方向、すなわち垂直方向に対する分布を示している。
First, the configuration and operation of the
図10は、実施形態2における画像を斜め45°方向にスライスする例を示す図である。図10は、図8と同様の画像を斜め45°方向にスライスしている。図11は、図10の各線状の領域における特徴量の分布を示す図である。各線状の領域を特徴づける特徴量C、Dを求め、これらのz方向、すなわち斜め45°方向に対する分布を示している。このように、2方向に画像をスライスして、4種の特徴量A、B、C、Dで、画像の特徴を表現している。実施形態2における参照データを生成する処理および認証する処理も、これらの特徴量を利用して、実施形態1に説明した図2および図6と同様に処理することができる。この場合、各方向から算出されるマッチングエネルギーEが複数になるので、例えば、照合部230は、その平均値を求めて、認証するか否かを判断してもよい。
FIG. 10 is a diagram illustrating an example of slicing an image in the oblique 45 ° direction according to the second embodiment. FIG. 10 slices the same image as in FIG. 8 in a 45 ° oblique direction. FIG. 11 is a diagram showing the distribution of feature amounts in each linear region in FIG. The feature amounts C and D characterizing each linear region are obtained, and the distribution in the z direction, that is, the oblique 45 ° direction is shown. In this manner, the image is sliced in two directions, and the feature of the image is expressed by the four types of feature amounts A, B, C, and D. The process of generating reference data and the process of authenticating in the second embodiment can be performed in the same manner as in FIGS. 2 and 6 described in the first embodiment, using these feature amounts. In this case, since there are a plurality of matching energies E calculated from each direction, for example, the
ここで、特徴量は、実施形態1で説明した線状の領域内の隆線または谷線を特徴づけるベクトルのx成分およびy成分に限るものではない。例えば、画像の濃淡、輝度、色情報、その他の局所的な画像情報あるいは、これら画像情報から微分その他の計算によって求められたスカラー量、ベクトル量、その他の数値であってもよい。 Here, the feature amount is not limited to the x component and the y component of the vector that characterizes the ridge or valley line in the linear region described in the first embodiment. For example, it may be image density, brightness, color information, other local image information, or a scalar amount, a vector amount, or other numerical values obtained from these image information by differentiation or other calculations.
なお、実施形態2における画像は、ラインセンサなどの1次元センサで撮像して、画像バッファ210に取り込み、2以上の方向にスライスしてもよいし、2次元センサを用いてもよい。また、2以上の方向の例としては、垂直方向、水平方向、斜め45°、斜め135°などが一般的であるが、これらに限るものでなく、任意の方向にスライスすることができる。さらに、2以上の方向の組み合わせも、垂直方向および斜め45°に限らず、任意に設定することができる。
Note that the image in the second embodiment may be captured by a one-dimensional sensor such as a line sensor, loaded into the
以上説明したように実施形態2によれば、線状の領域を得るための画像のスライス方向として、異なる複数の方向を用いることにより、実施形態1と比較し、照合の精度を高めることができる。実施形態2でも、マニューシャ法などのように、ある画像から他の画像を生成するわけでないので、単に原画像を記憶できるメモリ容量さえあればよい。したがって、少ないメモリ容量および少ない演算量で、精度の高い認証を行うことができる。 As described above, according to the second embodiment, by using a plurality of different directions as slice directions of an image for obtaining a linear region, the accuracy of matching can be improved as compared with the first embodiment. . In the second embodiment, another image is not generated from a certain image as in the minutia method, and therefore, it is sufficient if the memory capacity is sufficient to store the original image. Therefore, highly accurate authentication can be performed with a small memory capacity and a small amount of calculation.
(実施形態3)
実施形態1、2では、スライスした線状の領域が直線的な形状である場合の例を説明した。この形状は、それに限るものではなく、曲線状、閉曲線状、円状、同心円状などの非直線的なものでもよい。実施形態3では、非直線的な領域に分割する代表的な例として、虹彩画像の照合について説明する。
(Embodiment 3)
In the first and second embodiments, an example in which the sliced linear region has a linear shape has been described. This shape is not limited thereto, and may be a non-linear shape such as a curved shape, a closed curved shape, a circular shape, or a concentric circular shape. In the third embodiment, the matching of iris images will be described as a typical example of dividing into non-linear regions.
まず、実施形態3における照合装置1の構成および動作も、図1に示した実施形態1における照合装置1と同様のため説明を省略する。図12は、実施形態3における目の虹彩部分を同心円状の領域に分割する例を示す図である。図12では、各線状の領域として、同心円状に分割している。図13は、図12の各同心円状の領域における特徴量の分布を示す図である。各領域を特徴づける値の動系方向rの分布を求める。実施形態3における参照データを生成する処理および認証する処理も、この特徴量を利用して、実施形態1に説明した図2および図6と同様に処理することができる。
First, since the configuration and operation of the
虹彩の場合、図6で説明した照合処理が簡易になる。認証対象データと参照データの間で、瞳孔と虹彩との境界R0、および虹彩と白目部分との境界R1が合うように、両特徴量の分布を重ね合わせればよい。ただ、周囲の明るさなどにより瞳孔の大きさが変化するため、認証対象データの境界R0と境界R1との距離が参照データのそれと合うように、一様に伸縮する必要がある。 In the case of an iris, the matching process described in FIG. 6 is simplified. The distribution of both feature amounts may be overlapped so that the boundary R0 between the pupil and the iris and the boundary R1 between the iris and the white eye portion match between the authentication target data and the reference data. However, since the size of the pupil changes depending on the brightness of the surroundings, it is necessary to expand and contract uniformly so that the distance between the boundary R0 and the boundary R1 of the authentication target data matches that of the reference data.
以上説明したように実施形態3によれば、虹彩画像の照合を少ないメモリ容量、少ない計算量で行うことができる。また、各同心円状の領域において、各画素の勾配ベクトルなどを平均化して特徴量を求めているため、参照データに対して目の位置が回転していても、精度よく照合することができる。この性質は、実施形態1の指紋画像において、指の水平方向におけるスライドに強いという性質に相当するものである。また、まぶたに塞がれて、虹彩のすべての部分を撮像できない場合でも、瞳孔に近い部分の複数の領域で照合しても、相当程度の精度を維持することができる。 As described above, according to the third embodiment, the iris image can be collated with a small memory capacity and a small calculation amount. In addition, since the feature amount is obtained by averaging the gradient vector of each pixel in each concentric region, even if the eye position is rotated with respect to the reference data, it is possible to accurately collate. This property corresponds to the property that the finger image is resistant to sliding in the horizontal direction in the fingerprint image of the first embodiment. In addition, even when the eyelid is blocked and all the portions of the iris cannot be imaged, a considerable degree of accuracy can be maintained even if collation is performed on a plurality of regions near the pupil.
なお、虹彩の半分を照合に使用する場合、同心円状の領域ではなく、半円状の領域ごとに分割してもよい。また、このような非直線的な領域で分割する手法は、虹彩画像に限らず、指紋画像の場合でも適用可能である。例えば、指紋の渦の中心を検出して、そこから外側に同心円状に分割していってもよい。 When half of the iris is used for collation, it may be divided not for concentric areas but for each semicircular area. Further, such a method of dividing in a non-linear region is not limited to an iris image but can be applied to a fingerprint image. For example, the center of the fingerprint vortex may be detected and concentrically divided from there.
(実施形態4)
上述した実施形態では、図5で示したような特徴量分布同士を比較、照合する例を説明した。実施形態4では、その前提として、撮像部100をラインセンサなどで構成した場合に取得される複数の部分画像から簡易な処理で全体画像を生成する例を説明する。
(Embodiment 4)
In the above-described embodiment, the example in which the feature amount distributions as illustrated in FIG. 5 are compared and collated has been described. In the fourth embodiment, an example in which an entire image is generated from a plurality of partial images acquired when the
図14は、実施形態4における画像取得処理を説明するためのフローチャートである。まず、実施形態4では、撮像部100は、指などの撮像対象を全体画像として1回の撮像で取得可能な面センサなどを搭載していないことを前提とする。したがって、照合装置1は、ユーザに対して撮像対象を動かしてもらい、撮像領域の小さいセンサで複数回撮像することにより、当該撮像対象の複数の部分画像を取得する。例えば、ラインセンサで指紋画像を取得する場合、そのラインセンサに対して指を上から下、または下から上にスライドしてもらって、指紋画像の部分画像を複数取得する。
FIG. 14 is a flowchart for explaining image acquisition processing according to the fourth embodiment. First, in the fourth embodiment, it is assumed that the
図14にて、照合装置1は、上述したように、撮像対象の部分画像を撮像部100から複数取得し、画像バッファ210に一時記憶する(S60)。演算部220は、部分画像ごとに特徴を算出する(S62)。ここで、特徴とは、それを求める基準となる方向を示す座標軸の関数として求められたものであってもよく、上述したように勾配ベクトルを基に算出した特徴量の分布であってもよい。そして、隣接する部分画像の特徴をつなぎ合わせ、全体画像の特徴を生成する(S64)。以下、上述した実施形態で説明したように、全体画像の特徴同士を比較、照合し、本人認証を行うことができる。
In FIG. 14, as described above, the
図15は、実施形態4における部分画像から全体画像の特徴を生成する過程を示す図である。図15は、ユーザに、水平に取り付けられたラインセンサに対して指を上から下、または下から上にスライドしてもらうことにより、取得した複数の部分画像Poを示す。各部分画像Poの縦は6〜8画素、横は100〜200画素程度に設定される。これは、ラインセンサの撮像領域に対応する。照合装置1を携帯端末などに適用する場合、撮像部100を取り付けるスペースが限られるため、その程度の撮像領域を持つセンサを使用する場合も多い。また、撮像部100は、想定された指のスライド速度の下で、隣接する部分画像Poの上半分と下半分が重なるようなタイミングで撮像する。
FIG. 15 is a diagram illustrating a process of generating features of the entire image from the partial image according to the fourth embodiment. FIG. 15 shows a plurality of partial images Po acquired by having the user slide his / her finger from the top or bottom or the bottom to the top with respect to the line sensor mounted horizontally. The length of each partial image Po is set to about 6 to 8 pixels, and the width is set to about 100 to 200 pixels. This corresponds to the imaging area of the line sensor. When the
演算部220は、部分画像Poごとに特徴量Pfを算出する。次に、連続する部分画像Poの特徴Pfをつなぎ合わせる。ここで、ユーザの違いなどにより毎回、指のスライド速度が異なる可能性があるため、隣接する部分画像Poのうち、どの程度が重なり合うか、すなわち接続条件を検出する必要がある。重なり合う部分がなく、隣接する部分画像Po間をそのまま接続できる場合もある。図15では、各部分画像Poの特徴Pfの重ね合わせ方法として、勾配ベクトルのx成分とy成分を、隣接する部分画像Po間で重ね合わせる。これにより、この隣接する部分画像Po間で何画素、スライドしているかを検出することができ、これを各隣接する部分画像Po間で行うことにより、指紋の全体画像の特徴を生成することができる。
The
なお、指のスライドが停止した場合、同じ部分画像が取得されることになる。この場合、演算部220は隣接する部分画像のいずれかを削除してもよい。また、上端または下端付近の少なくとも一方の部分画像を無視し、主に中央付近の部分画像を参照データまたは認証対象データとして、生成してもよい。また、ユーザが非常に指を速くスライドさせる場合など、撮像部100が全体画像の一部を撮像できなかった場合、全体画像の特徴量を構築することができないため、エラー処理として、再度ユーザに画像の入力を要求してもよい。
Note that when the finger slide stops, the same partial image is acquired. In this case, the
本実施形態では、複数の部分画像から全体画像の特徴を生成した。この点、隣接する部分画像Poの特徴Pf同士を比較、照合することにより、それらの接続条件を求め、それを利用して複数の部分画像Poから全体画像を再構築してもよい。以下、この全体画像を利用して、上述した実施形態で説明した特徴同士を比較、照合する認証方法のみならず、上述したマニューシャ法、パターンマッチング法、チップマッチング法、および周波数解析法で認証することができる。 In the present embodiment, features of the entire image are generated from a plurality of partial images. In this regard, the connection conditions may be obtained by comparing and collating the features Pf of the adjacent partial images Po, and the whole image may be reconstructed from the plurality of partial images Po using this. Hereinafter, using this whole image, authentication is performed not only by the authentication method for comparing and collating the features described in the above-described embodiments, but also by the above-described minutiae method, pattern matching method, chip matching method, and frequency analysis method. be able to.
以上説明したように実施形態4によれば、撮像対象の部分画像からその全体画像の特徴を求める場合、各部分画像の特徴を抽出し、それらの特徴を利用して全体画像の特徴を求めることにより、メモリ容量を低減することができる。すなわち、部分画像同士を比較、照合して全体画像を再構築する手法が一般的であるが、本実施形態では、部分画像の特徴同士を比較、照合するため、部分画像自体を比較、照合するに必要なメモリ領域を必要とせず、システムを圧迫する要因とならない。したがって、比較的スペックの低いシステムにも容易に適用することができる。この効果は、本実施形態の手法により、複数の部分画像から全体画像自体を再構築する場合一般に当てはまるものである。 As described above, according to the fourth embodiment, when the features of the entire image are obtained from the partial image to be imaged, the features of each partial image are extracted and the features of the whole image are obtained using those features. As a result, the memory capacity can be reduced. That is, a method of comparing and collating partial images to reconstruct an entire image is common, but in this embodiment, in order to compare and collate features of partial images, the partial images themselves are compared and collated. It does not require the necessary memory area, and does not cause a pressure on the system. Therefore, it can be easily applied to a system with relatively low specifications. This effect is generally applicable when the entire image itself is reconstructed from a plurality of partial images by the method of the present embodiment.
(実施形態5)
実施形態4では、複数の部分画像から全体画像を生成する例を説明した。この点、全体画像を構築する必要すらない照合方法を説明する。
(Embodiment 5)
In the fourth embodiment, an example in which an entire image is generated from a plurality of partial images has been described. In this regard, a collation method that does not require construction of the entire image will be described.
図16は、実施形態5における部分画像ごとに特徴を比較、照合する例を説明するための図である。演算部220は、実施形態4で説明したように、部分画像ごとに特徴を抽出する。その後、部分画像をつなぎ合わせて全体画像を構築するのではなく、参照データとして部分画像の特徴のまま、記録部240に格納する。また、認証時には予め記録部240に登録されている全体画像を構成する1組の各部分画像の特徴と、算出した各部分画像の特徴とを比較、照合する。その際、対応する部分画像の特徴同士を比較、照合する。また、全体画像を構成する部分画像のうち、照合に用いないものがあってもよい。例えば、照合に対する寄与度が小さい部分画像の特徴同士については、比較、照合しなくてもよい。
FIG. 16 is a diagram for explaining an example in which features are compared and collated for each partial image in the fifth embodiment. As described in the fourth embodiment, the
照合部230は、各部分画像ごとに、実施形態1で説明したようにマッチングエネルギーEを算出する。そして、全体画像を構成する部分画像の各マッチングエネルギーEの和や平均値と、予め設定された認証を成功させるか否かを決定するためのしきい値とを比較し、本人認証するか否かを判定する。
The
以上説明したように実施形態5によれば、全体画像の特徴を比較、照合するのではなく、撮像対象の部分画像の特徴ごとに比較、照合することにより、部分画像から全体画像を構築する必要がなく、少ないメモリ容量、少ない演算量で画像を照合することができる。例えば、ゲーム機や玩具の使用を許可する場合など、簡易な認証でよいものに特に適している。 As described above, according to the fifth embodiment, it is necessary to construct the entire image from the partial images by comparing and collating each feature of the partial image to be imaged instead of comparing and collating the features of the entire image. Therefore, the images can be collated with a small memory capacity and a small calculation amount. For example, it is particularly suitable for simple authentication, such as when allowing the use of game machines and toys.
以上、実施の形態をもとに本発明を説明した。これらの実施形態は例示であり、各構成要素の組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described above based on the embodiment. It is to be understood by those skilled in the art that these embodiments are exemplifications, and various modifications can be made to the combination of each component, and such modifications are also within the scope of the present invention.
上述した実施形態では線状の領域ごとに、その領域を特徴づける単一の物理量として、各画素の勾配ベクトルから算出したベクトルを用いた。この点、単一の物理量として、領域ごとに画像濃淡の切替回数を用いてもよい。例えば、画像を2値化して白黒画像とし、その白黒の切り替わる回数をカウントしてもよい。そのカウント値は、指紋などの縞の数となる。縞が縦のところは密度が濃く、一定距離内すなわち単位長さあたりでたくさん切り替わることになる。これをx方向およびy方向に行ってもよい。これによれば、単純な計算で、かつ少ないメモリ容量で照合が可能となる。 In the above-described embodiment, for each linear region, a vector calculated from the gradient vector of each pixel is used as a single physical quantity that characterizes the region. In this regard, as the single physical quantity, the number of times of switching the image density may be used for each region. For example, the image may be binarized into a black and white image, and the number of times that the black and white are switched may be counted. The count value is the number of stripes such as fingerprints. Where the stripes are vertical, the density is high, and a lot of switching occurs within a certain distance, that is, per unit length. This may be done in the x and y directions. According to this, collation is possible with a simple calculation and a small memory capacity.
また、上述した実施形態では、2値データを用いたが、256値などの多諧調データを用いてもよい。その場合も、上記文献「コンピュータ画像処理、田村秀行編著、(株)オーム社、(p182〜191)」に記載された手法を用いることができ、各画素の勾配ベクトルを算出することができる。これによれば、白黒画像と比較して演算量が多くなるが、精度の高い照合を行うことができる。 In the above-described embodiment, binary data is used. However, multi-tone data such as 256 values may be used. Also in that case, the technique described in the above-mentioned document “Computer Image Processing, edited by Hideyuki Tamura, Ohm Co., Ltd., (p182-191)” can be used, and the gradient vector of each pixel can be calculated. According to this, although the amount of calculation increases compared with a black-and-white image, highly accurate collation can be performed.
さらに、上述した照合処理の際、各線状の領域の内、縞模様になっていない領域を省いてもよい。例えば、ある線の長さに対してベクトルを設定値以上検出できない場合、白が設定値以上続いた場合、黒が設定値以上続いて黒くつぶれている領域と判断した場合、白黒の切替回数が設定値以下の場合などに、その領域を省いて処理する。これにより、照合の際の演算量を低減することができる。 Furthermore, in the above-described collation process, a region that is not striped may be omitted from each linear region. For example, if a vector cannot be detected for a certain line length more than a set value, white continues for a set value or more, black is determined to be a black area that continues for more than a set value, black and white switching count When the value is less than the set value, the processing is performed by omitting the area. Thereby, the amount of calculation at the time of collation can be reduced.
さらに、上述した実施形態4にて説明した部分画像の特徴を利用して全体画像、または全体画像の特徴を構築する処理は、部分画像間に重複部分や欠落部分のない、単純に分割した部分画像から全体画像を構築する場合全般に適用可能である。 Further, the process of constructing the whole image or the whole image feature using the feature of the partial image described in the fourth embodiment described above is a simple divided part without overlapping parts or missing parts between the partial images. The present invention can be applied in general when an entire image is constructed from images.
1 照合装置、 100 撮像部、 200 処理部、 210 画像バッファ、 220 演算部、 230 照合部、 240 記録部。
DESCRIPTION OF
Claims (10)
前記部分画像ごとに、部分画像内の線の方向を特徴づける特徴量、または部分画像を単一の物理量として特徴づける特徴量を算出するステップと、
前記部分画像ごとの前記特徴量を利用して、前記対象画像を一枚の画像に構築する、または前記対象画像を一枚の画像に構築した場合の特徴量を構築するステップと、
を備えることを特徴とする画像取得方法。 Obtaining a target image as a plurality of partial images;
For each partial image, calculating a feature amount that characterizes the direction of a line in the partial image, or a feature amount that characterizes the partial image as a single physical amount; and
Using the feature amount for each partial image, constructing the target image into a single image, or constructing a feature amount when the target image is constructed into a single image;
An image acquisition method comprising:
前記部分画像ごとに所定の方向に沿って複数の領域に分割するステップと、
分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、前記所定の方向に沿った特徴量群を前記部分画像ごとに生成するステップと、
前記部分画像間の特徴量群同士の対応関係を参照して、前記対象画像を一枚の画像に構築する、または前記対象画像を一枚の画像に構築した場合の特徴量を構築するステップと、
を備えることを特徴とする画像取得方法。 Obtaining a target image as a plurality of partial images;
Dividing each partial image into a plurality of regions along a predetermined direction;
For each divided area, a feature quantity characterizing the direction of a line in the area or a feature quantity characterizing the area as a single physical quantity is calculated, and a feature quantity group along the predetermined direction is calculated for each partial image. Generating steps,
Referring to the correspondence between the feature quantity groups between the partial images, constructing the target image into a single image, or constructing a feature quantity when the target image is constructed into a single image; ,
An image acquisition method comprising:
前記部分画像ごとに、部分画像内の線の方向を特徴づける特徴量、または部分画像を単一の物理量として特徴づける特徴量を算出する演算部と、を備え、
前記演算部は、前記部分画像ごとの前記特徴量を利用して、前記対象画像を一枚の画像に構築する、または前記対象画像を一枚の画像に構築した場合の特徴量を構築することを特徴とする画像取得装置。 An imaging unit for acquiring a target image as a plurality of partial images;
A calculation unit that calculates a feature quantity that characterizes the direction of a line in the partial image or a feature quantity that characterizes the partial image as a single physical quantity for each partial image;
The arithmetic unit uses the feature amount of each partial image to construct the target image into a single image, or constructs a feature amount when the target image is constructed into a single image. An image acquisition device.
前記部分画像ごとに所定の方向に沿って複数に分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、前記所定の方向に沿った特徴量群を前記部分画像ごとに生成する演算部と、を備え、
前記演算部は、前記部分画像間の特徴量群同士の対応関係を参照して、前記対象画像を一枚の画像に構築する、または前記対象画像を一枚の画像に構築した場合の特徴量を構築することを特徴とする画像取得装置。 An imaging unit for acquiring a target image as a plurality of partial images;
For each of the partial images, a feature amount that characterizes the direction of a line in the region or a feature amount that characterizes the region as a single physical amount is calculated for each region divided into a plurality of regions along a predetermined direction. A calculation unit that generates a feature amount group along the direction of each partial image,
The calculation unit refers to the correspondence relationship between the feature quantity groups between the partial images, and constructs the target image into one image, or the feature quantity when the target image is constructed into one image. An image acquisition apparatus characterized by constructing
前記部分画像ごとに、部分画像内の線の方向を特徴づける特徴量、または部分画像を単一の物理量として特徴づける特徴量を算出するステップと、
前記対象画像を構成する部分画像の特徴量と、参照画像を構成する部分画像の対応する特徴量とを照合するステップと、
を備えることを特徴とする照合方法。 Obtaining a target image for verification as a plurality of partial images;
For each partial image, calculating a feature amount that characterizes the direction of a line in the partial image, or a feature amount that characterizes the partial image as a single physical amount; and
Collating the feature quantity of the partial image constituting the target image with the corresponding feature quantity of the partial image constituting the reference image;
A collation method comprising:
前記部分画像ごとに所定の方向に沿って複数の領域に分割するステップと、
分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、前記所定の方向に沿った特徴量群を前記部分画像ごとに生成するステップと、
前記対象画像を構成する部分画像の特徴量群と、参照画像を構成する部分画像の対応する特徴量群とを照合するステップと、
を備えることを特徴とする照合方法。 Obtaining a target image for verification as a plurality of partial images;
Dividing each partial image into a plurality of regions along a predetermined direction;
For each divided area, a feature quantity characterizing the direction of a line in the area or a feature quantity characterizing the area as a single physical quantity is calculated, and a feature quantity group along the predetermined direction is calculated for each partial image. Generating steps,
Collating the feature quantity group of the partial image constituting the target image with the corresponding feature quantity group of the partial image constituting the reference image;
A collation method comprising:
前記部分画像ごとに、部分画像内の線の方向を特徴づける特徴量、または部分画像を単一の物理量として特徴づける特徴量を算出する演算部と、
前記対象画像を構成する部分画像の特徴量と、参照画像を構成する部分画像の対応する特徴量とを照合する照合部と、
を備えることを特徴とする照合装置。 An imaging unit that acquires a target image for verification as a plurality of partial images;
For each partial image, a calculation unit that calculates a feature amount that characterizes the direction of a line in the partial image, or a feature amount that characterizes the partial image as a single physical quantity;
A collation unit that collates the feature quantity of the partial image constituting the target image with the corresponding feature quantity of the partial image constituting the reference image;
A collation device comprising:
前記部分画像ごとに所定の方向に沿って複数に分割された領域ごとに、領域内の線の方向を特徴づける特徴量、または領域を単一の物理量として特徴づける特徴量を算出し、前記所定の方向に沿った特徴量群を前記部分画像ごとに生成する演算部と、
前記対象画像を構成する部分画像の特徴量群と、参照画像を構成する部分画像の特徴量群とを照合する照合部と、
を備えることを特徴とする照合装置。 An imaging unit that acquires a target image for verification as a plurality of partial images;
For each of the partial images, a feature amount that characterizes the direction of a line in the region or a feature amount that characterizes the region as a single physical amount is calculated for each region divided into a plurality of regions along a predetermined direction. A calculation unit for generating a feature amount group along the direction of each partial image;
A collation unit for collating the feature amount group of the partial image constituting the target image with the feature amount group of the partial image constituting the reference image;
A collation device comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005018933A JP2006209364A (en) | 2005-01-26 | 2005-01-26 | Image acquisition method and device, and collating method and device |
US11/339,480 US20060165264A1 (en) | 2005-01-26 | 2006-01-26 | Method and apparatus for acquiring images, and verification method and verification apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005018933A JP2006209364A (en) | 2005-01-26 | 2005-01-26 | Image acquisition method and device, and collating method and device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006209364A true JP2006209364A (en) | 2006-08-10 |
Family
ID=36966168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005018933A Withdrawn JP2006209364A (en) | 2005-01-26 | 2005-01-26 | Image acquisition method and device, and collating method and device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006209364A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010073115A (en) * | 2008-09-22 | 2010-04-02 | Nec Infrontia Corp | Fingerprint-inputting device, method and program |
WO2011033754A1 (en) * | 2009-09-16 | 2011-03-24 | Hitachi Solutions, Ltd. | Method for creating biometric information for use with biometric authentication device, authentication method, and authentication device |
WO2020235577A1 (en) * | 2019-05-20 | 2020-11-26 | 株式会社デンソー | Image retrieval system, image retrieval device, image retrieval program, and computer-readable non-temporary storage medium in which program is stored |
-
2005
- 2005-01-26 JP JP2005018933A patent/JP2006209364A/en not_active Withdrawn
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010073115A (en) * | 2008-09-22 | 2010-04-02 | Nec Infrontia Corp | Fingerprint-inputting device, method and program |
WO2011033754A1 (en) * | 2009-09-16 | 2011-03-24 | Hitachi Solutions, Ltd. | Method for creating biometric information for use with biometric authentication device, authentication method, and authentication device |
JP2011065315A (en) * | 2009-09-16 | 2011-03-31 | Hitachi Solutions Ltd | Method for creating biometric inforamation for use with for biometric authentication device, and authentication method and device |
WO2020235577A1 (en) * | 2019-05-20 | 2020-11-26 | 株式会社デンソー | Image retrieval system, image retrieval device, image retrieval program, and computer-readable non-temporary storage medium in which program is stored |
JP2020190794A (en) * | 2019-05-20 | 2020-11-26 | 株式会社デンソーアイティーラボラトリ | Image retrieval system, image retrieval device, and image retrieval program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20060023921A1 (en) | Authentication apparatus, verification method and verification apparatus | |
CN107438854B (en) | System and method for performing fingerprint-based user authentication using images captured by a mobile device | |
JP4262471B2 (en) | Biometric feature data acquisition device | |
US10762366B2 (en) | Finger vein identification method and device | |
JP5196010B2 (en) | Biometric information registration apparatus, biometric information registration method, biometric information registration computer program, biometric authentication apparatus, biometric authentication method, and biometric authentication computer program | |
KR101829784B1 (en) | Fingerprint authentication using stitch and cut | |
US7983451B2 (en) | Recognition method using hand biometrics with anti-counterfeiting | |
JP5971089B2 (en) | Biological information correction apparatus, biological information correction method, and biological information correction computer program | |
KR102313794B1 (en) | Method of validation of the use of a real finger as support of a fingerprint | |
JP5825341B2 (en) | Biometric authentication system, biometric authentication method, and biometric authentication program | |
US7623685B2 (en) | Biometric signatures and identification through the use of projective invariants | |
US8824746B2 (en) | Biometric information processing device, biometric-information processing method, and computer-readable storage medium | |
US20070036400A1 (en) | User authentication using biometric information | |
US20060165264A1 (en) | Method and apparatus for acquiring images, and verification method and verification apparatus | |
JPWO2004023999A1 (en) | Biological detection apparatus and method, and authentication apparatus having biological detection function | |
JP2004118677A (en) | Fingerprint authenticating method/program/device | |
JPH10275233A (en) | Information processing system, pointing device and information processor | |
JP2010240215A (en) | Vein depth determination apparatus, vein depth determination method and program | |
JP6229352B2 (en) | Image processing apparatus, image processing method, and program | |
JP2006209364A (en) | Image acquisition method and device, and collating method and device | |
JP2006277146A (en) | Collating method and collating device | |
WO2023028947A1 (en) | Palm vein non-contact three-dimensional modeling method and apparatus, and authentication method | |
JP2006209363A (en) | Collating method and device | |
JP2006133838A (en) | Method and apparatus for verification | |
Zhou et al. | Performance evaluation of 2D to 3D fingerprint recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20061204 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20090120 |