JP6442873B2 - Fingerprint image processing apparatus, fingerprint image processing method and program - Google Patents

Fingerprint image processing apparatus, fingerprint image processing method and program Download PDF

Info

Publication number
JP6442873B2
JP6442873B2 JP2014112657A JP2014112657A JP6442873B2 JP 6442873 B2 JP6442873 B2 JP 6442873B2 JP 2014112657 A JP2014112657 A JP 2014112657A JP 2014112657 A JP2014112657 A JP 2014112657A JP 6442873 B2 JP6442873 B2 JP 6442873B2
Authority
JP
Japan
Prior art keywords
feature
fingerprint image
vector
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014112657A
Other languages
Japanese (ja)
Other versions
JP2015228070A (en
Inventor
聡 廣川
聡 廣川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2014112657A priority Critical patent/JP6442873B2/en
Publication of JP2015228070A publication Critical patent/JP2015228070A/en
Application granted granted Critical
Publication of JP6442873B2 publication Critical patent/JP6442873B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、指紋画像処理装置、指紋画像処理方法及びプログラムに関する。   The present invention relates to a fingerprint image processing apparatus, a fingerprint image processing method, and a program.

入国審査、犯罪捜査や情報端末における個人認証等の目的で、指紋画像が利用される。近年では、数十万以上の数の指紋画像が記憶されているデータベースを使用した指紋照合システムが稼働している。   Fingerprint images are used for purposes such as immigration, criminal investigation and personal authentication on information terminals. In recent years, a fingerprint collation system using a database in which hundreds of thousands or more of fingerprint images are stored is operating.

こうした指紋照合システムでは、データベースに記憶された膨大な数の指紋画像から照合対象となる画像(照合対象候補)の絞り込み抽出を行うことが多い。照合対象となる指紋画像を絞り込むことで、指紋照合に要する処理を軽減すると共に、その速度を向上させている。   In such a fingerprint collation system, an extraction target image (collation target candidate) is often extracted from a huge number of fingerprint images stored in a database. By narrowing down the fingerprint images to be collated, the processing required for fingerprint collation is reduced and the speed is improved.

例えば、特許文献1において、指紋画像に対する次元圧縮処理(KL展開)を行うことにより指紋隆線のおおまかな特徴形状を抽出し、この特徴形状に合致する指紋画像をデータベースから照合対象画像として抽出するシステム(画像特徴抽出装置)が開示されている(図20参照)。   For example, in Patent Document 1, a rough feature shape of a fingerprint ridge is extracted by performing dimension compression processing (KL expansion) on a fingerprint image, and a fingerprint image that matches the feature shape is extracted as a collation target image from a database. A system (image feature extraction apparatus) is disclosed (see FIG. 20).

特開平10−177650号公報Japanese Patent Laid-Open No. 10-177650

なお、上記先行技術文献の開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明者らによってなされたものである。   The disclosure of the above prior art document is incorporated herein by reference. The following analysis was made by the present inventors.

特許文献1が開示する画像特徴抽出装置は、指紋隆線の方向に基づき各指紋画像の特徴量を決定して照合対象を絞り込む装置である。しかしながら、このような指紋隆線の方向から算出した特徴量に基づき照合対象の絞り込みを行うと、実際には異なる人物の指紋画像にも関わらず、照合対象候補とする可能性がある。   The image feature extraction apparatus disclosed in Patent Document 1 is an apparatus that narrows down a collation target by determining a feature amount of each fingerprint image based on the direction of a fingerprint ridge. However, if the collation target is narrowed down based on the feature amount calculated from the direction of the fingerprint ridge, there is a possibility that the collation target candidate may actually be used despite the fingerprint image of a different person.

例えば、図21(a)及び(b)に示す指紋画像は、異なる人物の指紋画像である。指紋の鑑定に精通していない者が、図21(a)と図21(b)の2つの指紋画像を比較すると、同一人物の指紋画像と捉えることも多いと思われる。両指紋画像の対応する箇所において、指紋隆線の向いている方向がおおよそ一致するため、両指紋画像は同一の人物の指紋画像のように認識され得る。   For example, the fingerprint images shown in FIGS. 21A and 21B are fingerprint images of different persons. If a person who is not familiar with fingerprint identification compares the two fingerprint images shown in FIGS. 21A and 21B, it is likely to be regarded as a fingerprint image of the same person. Since the directions in which the fingerprint ridges are directed approximately coincide with each other at the corresponding portions of both fingerprint images, both fingerprint images can be recognized as fingerprint images of the same person.

このことは、特許文献1が開示する画像特徴抽出装置でも同様であって、2つの指紋画像を同一人物の指紋画像と判断(照合対象候補として抽出)する可能性がある。図22は、図21(a)と図21(b)の指紋画像から指紋隆線を抜き出した図面である。図22(a)と図22(b)において、指紋隆線の方向を定量化し、定量化した指紋隆線の方向を各画像の特徴量として抽出すると、指紋隆線の方向はおおよそ一致するため、特許文献1の画像特徴抽出装置では、一方の指紋画像を他方の照合対象候補として判定する可能性がある。   This is also the case with the image feature extraction device disclosed in Patent Document 1, and there is a possibility that two fingerprint images may be determined as fingerprint images of the same person (extracted as collation target candidates). FIG. 22 is a drawing in which fingerprint ridges are extracted from the fingerprint images of FIGS. 21 (a) and 21 (b). 22 (a) and 22 (b), if the direction of the fingerprint ridge is quantified and the quantified direction of the fingerprint ridge is extracted as a feature amount of each image, the directions of the fingerprint ridge are approximately the same. In the image feature extraction device of Patent Document 1, there is a possibility that one fingerprint image is determined as the other verification target candidate.

しかし、指紋隆線の方向だけでなく、その位置に着目すると、両指紋画像は異なる人物の指紋画像であることが明らかになる。例えば、図22(a)の領域601と図22(b)の領域602を比較すると、2つの領域には異なる方向を向いた指紋隆線が存在することが確認できる。具体的には、図22(b)の領域602における指紋隆線であって、着色した指紋隆線の方向は、図22(a)の領域601に含まれる指紋隆線の方向と異なる。このような箇所は他にも散見され、例えば、領域603と領域604に含まれる指紋隆線の方向が互いに異なっている。即ち、指紋隆線の方向だけでなく、その位置に注目すると2つの指紋画像は異なる人物の指紋画像であることが判明する。   However, not only the direction of the fingerprint ridge but also the position thereof, it becomes clear that both fingerprint images are fingerprint images of different persons. For example, comparing the region 601 in FIG. 22A and the region 602 in FIG. 22B, it can be confirmed that there are fingerprint ridges in different directions in the two regions. Specifically, the direction of the fingerprint ridge in the region 602 in FIG. 22B is different from the direction of the fingerprint ridge included in the region 601 in FIG. There are other places like this, for example, the directions of the fingerprint ridges included in the region 603 and the region 604 are different from each other. That is, not only the direction of the fingerprint ridge but also the position thereof, it is found that the two fingerprint images are fingerprint images of different persons.

このように、特許文献1が開示する画像特徴抽出装置には、照合対象の指紋画像を抽出する際の精度を向上させる余地がある。   As described above, the image feature extraction device disclosed in Patent Document 1 has room for improving accuracy when extracting a fingerprint image to be collated.

本発明は、精度良く照合対象となる指紋画像を抽出可能とすることに寄与する指紋画像処理装置、指紋画像処理方法及びプログラムを提供することを目的とする。   An object of the present invention is to provide a fingerprint image processing device, a fingerprint image processing method, and a program that contribute to enabling extraction of a fingerprint image to be collated with high accuracy.

本発明の第1の視点によれば、検索対象の指紋画像内の複数の特徴点それぞれが有する特徴点方向に関する特徴量であって指紋画像内の基準点に対する前記特徴点方向の回転方向から算出される、複数の第1特徴量を要素とする第1特徴量ベクトルと、前記特徴点方向に関する特徴量であって前記基準点に対する前記特徴点方向の向きから算出される、複数の第2特徴量を要素とする第2特徴量ベクトルと、を算出する特徴量ベクトル算出部を備える、指紋画像処理装置が提供される。   According to the first aspect of the present invention, the feature amount is related to the feature point direction of each of the plurality of feature points in the fingerprint image to be searched, and is calculated from the rotation direction of the feature point direction with respect to the reference point in the fingerprint image. A plurality of second features calculated from the first feature amount vector having the plurality of first feature amounts as elements and the feature amount relating to the feature point direction and the direction of the feature point direction with respect to the reference point A fingerprint image processing apparatus is provided that includes a feature quantity vector calculation unit that calculates a second feature quantity vector having a quantity as an element.

本発明の第2の視点によれば、検索対象の指紋画像内の複数の特徴点それぞれが有する特徴点方向に関する特徴量であって指紋画像内の基準点に対する前記特徴点方向の回転方向から算出される、複数の第1特徴量を要素とする第1特徴量ベクトルを算出する工程と、前記特徴点方向に関する特徴量であって前記基準点に対する前記特徴点方向の向きから算出される、複数の第2特徴量を要素とする第2特徴量ベクトルを算出する工程と、を含む指紋画像処理方法が提供される。   According to the second aspect of the present invention, the feature amount is related to the feature point direction of each of the plurality of feature points in the fingerprint image to be searched, and is calculated from the rotation direction of the feature point direction with respect to the reference point in the fingerprint image. Calculating a first feature quantity vector having a plurality of first feature quantities as elements, and a plurality of feature quantities related to the feature point direction and calculated from directions of the feature point direction with respect to the reference point A second feature quantity vector having the second feature quantity as an element is calculated.

本発明の第3の視点によれば、検索対象の指紋画像内の複数の特徴点それぞれが有する特徴点方向に関する特徴量であって指紋画像内の基準点に対する前記特徴点方向の回転方向から算出される、複数の第1特徴量を要素とする第1特徴量ベクトルを算出する処理と、前記特徴点方向に関する特徴量であって前記基準点に対する前記特徴点方向の向きから算出される、複数の第2特徴量を要素とする第2特徴量ベクトルを算出する処理と、を指紋画像処理装置を制御するコンピュータに実行させるプログラムが提供される。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
According to the third aspect of the present invention, the feature amount is related to the feature point direction of each of the plurality of feature points in the fingerprint image to be searched and is calculated from the rotation direction of the feature point direction with respect to the reference point in the fingerprint image. A plurality of processing for calculating a first feature quantity vector having a plurality of first feature quantities as elements, and a feature quantity related to the feature point direction and calculated from an orientation of the feature point direction with respect to the reference point There is provided a program for causing a computer that controls the fingerprint image processing apparatus to execute a process of calculating a second feature quantity vector having the second feature quantity as an element.
This program can be recorded on a computer-readable storage medium. The storage medium may be non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, an optical recording medium, or the like. The present invention can also be embodied as a computer program product.

本発明の各視点によれば、精度良く照合対象となる指紋画像を抽出可能とすることに寄与する指紋画像処理装置、指紋画像処理方法及びプログラムが、提供される。   According to each aspect of the present invention, a fingerprint image processing apparatus, a fingerprint image processing method, and a program that contribute to enabling extraction of a fingerprint image to be collated with high accuracy are provided.

一実施形態の概要を説明するための図である。It is a figure for demonstrating the outline | summary of one Embodiment. 第1の実施形態に係る照合対象抽出システムの全体構成の一例を示す図である。It is a figure which shows an example of the whole structure of the collation target extraction system which concerns on 1st Embodiment. 照合対象抽出装置の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of a collation target extraction apparatus. 照合対象決定部の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of a collation target determination part. 特徴点抽出部が抽出する特徴点を説明するための図である。It is a figure for demonstrating the feature point which a feature point extraction part extracts. 指紋画像から第1及び第2特徴点を抽出し、抽出した各特徴点の特徴点方向の一例を示す図である。It is a figure which shows an example of the feature point direction of each feature point which extracted the 1st and 2nd feature point from the fingerprint image. 第1特徴量を説明するための図である。It is a figure for demonstrating a 1st feature-value. 図6に示す各特徴点に対応する第1特徴量画像の一例である。It is an example of the 1st feature-value image corresponding to each feature point shown in FIG. 第2特徴量を説明するための図である。It is a figure for demonstrating the 2nd feature-value. 図6に示す各特徴点に対応する第2特徴量画像の一例である。It is an example of the 2nd feature-value image corresponding to each feature point shown in FIG. 第1特徴量画像平滑部の処理を説明するための図である。It is a figure for demonstrating the process of a 1st feature-value image smoothing part. 図8に示す第1特徴量画像を平滑化することで得られる画像の一例である。It is an example of the image obtained by smoothing the 1st feature-value image shown in FIG. 図10に示す第2特徴量画像を平滑化することで得られる画像の一例である。It is an example of the image obtained by smoothing the 2nd feature-value image shown in FIG. 第1特徴量ベクトルの算出を説明するための図である。It is a figure for demonstrating calculation of a 1st feature-value vector. 第2特徴量ベクトルの算出を説明するための図である。It is a figure for demonstrating calculation of a 2nd feature-value vector. 第1特徴量画像の一例を示す図である。It is a figure which shows an example of a 1st feature-value image. 第2特徴量画像の一例を示す図である。It is a figure which shows an example of a 2nd feature-value image. 照合対象抽出装置30の動作の一例を示すフローチャートである。5 is a flowchart illustrating an example of the operation of the verification target extraction device 30. 照合対象決定部の内部構成の別の一例を示す図である。It is a figure which shows another example of the internal structure of a collation target determination part. データベースから照合対象となる指紋画像の抽出処理の一例を示す図である。It is a figure which shows an example of the extraction process of the fingerprint image used as collation object from a database. 指紋画像の一例を示す図である。It is a figure which shows an example of a fingerprint image. 図21(a)と図21(b)の指紋画像から指紋隆線を抜き出した図面である。It is drawing which extracted the fingerprint ridgeline from the fingerprint image of Fig.21 (a) and FIG.21 (b).

初めに、図1を用いて一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。   First, an outline of an embodiment will be described with reference to FIG. Note that the reference numerals of the drawings attached to the outline are attached to the respective elements for convenience as an example for facilitating understanding, and the description of the outline is not intended to be any limitation.

上述のように、精度良く照合対象となる指紋画像を抽出可能とする指紋画像処理装置が望まれる。   As described above, a fingerprint image processing apparatus that can extract a fingerprint image to be collated with high accuracy is desired.

そこで、一例として図1に示す指紋画像処理装置100を提供する。指紋画像処理装置100は、特徴量ベクトル算出部101を備える。特徴量ベクトル算出部101は、検索対象の指紋画像内の複数の特徴点それぞれが有する特徴点方向に関する特徴量であって指紋画像内の基準点に対する特徴点方向の回転方向から算出される、複数の第1特徴量を要素とする第1特徴量ベクトルと、特徴点方向に関する特徴量であって基準点に対する特徴点方向の向きから算出される、複数の第2特徴量を要素とする第2特徴量ベクトルと、を算出する。   Therefore, as an example, the fingerprint image processing apparatus 100 shown in FIG. 1 is provided. The fingerprint image processing apparatus 100 includes a feature quantity vector calculation unit 101. The feature amount vector calculation unit 101 is a feature amount related to the feature point direction of each of the plurality of feature points in the fingerprint image to be searched, and is calculated from the rotation direction of the feature point direction with respect to the reference point in the fingerprint image. A second feature quantity having a plurality of second feature quantities calculated from a first feature quantity vector having the first feature quantity as an element and a feature quantity relating to the feature point direction and the direction of the feature point direction with respect to the reference point. A feature vector is calculated.

指紋画像処理装置100が、算出する特徴量ベクトルは、指紋画像内に分散している複数の特徴点における特徴点方向を定量化したものである。そのため、データベースに記憶された多数の指紋画像から算出された特徴量ベクトル(照合対象側の特徴量ベクトル)と、データベースに記憶された指紋画像から同一人物の指紋画像の検索がなされる指紋画像(検索対象の指紋画像)から算出された特徴量ベクトル(検索対象側の特徴量ベクトル)と、を比較することで、精度良く照合対象となる指紋画像を抽出することができる。その理由は、検索対象側の特徴量ベクトルと照合対象側の特徴量ベクトルの算出時に、同じ座標位置の特徴点を選択することで、指紋画像内の特徴点の分布を考慮した2つの特徴量ベクトルが得られるためである。例えば、2つの特徴量ベクトルの類似度を算出し、算出された類似度に対して閾値処理を施すことで、照合対象の指紋画像(データベースに記憶された指紋画像)が、照合対象候補たり得るか判断することができる。   The feature quantity vector calculated by the fingerprint image processing apparatus 100 is obtained by quantifying the feature point directions at a plurality of feature points dispersed in the fingerprint image. Therefore, a fingerprint image (a fingerprint vector of the same person is searched from the feature vector (feature vector on the matching target side) calculated from a large number of fingerprint images stored in the database and the fingerprint image stored in the database ( By comparing the feature quantity vector calculated from the search target fingerprint image) (the feature quantity vector on the search target side), the fingerprint image to be collated can be extracted with high accuracy. The reason is that when calculating the feature vector on the search target side and the feature vector on the collation target side, the feature points at the same coordinate position are selected, so that two feature amounts considering the distribution of the feature points in the fingerprint image are taken into account. This is because a vector is obtained. For example, by calculating the similarity between two feature vectors and performing threshold processing on the calculated similarity, a fingerprint image to be collated (a fingerprint image stored in a database) can be a candidate for collation. Can be judged.

また、特徴点自身が示す指紋画像の特徴は単なる位置情報であるが、指紋画像処理装置100は、特徴点から特徴点方向という別の特徴量を算出し、その後の処理にて照合対象候補の抽出に利用可能とする。仮に、検索側と照合側の指紋画像にて同じ位置に特徴点が存在していたとしても、その特徴点方向に関する特徴量(基準点に対する回転方向及び向き)まで一致することは希であるから、指紋画像処理装置100が算出する特徴量ベクトルを使用すれば、このような指紋画像に関してもより正確に一致・不一致が判定できる。即ち、指紋画像処理装置100は、精度良く照合対象となる指画像を抽出可能とする。   In addition, although the feature of the fingerprint image indicated by the feature point itself is merely position information, the fingerprint image processing apparatus 100 calculates another feature amount called the feature point direction from the feature point, and in the subsequent processing, It can be used for extraction. Even if a feature point exists in the same position in the fingerprint image on the search side and the collation side, it is rare to match up to the feature amount (rotation direction and direction with respect to the reference point) regarding the feature point direction. If the feature quantity vector calculated by the fingerprint image processing apparatus 100 is used, it is possible to determine the match / mismatch more accurately for such a fingerprint image. That is, the fingerprint image processing apparatus 100 can extract a finger image to be collated with high accuracy.

なお、本書において特徴点の特徴点方向とは、特徴点から隆線が発生する方向又は特徴点にて分岐する隆線の進行する方向と定義される。   In this document, the feature point direction of a feature point is defined as a direction in which a ridge is generated from the feature point or a direction in which a ridge that branches at the feature point proceeds.

以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。   Hereinafter, specific embodiments will be described in more detail with reference to the drawings.

[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
[First Embodiment]
The first embodiment will be described in more detail with reference to the drawings.

図2は、第1の実施形態に係る照合対象抽出システムの全体構成の一例を示す図である。図2を参照すると、照合対象抽出システムには、指紋撮影装置10と、データベース20と、照合対象抽出装置30と、が含まれている。なお、上述の指紋画像処理装置100の機能は、照合対象抽出装置30に包含されている。   FIG. 2 is a diagram illustrating an example of the overall configuration of the verification target extraction system according to the first embodiment. Referring to FIG. 2, the verification target extraction system includes a fingerprint imaging device 10, a database 20, and a verification target extraction device 30. The function of the above-described fingerprint image processing apparatus 100 is included in the verification target extraction apparatus 30.

指紋撮影装置10と照合対象抽出装置30はUSB(Universal Serial Bus)等の通信手段により接続されている。また、データベース20と照合対象抽出装置30はネットワークを介して相互に通信可能に構成されている。   The fingerprint imaging device 10 and the verification target extraction device 30 are connected by communication means such as USB (Universal Serial Bus). The database 20 and the verification target extraction device 30 are configured to be able to communicate with each other via a network.

指紋撮影装置10は、人の指紋を撮影し、指紋画像を取得する手段である。指紋撮影装置10は、所謂スキャナであり、指紋を撮影してカラー、グレースケール又はモノクロの指紋画像を照合対象抽出装置30に出力する。以降、指紋撮影装置10が出力する指紋画像を入力指紋画像と表記する。   The fingerprint photographing device 10 is a means for photographing a human fingerprint and acquiring a fingerprint image. The fingerprint imaging device 10 is a so-called scanner, and captures a fingerprint and outputs a color, gray scale, or monochrome fingerprint image to the collation target extraction device 30. Hereinafter, the fingerprint image output by the fingerprint imaging apparatus 10 is referred to as an input fingerprint image.

データベース20は、入力指紋画像の照合対象となる複数の指紋画像を記憶する手段である。データベース20は、照合対象抽出装置30からの要求に応じて、指紋画像を出力する。以降、データベース20が出力する指紋画像をデータベース指紋画像と表記する。   The database 20 is a means for storing a plurality of fingerprint images to be collated with the input fingerprint image. The database 20 outputs a fingerprint image in response to a request from the verification target extraction device 30. Hereinafter, the fingerprint image output from the database 20 is referred to as a database fingerprint image.

照合対象抽出装置30は、入力指紋画像の入力に応じて、データベース20に記憶された複数のデータベース指紋画像のなかから、入力指紋画像と一致すると考えられる指紋画像を選び出し、照合対象候補として出力する手段である。   In response to the input fingerprint image, the verification target extraction device 30 selects a fingerprint image that is considered to match the input fingerprint image from among a plurality of database fingerprint images stored in the database 20, and outputs the fingerprint image as a verification target candidate. Means.

照合対象候補は、照合対象抽出装置30に接続された照合装置(図示せず)にて利用される。照合装置は、複数の照合対象候補のなかから、入力指紋画像に一致する確率が最も高いと考えられる指紋画像(データベース指紋画像)を特定する装置である。   The verification target candidates are used in a verification device (not shown) connected to the verification target extraction device 30. The collation device is a device that identifies a fingerprint image (database fingerprint image) that is considered to have the highest probability of matching an input fingerprint image from among a plurality of collation target candidates.

図3は、照合対象抽出装置30の内部構成の一例を示す図である。図3を参照すると、照合対象抽出装置30は、通信部201と、入力部202と、表示部203と、出力部204と、記憶部205と、照合対象決定部206と、を含んで構成される。   FIG. 3 is a diagram illustrating an example of an internal configuration of the verification target extraction device 30. Referring to FIG. 3, the verification target extraction device 30 includes a communication unit 201, an input unit 202, a display unit 203, an output unit 204, a storage unit 205, and a verification target determination unit 206. The

通信部201は、データベース20との間で通信を行い、データベース指紋画像を取得する手段である。   The communication unit 201 is a means for communicating with the database 20 and acquiring a database fingerprint image.

入力部202は、指紋撮影装置10のドライバを含んで構成され、入力指紋画像を取得する手段である。   The input unit 202 includes a driver for the fingerprint imaging apparatus 10 and is a unit that acquires an input fingerprint image.

表示部203は、照合対象抽出装置30の動作状態をオペレータに通知するための手段である。   The display unit 203 is a means for notifying the operation state of the verification target extraction device 30 to the operator.

出力部204は、照合対象決定部206が出力する照合対象候補を外部に出力するための手段である。   The output unit 204 is a means for outputting the collation target candidate output from the collation target determination unit 206 to the outside.

記憶部205は、照合対象抽出装置30の動作に必要なプログラムやデータ等を記憶する手段である。   The storage unit 205 is a unit that stores programs, data, and the like necessary for the operation of the verification target extraction device 30.

照合対象決定部206は、入力指紋画像に対応する検索側特徴量ベクトル(以下、特徴量ベクトルViと表記する)と、データベース指紋画像に対応する照合側特徴量ベクトル(以下、特徴量ベクトルVdと表記する)と、を算出し、これらの特徴量ベクトルを比較することで、照合対象候補たり得るデータベース指紋画像を抽出(選抜)する手段である。照合対象決定部206は、照合対象候補となり得ると判断したデータベース指紋画像を照合対象候補として出力部204に引き渡す。なお、2つの指紋画像に対応する特徴量ベクトルVi、Vdは後述する。   The collation target determining unit 206 includes a search-side feature vector (hereinafter referred to as feature vector Vi) corresponding to the input fingerprint image and a collation-side feature vector (hereinafter referred to as feature vector Vd) corresponding to the database fingerprint image. The database fingerprint image that can be a candidate for collation is extracted (selected) by comparing these feature quantity vectors. The collation target determination unit 206 delivers the database fingerprint image determined to be a collation target candidate to the output unit 204 as a collation target candidate. The feature amount vectors Vi and Vd corresponding to the two fingerprint images will be described later.

また、図3に示す照合対象抽出装置30の構成は例示であって、種々の変形が考えられる。例えば、出力部204を削除し、表示部203にて照合対象候補を表示してもよい。あるいは、通信部201を用いて、照合対象抽出装置30とネットワーク接続された端末(例えば、パーソナルコンピュータやスマートフォン等)に照合対象候補を出力してもよい。   Moreover, the structure of the collation target extraction device 30 shown in FIG. 3 is an exemplification, and various modifications can be considered. For example, the output unit 204 may be deleted, and the verification target candidates may be displayed on the display unit 203. Or you may output a collation target candidate to the terminal (for example, personal computer, a smart phone, etc.) network-connected with the collation target extraction apparatus 30 using the communication part 201. FIG.

次に、照合対象決定部206について説明する。   Next, the verification target determination unit 206 will be described.

図4は、照合対象決定部206の内部構成の一例を示す図である。図4を参照すると、照合対象決定部206は、特徴量ベクトル算出部301と、照合対象候補抽出部302と、を含んで構成される。   FIG. 4 is a diagram illustrating an example of an internal configuration of the collation target determination unit 206. Referring to FIG. 4, the collation target determination unit 206 includes a feature quantity vector calculation unit 301 and a collation target candidate extraction unit 302.

さらに、特徴量ベクトル算出部301は、特徴点抽出部401と、第1特徴量画像生成部402と、第2特徴量画像生成部403と、第1特徴量画像平滑部404と、第2特徴量画像平滑部405と、第1特徴量ベクトル算出部406と、第2特徴量ベクトル算出部407と、特徴量ベクトル生成部408と、を含んで構成される。   Further, the feature quantity vector calculation unit 301 includes a feature point extraction unit 401, a first feature quantity image generation unit 402, a second feature quantity image generation unit 403, a first feature quantity image smoothing unit 404, and a second feature. An amount image smoothing unit 405, a first feature amount vector calculation unit 406, a second feature amount vector calculation unit 407, and a feature amount vector generation unit 408 are configured.

<特徴点の抽出>
特徴点抽出部401は、照合対象抽出装置30に入力される指紋画像(データベース指紋画像、入力指紋画像)に含まれる特徴点を抽出する手段である。
<Feature point extraction>
The feature point extraction unit 401 is a means for extracting feature points included in a fingerprint image (database fingerprint image, input fingerprint image) input to the verification target extraction device 30.

特徴点抽出部401は、2種類の特徴点を指紋画像から抽出する。図5は、特徴点抽出部401が抽出する特徴点を説明するための図である。   The feature point extraction unit 401 extracts two types of feature points from the fingerprint image. FIG. 5 is a diagram for explaining the feature points extracted by the feature point extraction unit 401.

特徴点抽出部401が対象とする第1の特徴点は、隆線の終点(端点)である。図5(a)には、2本の隆線501、502に挟まれた第1特徴点P1が図示されている。特徴点抽出部401は、図5(a)に示す第1特徴点P1のような隆線の端点を、入力された指紋画像の第1特徴点として抽出する。具体的には、特徴点抽出部401は、指紋画像の全体を走査しながら第1特徴点を抽出していく。   The first feature point targeted by the feature point extraction unit 401 is the end point (end point) of the ridge. FIG. 5A shows a first feature point P1 sandwiched between two ridges 501 and 502. FIG. The feature point extraction unit 401 extracts a ridge end point such as the first feature point P1 shown in FIG. 5A as the first feature point of the input fingerprint image. Specifically, the feature point extraction unit 401 extracts the first feature points while scanning the entire fingerprint image.

特徴点抽出部401が対象とする第2の特徴点は、隆線の分岐点である。図5(b)には、隆線511が2本の隆線512、513に分岐する第2特徴点P2が図示されている。特徴点抽出部401は、図5(b)に示す第2特徴点P2のような隆線の分岐点を、入力された指紋画像の第2特徴点として抽出する。   The second feature point targeted by the feature point extraction unit 401 is a ridge branch point. FIG. 5B illustrates a second feature point P2 where the ridge 511 branches into two ridges 512, 513. The feature point extraction unit 401 extracts a ridge branch point such as the second feature point P2 shown in FIG. 5B as the second feature point of the input fingerprint image.

次に、特徴点抽出部401は、抽出した各特徴点の特徴点方向を算出する。第1特徴点に関しては、図5(a)に示すように、第1特徴点P1から隆線503が発生する方向(矢印504の方向)が、第1特徴点の特徴点方向と定義される。   Next, the feature point extraction unit 401 calculates the feature point direction of each extracted feature point. As for the first feature point, as shown in FIG. 5A, the direction in which the ridge 503 is generated from the first feature point P1 (the direction of the arrow 504) is defined as the feature point direction of the first feature point. .

第2特徴点に関しては、図5(b)に示すように、隆線511が第2特徴点P2にて2本の隆線512、513に分岐している場合、第2特徴点P2から2本の隆線の間(ベクトルの中間)を進行する方向(矢印514の方向)が、第2特徴点の特徴点方向と定義される。   As for the second feature point, as shown in FIG. 5B, when the ridge 511 is branched into two ridges 512, 513 at the second feature point P2, the second feature point P2 to 2 The direction (in the direction of the arrow 514) traveling between the ridges of the book (in the middle of the vector) is defined as the feature point direction of the second feature point.

なお、抽出された第1特徴点、第2特徴点に関する位置情報(座標)は、指紋画像内でのピクセル位置の形式で記憶される。また、各特徴点を原点に設定したXY座標系におけるX軸と特徴点方向線との間の角度が、各特徴点の特徴点方向として記憶される。   The extracted position information (coordinates) related to the first feature point and the second feature point is stored in the form of pixel positions in the fingerprint image. Further, the angle between the X axis and the feature point direction line in the XY coordinate system in which each feature point is set as the origin is stored as the feature point direction of each feature point.

図6は、指紋画像から第1及び第2特徴点を抽出し、抽出した各特徴点の特徴点方向の一例を示す図である。図6において、丸印は上述の第1特徴点(端点)を示し、四角形は第2特徴点(分岐点)を示す。また、各特徴点から発生している直線は、各特徴点の特徴点方向を示す特徴点方向線である。   FIG. 6 is a diagram illustrating an example of the feature point direction of each extracted feature point by extracting the first and second feature points from the fingerprint image. In FIG. 6, circles indicate the first feature points (end points) described above, and squares indicate the second feature points (branch points). A straight line generated from each feature point is a feature point direction line indicating the feature point direction of each feature point.

なお、第1の実施形態では、特徴点抽出部401は2種類の特徴点を抽出するものとして説明するが、抽出する特徴点の種類を限定する趣旨ではない。特徴点抽出部401は、第1特徴点(端点)及び第2特徴点(分岐点)のうち少なくとも一方を抽出してもよい。   In the first embodiment, the feature point extraction unit 401 is described as extracting two types of feature points, but the type of feature points to be extracted is not limited. The feature point extraction unit 401 may extract at least one of the first feature point (end point) and the second feature point (branch point).

<第1特徴量画像の生成>
第1特徴量画像生成部402は、特徴点抽出部401により抽出された各特徴点と、各特徴点の特徴点方向と、に基づき第1特徴量画像を生成する。
<Generation of First Feature Quantity Image>
The first feature value image generation unit 402 generates a first feature value image based on each feature point extracted by the feature point extraction unit 401 and the feature point direction of each feature point.

第1特徴量画像とは、指紋画像をなす画素の画素値を第1特徴量とする画像である。第1特徴量とは、各特徴点と指紋画像の中心点(基準点、あるいは指紋画像のコアとも称される)を結ぶ第1基準線に対する各特徴点の特徴点方向が指向する方向(右向き、左向き)を定量化した特徴量である。あるいは、第1特徴量は、指紋画像の中心点に対する特徴点方向の回転方向(時計回り、反時計回り)を定量化した特徴量ともいえる。   The first feature amount image is an image having a pixel value of a pixel forming a fingerprint image as a first feature amount. The first feature amount is a direction in which the feature point direction of each feature point with respect to a first reference line connecting each feature point and the center point of the fingerprint image (also referred to as a reference point or a core of the fingerprint image) is directed (rightward direction). , Leftward) is a quantified feature amount. Alternatively, the first feature amount can be said to be a feature amount obtained by quantifying the rotation direction (clockwise or counterclockwise) of the feature point direction with respect to the center point of the fingerprint image.

図7は、第1特徴量を説明するための図である。図7には、指紋画像の中心点(コア)と第1特徴点P1を図示している。   FIG. 7 is a diagram for explaining the first feature amount. FIG. 7 illustrates the center point (core) of the fingerprint image and the first feature point P1.

第1特徴量画像生成部402は、指紋画像の中心点と特徴点を結ぶ直線を第1基準線として計算する。   The first feature image generation unit 402 calculates a straight line connecting the center point of the fingerprint image and the feature point as a first reference line.

次に、第1特徴量画像生成部402は、第1基準線と特徴点方向線のなす角度θを計算する。具体的には、第1特徴量画像生成部402は、XY座標軸の原点を第1特徴点P1に設定し、X軸と第1基準線とがなす角度α1を計算する(図7(a)参照)。次に、第1特徴量画像生成部402は、第1特徴点P1の抽出の際に記憶された特徴点方向線の角度α2を読み出す。次に、第1特徴量画像生成部402は、角度α1から角度α2を減算し、角度θを計算する。なお、角度α1、α2はXY座標系の第1、第2象限にあるときは正の値とし、第3、第4象限にあるときは負の値とする。   Next, the first feature quantity image generation unit 402 calculates an angle θ formed by the first reference line and the feature point direction line. Specifically, the first feature quantity image generation unit 402 sets the origin of the XY coordinate axes to the first feature point P1, and calculates an angle α1 formed by the X axis and the first reference line (FIG. 7A). reference). Next, the first feature quantity image generation unit 402 reads the feature point direction line angle α2 stored when the first feature point P1 is extracted. Next, the first feature image generation unit 402 subtracts the angle α2 from the angle α1 to calculate the angle θ. The angles α1 and α2 are positive values when they are in the first and second quadrants of the XY coordinate system, and negative values when they are in the third and fourth quadrants.

計算した結果、角度θが正の値であれば、各特徴点の特徴点方向は第1基準線に対して右向き(中心点に対して時計回り)と判定される。一方、計算した結果、角度θが負の値であれば、各特徴点の特徴点方向は第1基準線に対して左向き(中心点に対して反時計回り)と判定される。   As a result of the calculation, if the angle θ is a positive value, the feature point direction of each feature point is determined to be rightward with respect to the first reference line (clockwise with respect to the center point). On the other hand, if the angle θ is a negative value as a result of the calculation, it is determined that the feature point direction of each feature point is leftward with respect to the first reference line (counterclockwise with respect to the center point).

算出された角度θから特徴点方向は、中心点に対して時計回り(右回り)であると判定される場合には、第1特徴量画像生成部402は、当該特徴点の特徴点方向に対し、128〜255(16進表示;80〜FF)の範囲の第1特徴量を割り当てる。   When it is determined that the feature point direction is clockwise (clockwise) with respect to the center point from the calculated angle θ, the first feature quantity image generation unit 402 moves in the feature point direction of the feature point. On the other hand, a first feature amount in the range of 128 to 255 (hexadecimal display; 80 to FF) is assigned.

より具体的には、図7(b)に示すように、角度θ1が0度の場合(第1基準線と特徴点方向が同じ向きの場合)には、第1特徴量には128が与えられる。角度θ1の増加に伴い第1特徴量も増加し、角度θ1が90度の場合に第1特徴量の最大値である255が与えられる。さらに、角度θ1が90度を越えて増加すると、第1特徴量は減少していき、角度θ1が180度の場合(第1基準線と特徴点方向が逆向きの場合)には、第1特徴量には128が与えられる。   More specifically, as shown in FIG. 7B, when the angle θ1 is 0 degree (when the first reference line and the feature point direction are in the same direction), 128 is given to the first feature amount. It is done. As the angle θ1 increases, the first feature amount also increases. When the angle θ1 is 90 degrees, 255, which is the maximum value of the first feature amount, is given. Further, when the angle θ1 increases beyond 90 degrees, the first feature amount decreases, and when the angle θ1 is 180 degrees (when the first reference line and the feature point direction are opposite), the first feature amount is decreased. 128 is given as the feature amount.

このように、第1特徴量画像生成部402は、特徴点の特徴点方向線が第1基準線に対して右向きの場合には、特徴点方向に対して128〜255の範囲の第1特徴量を与える。   As described above, when the feature point direction line of the feature point is directed to the right with respect to the first reference line, the first feature amount image generation unit 402 has the first feature in the range of 128 to 255 with respect to the feature point direction. Give the amount.

一方、算出された角度θから特徴点方向は、中心点に対して反時計回り(左回り)であると判定される場合には、第1特徴量画像生成部402は、当該特徴点の特徴点方向に対し、0〜128(16進表示;00〜80)の範囲の第1特徴量を割り当てる。   On the other hand, if it is determined from the calculated angle θ that the feature point direction is counterclockwise (counterclockwise) with respect to the center point, the first feature amount image generation unit 402 determines the feature point feature. A first feature amount in the range of 0 to 128 (hexadecimal display; 00 to 80) is assigned to the point direction.

より具体的には、図7(c)に示すように、角度θ2が0度の場合(第1基準線と特徴点方向が同じ向きの場合)には、第1特徴量には128が与えられる。角度θ2の増加に伴い第1特徴量は減少し、角度θ2が90度の場合に第1特徴量の最小値である0が与えられる。さらに、角度θ2が90度を超えて増加すると、第1特徴量は増加していき、角度θ2が180度の場合(第1基準点と特徴点方向が逆向きの場合)には、第1特徴量には128が与えられる。   More specifically, as shown in FIG. 7C, when the angle θ2 is 0 degree (when the first reference line and the feature point direction are in the same direction), 128 is given to the first feature amount. It is done. As the angle θ2 increases, the first feature value decreases. When the angle θ2 is 90 degrees, 0, which is the minimum value of the first feature value, is given. Further, when the angle θ2 increases beyond 90 degrees, the first feature amount increases. When the angle θ2 is 180 degrees (when the first reference point and the feature point direction are opposite), the first feature amount is increased. 128 is given as the feature amount.

このように、第1特徴量画像生成部402は、特徴点の特徴点方向線が第1基準線に対して左向きの場合には、特徴点方向に対して0〜128の範囲の第1特徴量を与える。   As described above, when the feature point direction line of the feature point is facing left with respect to the first reference line, the first feature amount image generation unit 402 has a first feature in the range of 0 to 128 with respect to the feature point direction. Give the amount.

なお、第1基準線と特徴点方向線が同じ向き(あるいは、逆向き)の場合には、角度θ1を用いて説明した処理又は角度θ2を用いて説明した処理のいずれかを行えば良いのは当然である。   When the first reference line and the feature point direction line are in the same direction (or in the opposite direction), either the process described using the angle θ1 or the process described using the angle θ2 may be performed. Is natural.

第1特徴量画像生成部402は、特徴点抽出部401にて抽出された特徴点ごとに上記の第1特徴量算出処理を行う。   The first feature value image generation unit 402 performs the first feature value calculation process for each feature point extracted by the feature point extraction unit 401.

次に、第1特徴量画像生成部402は、算出した第1特徴量に基づいて第1特徴量画像を生成する。   Next, the first feature value image generation unit 402 generates a first feature value image based on the calculated first feature value.

具体的には、第1特徴量画像生成部402は、特徴点のそれぞれをXY座標系における原点とみなし、原点(特徴点)からの所定範囲に含まれる画素の画素値を第1特徴量に変更する。なお、原点からの所定範囲とは、原点からX方向に数ピクセル、Y方向に数ピクセル等のように予め定められる範囲である。また、各特徴点の周囲(所定範囲)が重なる領域は、重なる領域ごとの第1特徴量の平均値とする。例えば、重複する2つの領域に対応する第1特徴量のそれぞれが0と255であれば当該重複する領域の第1特徴量は127となる。第1特徴量画像生成部402は、特徴点の周辺にはない画素には画素値(第1特徴量)として128を割り当てる。   Specifically, the first feature quantity image generation unit 402 regards each feature point as the origin in the XY coordinate system, and sets the pixel value of pixels included in a predetermined range from the origin (feature point) as the first feature quantity. change. The predetermined range from the origin is a predetermined range such as several pixels in the X direction and several pixels in the Y direction from the origin. In addition, an area where the periphery (predetermined range) of each feature point overlaps is an average value of the first feature amount for each overlapping area. For example, if the first feature amounts corresponding to two overlapping regions are 0 and 255, the first feature amount of the overlapping region is 127. The first feature amount image generation unit 402 assigns 128 as the pixel value (first feature amount) to pixels that are not around the feature points.

このようにして、第1特徴量画像生成部402は、第1特徴量画像を生成する。図8は、図6に示す各特徴点に対応する第1特徴量画像の一例である。図8では、第1特徴量が視覚的となるように、第1特徴量を濃度に対応させて表現している。具体的には、第1特徴量の最小値0には黒色、中間値128には灰色、最大値255には白色をそれぞれ割り当てている。   In this way, the first feature value image generation unit 402 generates a first feature value image. FIG. 8 is an example of a first feature amount image corresponding to each feature point shown in FIG. In FIG. 8, the first feature value is expressed in correspondence with the density so that the first feature value becomes visual. Specifically, black is assigned to the minimum value 0 of the first feature value, gray is assigned to the intermediate value 128, and white is assigned to the maximum value 255.

<第2特徴量画像の生成>
第2特徴量画像生成部403は、特徴点抽出部401により抽出された各特徴点と、各特徴点の特徴点方向と、に基づき第2特徴量画像を生成する。
<Generation of Second Feature Quantity Image>
The second feature amount image generation unit 403 generates a second feature amount image based on each feature point extracted by the feature point extraction unit 401 and the feature point direction of each feature point.

第2特徴量画像とは、指紋画像をなす画素の画素値を第2特徴量とする画像である。第2特徴量とは、特徴点方向線の中心点に対する方向性を定量化した特徴量である。   The second feature amount image is an image having the pixel value of the pixels forming the fingerprint image as the second feature amount. The second feature amount is a feature amount obtained by quantifying the directionality with respect to the center point of the feature point direction line.

図9は、第2特徴量を説明するための図である。第2特徴量画像生成部403は、指紋画像の中心点と特徴点を結ぶ直線を第1基準線として計算する。さらに、第2特徴量画像生成部403は、特徴点を交点として第1基準線に直交する第2基準線を計算する。   FIG. 9 is a diagram for explaining the second feature amount. The second feature amount image generation unit 403 calculates a straight line connecting the center point of the fingerprint image and the feature point as the first reference line. Further, the second feature quantity image generation unit 403 calculates a second reference line orthogonal to the first reference line with the feature point as an intersection.

次に、第2特徴量画像生成部403は、第2基準線と特徴点方向線のなす角度Φを計算する。具体的には、第2特徴量画像生成部403は、XY座標軸の原点を第1特徴点P1に設定し、Y軸と第2基準線とがなす角度β1を計算する(図9(a)参照)。次に、第2特徴量画像生成部403は、第1特徴点P1の抽出の際に記憶された特徴点方向線の角度α2を読み出し、特徴点方向線がY軸との間でなす角度β2を計算する。次に、第2特徴量画像生成部403は、角度β1から角度β2を減算し、角度Φを計算する。なお、角度β1、β2はXY座標系の第2、第3象限にあるときは正の値とし、第1、第4象限にあるときは負の値とする。   Next, the second feature amount image generation unit 403 calculates an angle Φ formed by the second reference line and the feature point direction line. Specifically, the second feature quantity image generation unit 403 sets the origin of the XY coordinate axis to the first feature point P1, and calculates the angle β1 formed by the Y axis and the second reference line (FIG. 9A). reference). Next, the second feature quantity image generation unit 403 reads the angle α2 of the feature point direction line stored when extracting the first feature point P1, and the angle β2 formed between the feature point direction line and the Y axis. Calculate Next, the second feature quantity image generation unit 403 calculates the angle Φ by subtracting the angle β2 from the angle β1. The angles β1 and β2 are positive values when they are in the second and third quadrants of the XY coordinate system, and negative values when they are in the first and fourth quadrants.

計算した角度Φが正の値であれば、各特徴点の特徴点方向は中心点から離れる方向(離脱方向)と判定される。一方、計算した角度Φが負の値であれば、各特徴点の特徴点方向は中心点に近づく方向(接近方向)と判定される。   If the calculated angle Φ is a positive value, the feature point direction of each feature point is determined to be a direction away from the center point (withdrawal direction). On the other hand, if the calculated angle Φ is a negative value, the feature point direction of each feature point is determined to be a direction approaching the center point (approach direction).

算出された角度Φから特徴点方向は、中心点から離れる方向であると判定される場合には、第2特徴量画像生成部403は、当該特徴点の特徴点方向に対し、0〜128の範囲の第2特徴量を割り当てる。   When it is determined from the calculated angle Φ that the feature point direction is a direction away from the center point, the second feature amount image generation unit 403 has 0 to 128 with respect to the feature point direction of the feature point. A second feature quantity in the range is assigned.

より具体的には、図9(b)に示すように、角度Φ1が0度の場合(第2基準線と特徴点方向が同じ向きの場合)には、第2特徴量には128が与えられる。角度Φ1の増加に伴い第2特徴量は減少し、角度Φ1が90度の場合に第2特徴量の最小値である0が与えられる。さらに、角度Φ1が90度を越えて増加すると、第2特徴量は増加していき、角度Φ1が180度の場合(第2基準線と特徴点方向が逆向きの場合)には、第2特徴量には128が与えられる。   More specifically, as shown in FIG. 9B, when the angle Φ1 is 0 degree (when the second reference line and the feature point direction are in the same direction), 128 is given to the second feature amount. It is done. As the angle Φ1 increases, the second feature value decreases. When the angle Φ1 is 90 degrees, 0, which is the minimum value of the second feature value, is given. Further, when the angle Φ1 increases beyond 90 degrees, the second feature amount increases. When the angle Φ1 is 180 degrees (when the second reference line and the feature point direction are opposite), the second feature amount is increased. 128 is given as the feature amount.

このように、第2特徴量画像生成部403は、特徴点の特徴点方向線が中心点から離れる方向の場合には、特徴点方向に対して0〜128の範囲の第2特徴量を与える。   As described above, when the feature point direction line of the feature point is away from the center point, the second feature amount image generation unit 403 gives the second feature amount in the range of 0 to 128 with respect to the feature point direction. .

一方、算出された角度Φから特徴点方向は、中心点に近づく方向であると判定される場合には、第2特徴量画像生成部403は、当該特徴点の特徴点方向に対し、128〜255の範囲の第2特徴量を割り当てる。   On the other hand, when it is determined from the calculated angle Φ that the feature point direction is a direction approaching the center point, the second feature quantity image generation unit 403 performs 128 to 128 with respect to the feature point direction of the feature point. A second feature amount in the range of 255 is assigned.

より具体的には、図9(c)に示すように、角度Φ2が0度の場合(第2基準線と特徴点方向が同じ向きの場合)には、第2特徴量には128が与えられる。角度Φ2の増加に伴い第2特徴量も増加し、角度Φ2が90度の場合に第2特徴量の最大値である255が与えられる。さらに、角度Φ2が90度を超えて増加すると、第2特徴量は減少していき、角度Φ2が180度の場合(第2基準線と特徴点方向が逆向きの場合)には、第2特徴量には128が与えられる。   More specifically, as shown in FIG. 9C, when the angle Φ2 is 0 degree (when the second reference line and the feature point direction are in the same direction), 128 is given to the second feature amount. It is done. As the angle Φ2 increases, the second feature amount also increases. When the angle Φ2 is 90 degrees, 255, which is the maximum value of the second feature amount, is given. Further, when the angle Φ2 increases beyond 90 degrees, the second feature amount decreases, and when the angle Φ2 is 180 degrees (when the second reference line and the feature point direction are opposite), the second feature amount is decreased. 128 is given as the feature amount.

このように、第2特徴量画像生成部403は、特徴点の特徴点方向線が中心点に近づく方向の場合には、特徴点方向に対して128〜255の範囲の第2特徴量を与える。   As described above, when the feature point direction line of the feature point approaches the center point, the second feature amount image generation unit 403 gives the second feature amount in the range of 128 to 255 with respect to the feature point direction. .

第2特徴量画像生成部403は、特徴点抽出部401にて抽出された特徴点ごとに上記の第2特徴量算出処理を行う。   The second feature amount image generation unit 403 performs the second feature amount calculation process for each feature point extracted by the feature point extraction unit 401.

次に、第2特徴量画像生成部403は、算出した第2特徴量に基づいて第2特徴量画像を生成する。なお、第2特徴量画像は、その算出に使用する特徴量が第2特徴量である点を除いて、第1特徴量画像と相違する点は存在しないので、その説明を省略する。   Next, the second feature amount image generation unit 403 generates a second feature amount image based on the calculated second feature amount. Since the second feature value image has no difference from the first feature value image except that the feature value used for the calculation is the second feature value, description thereof is omitted.

図10は、図6に示す各特徴点に対応する第2特徴量画像の一例である。図10を参照すると、下側の領域には特徴点方向が中心点から遠ざかる方向の特徴点が多いため、黒色に近い色の領域が多いことが分かる。一方、上側の領域での特徴点方向は、中心点から遠ざかる方向でも近づく方向でもないことから、灰色に近い色の領域が多いことが分かる。   FIG. 10 is an example of a second feature amount image corresponding to each feature point shown in FIG. Referring to FIG. 10, since there are many feature points in the direction in which the feature point direction moves away from the center point in the lower region, it can be seen that there are many regions with colors close to black. On the other hand, since the feature point direction in the upper region is neither a direction away from the center point nor a direction approaching it, it can be seen that there are many regions of colors close to gray.

なお、第1及び第2特徴量画像の生成の際に用いる指紋画像の中心点の算出には種々の方法が考えられる。例えば、指紋画像に含まれる隆線の山が最も高い箇所を指紋画像の中心点として算出することができる。但し、中心点の算出を限定する趣旨ではない。   Various methods are conceivable for calculating the center point of the fingerprint image used when generating the first and second feature amount images. For example, a portion having the highest ridge peak included in the fingerprint image can be calculated as the center point of the fingerprint image. However, it is not intended to limit the calculation of the center point.

<平滑化処理>
詳細については後述するが、第1及び第2特徴量画像は、データベース指紋画像と入力指紋画像の特徴量ベクトルの算出に使用され、2つの特徴量ベクトルを比較することでデータベース指紋画像が入力指紋画像の照合対象候補となり得るか判定される。その際、データベース指紋画像と入力指紋画像は、指紋撮影装置や方法等の諸条件が異なるのが通常であるから、同一の人物の指紋画像であっても多少の相違点が存在することが多い。例えば、指紋撮影時の指の傾き等により、同じ人物の指紋画像であっても各特徴点の位置には微妙な相違が生じることがある。このような誤差等を吸収するために、第1及び第2特徴量画像の平滑化を行う。以下、第1及び第2特徴量画像の平滑化処理について説明する。
<Smoothing process>
Although the details will be described later, the first and second feature quantity images are used to calculate the feature quantity vectors of the database fingerprint image and the input fingerprint image, and the database fingerprint image is obtained by comparing the two feature quantity vectors. It is determined whether the image can be a candidate for collation. At that time, since the database fingerprint image and the input fingerprint image are usually different in terms of conditions such as a fingerprint photographing apparatus and method, there are often some differences even in the fingerprint image of the same person. . For example, there may be a slight difference in the position of each feature point even in the fingerprint image of the same person due to the tilt of the finger at the time of fingerprint shooting. In order to absorb such errors and the like, the first and second feature amount images are smoothed. Hereinafter, the smoothing process of the first and second feature amount images will be described.

第1特徴量画像平滑部404は、第1特徴量画像生成部402が生成した第1特徴量画像を平滑化する処理を行う。   The first feature value image smoothing unit 404 performs a process of smoothing the first feature value image generated by the first feature value image generating unit 402.

具体的には、第1特徴量画像平滑部404は、第1特徴量画像の各画素位置を基準とし、当該基準画素とその周辺画素が有する第1特徴量の平均値を算出し、当該基準画素の第1特徴量とする。なお、第1特徴量画像の平滑化に用いる範囲を平滑化範囲とする。   Specifically, the first feature amount image smoothing unit 404 calculates the average value of the first feature amounts of the reference pixel and its surrounding pixels, using each pixel position of the first feature amount image as a reference. The first feature amount of the pixel. Note that a range used for smoothing the first feature amount image is defined as a smoothing range.

図11は、第1特徴量画像平滑部404の処理を説明するための図である。図11において、黒丸、白丸及び灰色の丸は第1特徴量画像を構成する画素を意味している。また、図11において、各画素から1ピクセル分の範囲が平滑化範囲に設定されているものとする。   FIG. 11 is a diagram for explaining the processing of the first feature quantity image smoothing unit 404. In FIG. 11, black circles, white circles, and gray circles mean pixels that form the first feature amount image. Further, in FIG. 11, it is assumed that a range of one pixel from each pixel is set as a smoothing range.

この場合、例えば、画素520の第1特徴量を算出する場合には、画素520の第1特徴量と、その周辺の画素521〜528それぞれの第1特徴量と、を加算し、加算した画素の個数(図11の場合には9個)で除算することで、画素520の第1特徴量とする。第1特徴量画像平滑部404は、このような平滑化処理(平均値算出処理)を、第1特徴量画像を構成する各画素に適用することで、第1特徴量の平滑化を行う。   In this case, for example, when calculating the first feature amount of the pixel 520, the first feature amount of the pixel 520 and the first feature amount of each of the surrounding pixels 521 to 528 are added, and the added pixel The first feature amount of the pixel 520 is obtained by dividing by the number of pixels (9 in the case of FIG. 11). The first feature amount image smoothing unit 404 smoothes the first feature amount by applying such smoothing processing (average value calculation processing) to each pixel constituting the first feature amount image.

図12は、図8に示す第1特徴量画像を平滑化することで得られる画像の一例である。なお、平滑化範囲は予め固定された範囲であってもよく、可変な範囲であってもよい。例えば、第1特徴量画像の場所に応じて、平滑化範囲を変更してもよい。具体的には、中心点の周辺では平滑化範囲を細かくし、中心点から離れるに従って平滑化範囲を粗くしてもよい。   FIG. 12 is an example of an image obtained by smoothing the first feature amount image shown in FIG. The smoothing range may be a previously fixed range or a variable range. For example, the smoothing range may be changed according to the location of the first feature amount image. Specifically, the smoothing range may be made finer around the center point, and the smoothing range may be made coarser as the distance from the center point increases.

第2特徴量画像平滑部405は、第2特徴量画像を平滑化する。図13は、図10に示す第2特徴量画像を平滑化することで得られる画像の一例である。第2特徴量画像平滑部405が行う処理は、第1特徴量画像平滑部404が行う処理と相違する点はないので説明を省略する。   The second feature amount image smoothing unit 405 smoothes the second feature amount image. FIG. 13 is an example of an image obtained by smoothing the second feature amount image shown in FIG. Since the process performed by the second feature amount image smoothing unit 405 is not different from the process performed by the first feature amount image smoothing unit 404, the description thereof is omitted.

<特徴量ベクトルの算出>
第1特徴量ベクトル算出部406は、平滑化された第1特徴量画像から第1特徴量ベクトルを算出する。
<Calculation of feature vector>
The first feature quantity vector calculation unit 406 calculates a first feature quantity vector from the smoothed first feature quantity image.

第1特徴量ベクトル算出部406は、平滑化された第1特徴量画像から複数の画素を抽出し、抽出された各画素の第1特徴量を並べたベクトルを第1特徴量ベクトルとして算出する。具体的には、第1特徴量ベクトル算出部406は、平滑化された第1特徴量画像上に格子状(マトリクス状)のサンプリング座標を設定する。第1特徴量ベクトル算出部406は、各サンプリング座標に対応する画素の第1特徴量を並べることで、第1特徴量ベクトルを算出する。   The first feature quantity vector calculation unit 406 extracts a plurality of pixels from the smoothed first feature quantity image, and calculates a vector in which the extracted first feature quantities of each pixel are arranged as a first feature quantity vector. . Specifically, the first feature vector calculation unit 406 sets grid-like (matrix) sampling coordinates on the smoothed first feature image. The first feature quantity vector calculation unit 406 calculates a first feature quantity vector by arranging the first feature quantities of pixels corresponding to the respective sampling coordinates.

例えば、図14に示すように、第1特徴量画像上に、m行n列(n、mは共に正の整数。以下同じ)の行列となるような格子状のサンプリング座標が設定される。第1特徴量ベクトル算出部406は、各サンプリング座標の第1特徴量を読み出すことで、式(1)にて表現できる第1特徴量ベクトルv1を算出する。

v1=(FV1_11、FV1_12、・・・、FV1_n1、・・・FV1_nm)・・・(1)

なお、FV1は第1特徴量(FV1;Feature Value 1)を示し、アンダーバーに続く数字にてサンプリング座標を示している。例えば、FV1_11は図14のサンプリング座標(1、1)の第1特徴量を示す。
For example, as shown in FIG. 14, grid-like sampling coordinates are set on the first feature value image so as to form a matrix of m rows and n columns (n and m are both positive integers; the same applies hereinafter). The first feature quantity vector calculation unit 406 calculates the first feature quantity vector v1 that can be expressed by Expression (1) by reading the first feature quantity of each sampling coordinate.

v1 = (FV1_11, FV1_12,..., FV1_n1,... FV1_nm) (1)

FV1 indicates a first feature amount (FV1; Feature Value 1), and sampling coordinates are indicated by numbers following the underbar. For example, FV1_11 indicates the first feature amount of the sampling coordinates (1, 1) in FIG.

第2特徴量ベクトル算出部407も同様に、平滑化された第2特徴量画像に格子状のサンプリング座標を設定(図15参照)し、サンプリング座標に対応する第2特徴量を並べることで、第2特徴量ベクトルを算出する。なお、第2特徴量ベクトル算出部407が行う処理は、第1特徴量ベクトル算出部406が行う処理とその内容が相違する点はないので説明を省略する。   Similarly, the second feature quantity vector calculation unit 407 also sets grid-like sampling coordinates (see FIG. 15) in the smoothed second feature quantity image, and arranges the second feature quantities corresponding to the sampling coordinates, A second feature vector is calculated. Note that the processing performed by the second feature quantity vector calculation unit 407 is not different from the processing performed by the first feature quantity vector calculation unit 406, and thus description thereof is omitted.

第2特徴量ベクトル算出部407は、第1特徴量ベクトル算出部406と同様の処理を行うことで、式(2)にて表現できる第2特徴量ベクトルv2を算出する。

v2=(FV2_11、FV2_12、・・・、FV2_n1、・・・FV2_nm)・・・(2)

なお、FV2は第2特徴量を示し、アンダーバーに続く数字にてサンプリング座標を示している。
The second feature quantity vector calculation unit 407 performs the same processing as the first feature quantity vector calculation unit 406, thereby calculating the second feature quantity vector v2 that can be expressed by Expression (2).

v2 = (FV2_11, FV2_12,..., FV2_n1,... FV2_nm) (2)

FV2 indicates the second feature amount, and the sampling coordinates are indicated by numbers following the underbar.

特徴量ベクトル生成部408は、第1特徴量ベクトルv1と第2特徴量ベクトルv2を合成することで、入力された指紋画像に対応する特徴量ベクトルVを出力する。具体的には、特徴量ベクトル生成部408は、式(1)にて示される第1特徴量ベクトルv1に式(2)で示される第2特徴量ベクトルv2を付加することで、式(3)にて表現できる特徴量ベクトルVを算出する。

V=(FV1_11、・・・、FV1_nm、FV2_11、・・・、FV2_nm)・・・(3)
The feature vector generation unit 408 combines the first feature vector v1 and the second feature vector v2 to output a feature vector V corresponding to the input fingerprint image. Specifically, the feature quantity vector generation unit 408 adds the second feature quantity vector v2 represented by the expression (2) to the first feature quantity vector v1 represented by the expression (1), so that the expression (3 ) To calculate a feature vector V that can be expressed by

V = (FV1_11,..., FV1_nm, FV2_11,..., FV2_nm) (3)

特徴量ベクトル生成部408は、合成した第1及び第2特徴量ベクトルを照合対象候補抽出部302に出力する。   The feature vector generation unit 408 outputs the combined first and second feature vectors to the collation target candidate extraction unit 302.

特徴量ベクトル算出部301は、入力される指紋画像(データベース指紋画像、入力指紋画像)ごとに特徴量ベクトルVd、Viを算出し、照合対象候補抽出部302に出力する。従って、特徴量ベクトルVdと特徴量ベクトルViは互いに同種の要素からなる特徴量ベクトルといえる。   The feature vector calculation unit 301 calculates the feature vectors Vd and Vi for each fingerprint image (database fingerprint image and input fingerprint image) to be input, and outputs the calculated feature vectors Vd and Vi to the collation target candidate extraction unit 302. Therefore, it can be said that the feature vector Vd and the feature vector Vi are feature vectors composed of the same kind of elements.

<照合対象候補の決定>
照合対象候補抽出部302は、入力された特徴量ベクトルVdに対応するデータベース指紋画像が、特徴量ベクトルViに対応する入力指紋画像との間で詳細に照合するに足りるか否かを判定する。
<Determination of candidates for verification>
The collation target candidate extraction unit 302 determines whether or not the database fingerprint image corresponding to the input feature vector Vd is sufficient to collate with the input fingerprint image corresponding to the feature vector Vi.

データベース指紋画像が照合対象となり得ると判定された場合には、照合対象候補抽出部302は、当該データベース指紋画像を照合対象候補として抽出し、出力する。一方、データベース指紋画像が照合対象となり得ないと判定された場合には、照合対象候補抽出部302は、当該データベース指紋画像を破棄する。データベース指紋画像が破棄された場合には、照合対象抽出装置30は次のデータベース指紋画像をデータベース20から取得し、照合対象抽出処理を繰り返す。   When it is determined that the database fingerprint image can be a collation target, the collation target candidate extraction unit 302 extracts the database fingerprint image as a collation target candidate and outputs it. On the other hand, when it is determined that the database fingerprint image cannot be a collation target, the collation target candidate extraction unit 302 discards the database fingerprint image. When the database fingerprint image is discarded, the collation target extraction device 30 acquires the next database fingerprint image from the database 20 and repeats the collation target extraction process.

次に、照合対象候補抽出部302の照合対象の絞り込み処理について説明する。   Next, the collation target narrowing process of the collation target candidate extraction unit 302 will be described.

照合対象候補抽出部302は、特徴量ベクトルVdと特徴量ベクトルViの差分を計算する。具体的には、照合対象候補抽出部302は、特徴量ベクトルVdと特徴量ベクトルViにおける対応する要素同士の差分値を計算する。その後、照合対象候補抽出部302は、計算した各要素の差分値の合計値を計算する。   The verification target candidate extraction unit 302 calculates the difference between the feature quantity vector Vd and the feature quantity vector Vi. Specifically, the collation target candidate extraction unit 302 calculates a difference value between corresponding elements in the feature quantity vector Vd and the feature quantity vector Vi. Thereafter, the collation target candidate extraction unit 302 calculates the total difference value of the calculated elements.

次に、照合対象候補抽出部302は、差分値の合算が所定の閾値以下の場合には、入力された特徴量ベクトルVdに対応するデータベース指紋画像を照合対象として抽出し、照合対象候補として出力する。   Next, when the sum of difference values is equal to or less than a predetermined threshold, the collation target candidate extraction unit 302 extracts a database fingerprint image corresponding to the input feature vector Vd as a collation target, and outputs it as a collation target candidate. To do.

一方、照合対象候補抽出部302は、差分値の合算が所定の閾値よりも大きい場合には、当該データベース指紋画像を破棄する。   On the other hand, the collation target candidate extraction unit 302 discards the database fingerprint image when the sum of the difference values is larger than a predetermined threshold.

図16は、第1特徴量画像の一例を示す図である。図16(a)は、入力指紋画像とその第1特徴量画像の一例である。図16(b)は、図16(a)の入力指紋画像と同一人物のデータベース指紋画像とその第1特徴量画像の一例である。図16(c)は、図16(a)の入力指紋画像とは異なる人物のデータベース指紋画像とその第1特徴量画像の一例である。   FIG. 16 is a diagram illustrating an example of the first feature amount image. FIG. 16A is an example of an input fingerprint image and its first feature value image. FIG. 16B is an example of a database fingerprint image of the same person as the input fingerprint image of FIG. 16A and a first feature amount image thereof. FIG. 16C is an example of a database fingerprint image of a person different from the input fingerprint image of FIG.

図16(a)〜(c)の各指紋画像を参照すると、これらは全て同一人物の指紋画像のようにも思われる。   Referring to the fingerprint images in FIGS. 16A to 16C, they all seem to be fingerprint images of the same person.

3枚の第1特徴量画像を比較すれば、図16(a)と図16(b)では、黒色と白色の領域の分布が似通っていることが理解できる。つまり、第1特徴量の分布が図16(a)と図16(b)では似ている。一方、図16(c)の第1特徴量画像には、図16(a)の第1特徴量画像よりも上側の領域にて、明らかに黒色の領域が多いことが理解できる。つまり、第1特徴量の分布が図16(a)と図16(c)では似ていない。   Comparing the three first feature amount images, it can be understood that the distributions of the black and white regions are similar in FIGS. 16 (a) and 16 (b). That is, the distribution of the first feature amount is similar between FIG. 16 (a) and FIG. 16 (b). On the other hand, it can be understood that the first feature quantity image of FIG. 16C has a clear black area in the area above the first feature quantity image of FIG. That is, the distribution of the first feature amount is not similar between FIG. 16 (a) and FIG. 16 (c).

このような第1特徴量の分布の相違、非相違は第1特徴量ベクトル間の差分値に反映される。例えば、図16(a)と図16(b)では、サンプリング座標が同じであれば、当該サンプリング座標での第1特徴量はほとんど同じであると考えられる。つまり、図16(a)に示す第1特徴量画像から算出された第1特徴量ベクトルと、図16(b)に示す第1特徴量画像から算出された第1特徴量ベクトルの各要素間の差分値の合計は小さな値となる。   Such a difference or non-difference in the distribution of the first feature value is reflected in the difference value between the first feature value vectors. For example, in FIG. 16A and FIG. 16B, if the sampling coordinates are the same, the first feature amount at the sampling coordinates is considered to be almost the same. That is, between the elements of the first feature quantity vector calculated from the first feature quantity image shown in FIG. 16A and the first feature quantity vector calculated from the first feature quantity image shown in FIG. The sum of the difference values is a small value.

一方、図16(a)と図16(c)では、サンプリング座標が同じであっても、当該サンプリング座標での第1特徴量は大きく異なる。そのため、図16(a)に示す第1特徴量画像から算出された第1特徴量ベクトルと、図16(c)に示す第1特徴量画像から算出された第1特徴量ベクトルの各要素間の差分値の合計は大きな値となる。   On the other hand, in FIG. 16A and FIG. 16C, even if the sampling coordinates are the same, the first feature amount at the sampling coordinates is greatly different. Therefore, between the elements of the first feature quantity vector calculated from the first feature quantity image shown in FIG. 16A and the first feature quantity vector calculated from the first feature quantity image shown in FIG. The sum of the difference values is a large value.

このように、第1特徴量の分布の相違が第1特徴量ベクトル間の差分値に反映されるため、閾値を適切に定めることで、照合対象候補となるデータベース指紋画像の絞り込みが行える。具体的には、絞り込みの精度を高めたい場合には閾値を低く設定し、数多くの照合対象候補を得たい場合には、閾値を高く設定する。   As described above, since the difference in the distribution of the first feature values is reflected in the difference value between the first feature value vectors, it is possible to narrow down the database fingerprint images that are candidates for matching by appropriately determining the threshold value. Specifically, the threshold value is set low when it is desired to increase the accuracy of narrowing down, and the threshold value is set high when a large number of collation target candidates are desired.

上述のように、第1特徴量ベクトルの比較により照合対象候補の抽出は可能である。しかし、第1特徴量は、各特徴点の特徴点方向の回転方向(時計回り、反時計回り)に関する特徴が反映されるに留まっている。そのため、例えば、図7を参照すると、特徴点方向線が中心点から離れる方向であっても近づく方向であっても、与えられる第1特徴量は同じことになる。   As described above, the comparison target candidate can be extracted by comparing the first feature vector. However, the first feature amount only reflects the feature regarding the rotation direction (clockwise, counterclockwise) of the feature point direction of each feature point. Therefore, for example, referring to FIG. 7, the first feature amount to be given is the same regardless of whether the feature point direction line is away from or close to the center point.

しかし、中心点に対する向きは、指紋画像における貴重な特徴と考えられるところ、当該特徴を考慮することでより精度良く照合対象候補を抽出できる。そこで、照合対象抽出装置30では、このような特徴量(第2特徴量;中心点に対する特徴点方向の向き)を照合対象候補の決定に利用する。具体的には、照合対象抽出装置30は、第2特徴量画像から算出した第2特徴量ベクトルを照合対象候補の決定に利用する。   However, since the orientation with respect to the center point is considered to be a valuable feature in the fingerprint image, the candidate for collation can be extracted with higher accuracy by considering the feature. Therefore, the collation target extraction device 30 uses such a feature amount (second feature amount; the direction of the feature point direction with respect to the center point) for determination of a collation target candidate. Specifically, the collation target extraction device 30 uses the second feature quantity vector calculated from the second feature quantity image to determine a collation target candidate.

図17は、第2特徴量画像の一例を示す図である。図17は、図16に示す各指紋画像に対応する第2特徴量画像の一例を示している。図17を参照すると、第2特徴量の相違は、指紋画像の下側の領域に現れることが理解できる。多くの人の指紋画像の上側の領域における隆線は、同心円状であることが多いためたと考えられる。一方、指紋画像の下側の領域における隆線は、同心円状とならず個人間で紋様が大きく異なるためと考えられる。   FIG. 17 is a diagram illustrating an example of the second feature amount image. FIG. 17 shows an example of a second feature amount image corresponding to each fingerprint image shown in FIG. Referring to FIG. 17, it can be understood that the difference in the second feature amount appears in the lower region of the fingerprint image. This is probably because the ridges in the upper region of many human fingerprint images are often concentric. On the other hand, the ridges in the lower region of the fingerprint image are not concentric, and the pattern is greatly different among individuals.

第2特徴量ベクトルには、主に指紋画像の下側の領域の相違が反映される。そこで、第1特徴量ベクトルと同様に閾値を用いた判別処理を適用することで、より精度のよい照合対象候補を決定できる。   The second feature vector mainly reflects the difference in the lower area of the fingerprint image. Therefore, by applying a discrimination process using a threshold value in the same manner as the first feature vector, a more accurate collation target candidate can be determined.

以上の照合対象抽出装置30の動作をまとめると、図18に示すフローチャートのとおりとなる。   The operation of the collation target extraction device 30 is summarized as shown in the flowchart of FIG.

初めに、照合対象決定部206は、指紋画像(データベース指紋画像、入力指紋画像)を入力する(ステップS101)。次に、照合対象決定部206は、指紋画像から特徴点を抽出し、特徴点ごとの特徴点方向を計算する(ステップS102)。   First, the collation target determining unit 206 inputs a fingerprint image (database fingerprint image, input fingerprint image) (step S101). Next, the collation target determination unit 206 extracts feature points from the fingerprint image and calculates the feature point direction for each feature point (step S102).

照合対象決定部206は、抽出された各特徴点に関する第1特徴量を画素値とする第1特徴量画像を生成する(ステップS103)。次に、照合対象決定部206は、生成された第1特徴量画像を平滑化する(ステップS104)。その後、照合対象決定部206は、平滑化された第1特徴量画像から指紋画像に対応する第1特徴量ベクトルを算出する(ステップS105)。   The collation target determining unit 206 generates a first feature amount image having the first feature amount relating to each extracted feature point as a pixel value (step S103). Next, the collation target determination unit 206 smoothes the generated first feature value image (step S104). Thereafter, the collation target determining unit 206 calculates a first feature vector corresponding to the fingerprint image from the smoothed first feature image (step S105).

照合対象決定部206は、抽出された各特徴点に関する第2特徴量を画素値とする第2特徴量画像を生成する(ステップS106)。次に、照合対象決定部206は、生成された第2特徴量画像を平滑化する(ステップS107)。その後、照合対象決定部206は、平滑化された第2特徴量画像から指紋画像に対応する第2特徴量ベクトルを算出する(ステップS108)。   The collation target determining unit 206 generates a second feature amount image having the second feature amount relating to each extracted feature point as a pixel value (step S106). Next, the collation target determining unit 206 smoothes the generated second feature amount image (step S107). Thereafter, the collation target determining unit 206 calculates a second feature quantity vector corresponding to the fingerprint image from the smoothed second feature quantity image (step S108).

データベース指紋画像と入力指紋画像のそれぞれについて、第1及び第2の特徴量ベクトルの算出が終了すると、照合対象決定部206は、各指紋画像に対応する特徴量ベクトルVdと特徴量ベクトルViに基づき、照合対象候補の抽出を行う(ステップS109)。   When the calculation of the first and second feature quantity vectors for each of the database fingerprint image and the input fingerprint image is completed, the collation target determining unit 206 is based on the feature quantity vector Vd and the feature quantity vector Vi corresponding to each fingerprint image. The candidate for collation is extracted (step S109).

なお、図18に示すフローチャートは例示であって、各ステップの実行順序等を限定する趣旨ではない。例えば、第2特徴量ベクトルを、第1特徴量ベクトルよりも先に算出してもよいし、2つの特徴量ベクトルを並行して算出してもよい。   Note that the flowchart shown in FIG. 18 is an example, and is not intended to limit the execution order of each step. For example, the second feature quantity vector may be calculated before the first feature quantity vector, or two feature quantity vectors may be calculated in parallel.

図2を参照して照合対象抽出システムの説明を行ったが、システム構成を図2の構成に限定する趣旨ではない。例えば、データベース20に相当する記憶部が照合対象抽出装置30に含まれていてもよいし、照合対象抽出装置30に指紋を撮影するスキャナ機能が含まれていてもよい。あるいは、入力指紋画像はネットワークを介して送信され、照合対象抽出装置30に入力されてもよい。   Although the verification target extraction system has been described with reference to FIG. 2, the system configuration is not limited to the configuration of FIG. For example, a storage unit corresponding to the database 20 may be included in the verification target extraction device 30, or the verification target extraction device 30 may include a scanner function for photographing a fingerprint. Alternatively, the input fingerprint image may be transmitted via a network and input to the verification target extraction device 30.

また、データベース20には指紋画像が記憶されているものとして説明を行ったが、データベース20には蓄積された指紋画像の特徴量ベクトルが記憶されていてもよい。この場合には、照合対象抽出装置30は、データベース指紋画像の取得に替えて、特徴量ベクトルを取得し、当該特徴量ベクトルと入力指紋画像から算出する特徴量ベクトルを比較することになる。このような構成を採用することで、照合対象候補の決定に係る処理を高速に実行することができる。   Although the database 20 has been described as being stored with fingerprint images, the database 20 may store feature vectors of accumulated fingerprint images. In this case, instead of acquiring the database fingerprint image, the verification target extraction device 30 acquires a feature amount vector, and compares the feature amount vector with a feature amount vector calculated from the input fingerprint image. By adopting such a configuration, it is possible to execute a process related to determination of a candidate for collation at high speed.

あるいは、照合対象抽出装置30がデータベース指紋画像の特徴量ベクトルを算出するたびに当該特徴量ベクトルをデータベース20に書き戻し、必要に応じて書き戻された特徴量ベクトルを再利用する構成であってもよい。   Alternatively, every time the collation target extraction device 30 calculates a feature vector of a database fingerprint image, the feature vector is written back to the database 20, and the rewritten feature vector is reused as necessary. Also good.

第1の実施形態では、指紋画像から特徴量ベクトルを算出する手段(特徴量ベクトル算出部301)と、照合対象候補を抽出する手段(照合対象候補抽出部302)と、同一の装置である照合対象抽出装置30に含まれる場合について説明した。しかし、これら2つの手段が別々の装置にて実現されていてもよい。   In the first embodiment, the means for calculating a feature vector from a fingerprint image (feature vector calculation unit 301), the unit for extracting a candidate for collation (collation target candidate extraction unit 302), and collation of the same device The case of being included in the target extraction device 30 has been described. However, these two means may be realized by separate devices.

第1の実施形態では、特徴量ベクトル算出部301がデータベース指紋画像の特徴量ベクトルVd(照合側特徴量ベクトル)と入力指紋画像の特徴量ベクトルVi(検索側特徴量ベクトル)の算出を兼ねる構成を説明した。しかし、これらの特徴量ベクトルを生成する手段を分離して設けてもよい。この場合には、図19に示すように、照合対象決定部206に、2つの特徴量ベクトル算出部301a、301bを設け、照合側特徴量ベクトルと検索側特徴量ベクトルを照合対象候補抽出部302に提供する。   In the first embodiment, the feature vector calculating unit 301 is configured to calculate the feature vector Vd (matching-side feature vector) of the database fingerprint image and the feature vector Vi (search-side feature vector) of the input fingerprint image. Explained. However, means for generating these feature quantity vectors may be provided separately. In this case, as shown in FIG. 19, the collation target determination unit 206 is provided with two feature quantity vector calculation units 301a and 301b, and the collation side feature quantity vector and the search side feature quantity vector are collated target candidate extraction unit 302. To provide.

あるいは、第1特徴量画像平滑部404と第2特徴量画像平滑部405や、第1特徴量ベクトル算出部406と第2特徴量ベクトル算出部407等の機能を統合して1つのモジュールにて実現してもよい。   Alternatively, the functions of the first feature value image smoothing unit 404 and the second feature value image smoothing unit 405, the first feature value vector calculating unit 406, the second feature value vector calculating unit 407, and the like are integrated in one module. It may be realized.

なお、第1の実施形態での説明は、指紋画像の解像度(画素数)に関しては言及しなかったが、必要に応じて指紋画像の解像度を変更してもよい。例えば、データベース指紋画像を取得した装置と入力指紋画像を取得する装置(指紋撮影装置10)から得られる画像の解像度が異なる場合には、いずれかの解像度に合わせる等の変換処理を行ってもよい。あるいは、指紋画像の解像度が照合対象候補の抽出に係る用途には高すぎるなどの場合には、指紋画像の解像度を減ずる処理を行った後に、第1及び第2特徴量画像を生成してもよい。   In the description of the first embodiment, the resolution (number of pixels) of the fingerprint image is not mentioned, but the resolution of the fingerprint image may be changed as necessary. For example, when the resolution of an image obtained from a device that acquires a database fingerprint image and a device that acquires an input fingerprint image (fingerprint imaging device 10) is different, conversion processing such as matching to any resolution may be performed. . Alternatively, if the resolution of the fingerprint image is too high for the use related to extraction of the candidate for collation, the first and second feature amount images may be generated after performing the process of reducing the resolution of the fingerprint image. Good.

第1の実施形態では、特徴量(第1特徴量、第2特徴量)を算出する際に、基準線(第1基準線、第2基準線)に対する特徴点方向線の相対的な角度を使用する。相対的な角度を用いることで、指紋画像の歪みの影響をキャンセルできるためである。例えば、データベース指紋画像は右方向に歪み、同一の人物から取得した入力指紋画像は左方向に歪んでいる場合には、これらの指紋画像における特徴点方向の絶対的な角度(特徴量)は異なる値となる。しかし、指紋画像が歪んだとしても、特徴量の算出に相対的な角度を用いることで、歪みの影響がキャンセルされる。換言するならば、データベース指紋画像と入力指紋画像が、歪みを考慮する必要がないほど良好なものであれば、指紋画像に設定されたXY座標系での絶対角度(例えば、図7(a)の角度α2や図9(a)の角度β2)を用いて特徴量を算出してもよい。   In the first embodiment, when calculating feature amounts (first feature amount, second feature amount), a relative angle of a feature point direction line with respect to a reference line (first reference line, second reference line) is calculated. use. This is because the influence of the distortion of the fingerprint image can be canceled by using the relative angle. For example, when the database fingerprint image is distorted in the right direction and the input fingerprint images acquired from the same person are distorted in the left direction, the absolute angles (feature amounts) in the feature point directions in these fingerprint images are different. Value. However, even if the fingerprint image is distorted, the influence of the distortion is canceled by using a relative angle for calculating the feature amount. In other words, if the database fingerprint image and the input fingerprint image are so good that distortion does not need to be considered, the absolute angle in the XY coordinate system set for the fingerprint image (for example, FIG. 7A) The feature amount may be calculated using the angle α2 of FIG. 9 or the angle β2 of FIG.

なお、第1特徴量画像平滑部404や第2特徴量画像平滑部405にて、特徴量画像の平滑化を行っているが、平滑化処理が不要の場合もある。例えば、データベース指紋画像と入力指紋画像の画質が共に良い場合には、平滑化処理は不要である。   Note that the first feature quantity image smoothing unit 404 and the second feature quantity image smoothing unit 405 perform smoothing of the feature quantity image, but smoothing processing may not be necessary. For example, if both the database fingerprint image and the input fingerprint image have good image quality, the smoothing process is unnecessary.

さらに、第1の実施形態では、データベース指紋画像と入力指紋画像のそれぞれに含まれる情報量が、実質的に同じであるという前提であるが、実際には一方の画像にある領域が他方の画像には存在しない場合もあり得る。このような場合、両者の指紋画像が同じ人物の指紋から採取されたものであっても、両者の指紋画像の特徴量ベクトルを比較した際、差分値の合計が閾値よりも大きくなる可能性がある。そのため、特徴点を抽出する際、指紋の一部が欠けている又は画像が鮮明ではない等の判別を行い、画像の不備が検出された箇所では特徴量ベクトルの比較を行わない(差分値を計算しない)等の対策を行うのが望ましい。   Furthermore, in the first embodiment, it is assumed that the amount of information included in each of the database fingerprint image and the input fingerprint image is substantially the same, but in reality, an area in one image is the other image. May not exist. In such a case, even if both fingerprint images are collected from the fingerprints of the same person, when the feature amount vectors of both fingerprint images are compared, the sum of the difference values may be larger than the threshold value. is there. Therefore, when extracting feature points, it is determined whether a part of the fingerprint is missing or the image is not clear, and the feature vector is not compared at a location where an image defect is detected (difference value is not calculated). It is desirable to take measures such as not calculating.

あるいは、データベース指紋画像の特徴量ベクトルVdと入力指紋画像の特徴量ベクトルViの比較の際に、各特徴量の品質を考慮してもよい。具体的には、指紋画像から特徴点を抽出する際に、当該特徴点の品質も算出する。そして、特徴量ベクトルVdと特徴量ベクトルViの要素間の差分値を計算する際に、検出した特徴点の品質を反映させる。例えば、両特徴量ベクトルの要素間の差分値を算出する際に、データベース指紋画像の特徴点の品質値と入力指紋画像の特徴点の品質値のいずれか値の小さい方を、上記差分値に乗算する。いずれか一方の指紋画像における特徴点の品質が極めて低い場合には、当該品質を示す品質値もまた極めて小さい値となる。このような値を差分値に乗算することで、品質の低い特徴点を実質的に無効化できる。なお、特徴点の品質の算出には種々の方法を用いることができる。   Alternatively, the quality of each feature quantity may be taken into consideration when comparing the feature quantity vector Vd of the database fingerprint image and the feature quantity vector Vi of the input fingerprint image. Specifically, when extracting feature points from a fingerprint image, the quality of the feature points is also calculated. Then, when the difference value between the elements of the feature quantity vector Vd and the feature quantity vector Vi is calculated, the quality of the detected feature point is reflected. For example, when calculating the difference value between elements of both feature quantity vectors, the smaller of the quality value of the feature point of the database fingerprint image and the quality value of the feature point of the input fingerprint image is used as the difference value. Multiply. When the quality of the feature point in either one of the fingerprint images is extremely low, the quality value indicating the quality is also a very small value. By multiplying such a value by the difference value, a low-quality feature point can be substantially invalidated. Various methods can be used to calculate the quality of feature points.

第1の実施形態にて説明した照合対象候補の決定方法は、他の照合対象候補決定方法と組み合わせて使用することも可能である。例えば、特許文献1に開示された指紋隆線の形状から照合対象候補を絞り込んだ後に、上述の照合対象候補の決定処理を実行する形態であってもよい。   The verification target candidate determination method described in the first embodiment can also be used in combination with other verification target candidate determination methods. For example, after the collation target candidates are narrowed down from the shape of the fingerprint ridge disclosed in Patent Document 1, the above-described collation target candidate determination process may be executed.

なお、照合対象決定部206は、照合対象抽出装置30に搭載されたコンピュータに、そのハードウェアを用いて、照合対象決定部206における各部の処理を実行させるコンピュータプログラムにより実現することもできる。また、コンピュータの記憶部に照合対象抽出プログラムをインストールすることにより、コンピュータを照合対象抽出装置として機能させることができる。あるいは、照合対象抽出プログラムをコンピュータに実行させることにより、コンピュータにより照合対象抽出方法を実行することができる。   The collation target determination unit 206 can also be realized by a computer program that causes a computer installed in the collation target extraction device 30 to execute the processing of each unit in the collation target determination unit 206 using its hardware. Further, by installing the verification target extraction program in the storage unit of the computer, the computer can function as a verification target extraction device. Alternatively, the computer can execute the verification target extraction method by causing the computer to execute the verification target extraction program.

以上のように、第1の実施形態に係る照合対象抽出装置30では、データベース指紋画像と入力指紋画像のそれぞれについて特徴量ベクトルを算出し、これらの特徴量ベクトルを比較することで照合対象候補を決定する。データベース指紋画像には、指紋隆線の方向がほぼ一致するため、一見すると同一人物の指紋画像と判定されるようなデータベース指紋画像も含まれると考えられる。ここで、第1の実施形態にて算出される特徴量ベクトルには、特徴点の特徴量(第1特徴量、第2特徴量)だけではなく、特徴量の分布に関する情報が含まれる。しかし、上記のような指紋隆線の方向がほぼ一致するようなデータベース指紋画像であっても、特徴量の分布まで一致する画像は希であるから、第1の実施形態に係る照合対象抽出装置30では上記のようなデータベース指紋画像を照合対象候補と決定することがない。即ち、照合対象候補を選択する際の精度を向上させた照合対象抽出装置を提供できる。   As described above, the collation target extraction device 30 according to the first embodiment calculates feature quantity vectors for each of the database fingerprint image and the input fingerprint image, and compares these feature quantity vectors to obtain collation target candidates. decide. The database fingerprint image is considered to include a database fingerprint image that is judged to be a fingerprint image of the same person at first glance because the directions of the fingerprint ridges are almost the same. Here, the feature quantity vector calculated in the first embodiment includes not only the feature quantity feature quantity (first feature quantity and second feature quantity) but also information related to the feature quantity distribution. However, even in the case of a database fingerprint image in which the directions of the fingerprint ridges substantially match as described above, since the images that match the distribution of the feature amount are rare, the collation target extraction device according to the first embodiment In 30, the database fingerprint image as described above is not determined as a collation target candidate. That is, it is possible to provide a collation target extraction device that improves the accuracy in selecting a collation target candidate.

上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
[付記1]
検索対象の指紋画像内の複数の特徴点それぞれが有する特徴点方向に関する特徴量であって指紋画像内の基準点に対する前記特徴点方向の回転方向から算出される、複数の第1特徴量を要素とする第1特徴量ベクトルと、
前記特徴点方向に関する特徴量であって前記基準点に対する前記特徴点方向の向きから算出される、複数の第2特徴量を要素とする第2特徴量ベクトルと、を算出する特徴量ベクトル算出部を備える、指紋画像処理装置。
[付記2]
前記第1及び第2特徴量ベクトルから生成される前記検索対象の指紋画像に対応する検索側特徴量ベクトルと、照合対象の指紋画像に対応する特徴量ベクトルであって前記第1及び第2特徴量ベクトルの要素と同種の要素からなる照合側特徴量ベクトルと、を比較することで、複数の前記照合対象の指紋画像のなかから、前記検索対象の指紋画像に対する照合対象候補を抽出する照合対象候補抽出部をさらに備える、付記1の指紋画像処理装置。
[付記3]
前記特徴量ベクトル算出部は、前記基準点と前記特徴点を結ぶ第1基準線と前記特徴点方向の直線がなす角度を定量化して前記第1特徴量を算出する、付記1又は2の指紋画像処理装置。
[付記4]
前記特徴量ベクトル算出部は、前記第1基準線と直交する第2基準線と前記特徴点方向の直線がなす角度を定量化して前記第2特徴量を算出する、付記3の指紋画像処理装置。
[付記5]
前記特徴量ベクトル算出部は、
前記指紋画像から前記複数の特徴点を抽出する特徴点抽出部と、
前記抽出された特徴点それぞれに対応する前記指紋画像の画素値を、前記第1特徴量とすることで第1特徴量画像を生成する第1特徴量画像生成部と、
前記第1特徴量画像から複数の画素を選択し、前記選択された複数の画素から得られる前記第1特徴量を並べることで前記第1特徴量ベクトルを算出する第1特徴量ベクトル算出部と、
前記抽出された特徴点それぞれに対応する前記指紋画像の画素値を、前記第2特徴量とすることで第2特徴量画像を生成する第2特徴量画像生成部と、
前記第2特徴量画像から複数の画素を選択し、前記選択された複数の画素から得られる前記第2特徴量を並べることで前記第2特徴量ベクトルを算出する第2特徴量ベクトル算出部と、
を備える付記1乃至4のいずれか一に記載の指紋画像処理装置。
[付記6]
前記特徴量ベクトル算出部は、
前記第1特徴量画像の画素値を、当該画素の周辺にある画素の画素値を用いて平滑化する第1特徴量画像平滑部と、
前記第2特徴量画像の画素値を、当該画素の周辺にある画素の画素値を用いて平滑化する第2特徴量画像平滑部と、
をさらに備える付記5の指紋画像処理装置。
[付記7]
前記第1特徴量ベクトル算出部は、前記第1特徴量画像をなす複数の画素から、格子状に規定されたサンプリング位置の画素を選択し、前記サンプリング位置の画素から前記第1特徴量を取得し、
前記第2特徴量ベクトル算出部は、前記第2特徴量画像をなす複数の画素から、前記サンプリング位置の画素を選択し、前記サンプリング位置の画素から前記第2特徴量を取得する、付記5又は6の指紋画像処理装置。
[付記8]
前記照合対象候補抽出部は、前記検索側特徴量ベクトルと前記照合側特徴量ベクトルそれぞれに対応する要素の差分値を算出し、前記算出された差分値の合計値と閾値を比較することで前記検索対象の指紋画像に対する照合対象候補を抽出する、付記2乃至7のいずれか一に記載の指紋画像処理装置。
[付記9]
前記特徴量ベクトル算出部は、前記第1及び第2特徴量ベクトルを合成することで、前記検索側特徴量ベクトルを生成する特徴量ベクトル生成部をさらに備える付記2乃至8のいずれか一に記載の指紋画像処理装置。
[付記10]
前記特徴量ベクトル算出部は、前記照合対象の指紋画像に関する前記第1及び第2特徴量ベクトルを算出し、
前記特徴量ベクトル生成部は、前記照合対象の指紋画像に関する前記第1及び第2特徴量ベクトルを合成することで、前記照合側特徴量ベクトルを生成する、付記9の指紋画像処理装置。
[付記11]
前記特徴点抽出部は、前記指紋画像に含まれる隆線の端点及び隆線の分岐点の少なくとも一方を特徴点として抽出する、付記5乃至10のいずれか一に記載の指紋画像処理装置。
[付記12]
検索対象の指紋画像内の複数の特徴点それぞれが有する特徴点方向に関する特徴量であって指紋画像内の基準点に対する前記特徴点方向の回転方向から算出される、複数の第1特徴量を要素とする第1特徴量ベクトルを算出する工程と、
前記特徴点方向に関する特徴量であって前記基準点に対する前記特徴点方向の向きから算出される、複数の第2特徴量を要素とする第2特徴量ベクトルを算出する工程と、
を含む指紋画像処理方法。
[付記13]
検索対象の指紋画像内の複数の特徴点それぞれが有する特徴点方向に関する特徴量であって指紋画像内の基準点に対する前記特徴点方向の回転方向から算出される、複数の第1特徴量を要素とする第1特徴量ベクトルを算出する処理と、
前記特徴点方向に関する特徴量であって前記基準点に対する前記特徴点方向の向きから算出される、複数の第2特徴量を要素とする第2特徴量ベクトルを算出する処理と、
を指紋画像処理装置を制御するコンピュータに実行させるプログラム。
なお、付記12及び付記13の形態は、付記1の形態と同様に、付記2の形態〜付記11の形態に展開することが可能である。
A part or all of the above embodiments can be described as in the following supplementary notes, but is not limited thereto.
[Appendix 1]
A plurality of first feature amounts calculated from a rotation direction of the feature point direction with respect to a reference point in the fingerprint image, which is a feature amount of each of the plurality of feature points in the fingerprint image to be searched. A first feature vector,
A feature quantity vector calculation unit for calculating a feature quantity related to the feature point direction and a second feature quantity vector having a plurality of second feature quantities as elements, which is calculated from an orientation of the feature point direction with respect to the reference point A fingerprint image processing apparatus.
[Appendix 2]
A search-side feature quantity vector corresponding to the search target fingerprint image generated from the first and second feature quantity vectors, and a feature quantity vector corresponding to the fingerprint image to be collated, the first and second features A collation target for extracting a collation target candidate for the fingerprint image to be searched from among a plurality of fingerprint images to be collated by comparing the elements of the quantity vector with a collation-side feature vector comprising the same type of elements The fingerprint image processing apparatus according to appendix 1, further comprising a candidate extraction unit.
[Appendix 3]
The fingerprint according to appendix 1 or 2, wherein the feature quantity vector calculation unit calculates the first feature quantity by quantifying an angle formed by a first reference line connecting the reference point and the feature point and a straight line in the feature point direction. Image processing device.
[Appendix 4]
The fingerprint image processing apparatus according to appendix 3, wherein the feature quantity vector calculation unit calculates the second feature quantity by quantifying an angle formed by a second reference line orthogonal to the first reference line and a straight line in the feature point direction. .
[Appendix 5]
The feature vector calculation unit includes:
A feature point extraction unit for extracting the plurality of feature points from the fingerprint image;
A first feature amount image generating unit that generates a first feature amount image by setting a pixel value of the fingerprint image corresponding to each of the extracted feature points as the first feature amount;
A first feature vector calculation unit that calculates a first feature vector by selecting a plurality of pixels from the first feature image and arranging the first feature obtained from the plurality of selected pixels; ,
A second feature amount image generating unit that generates a second feature amount image by setting a pixel value of the fingerprint image corresponding to each of the extracted feature points as the second feature amount;
A second feature quantity vector calculating unit that calculates a second feature quantity vector by selecting a plurality of pixels from the second feature quantity image and arranging the second feature quantities obtained from the selected plurality of pixels; ,
The fingerprint image processing apparatus according to any one of appendices 1 to 4, further comprising:
[Appendix 6]
The feature vector calculation unit includes:
A first feature amount image smoothing unit that smoothes pixel values of the first feature amount image using pixel values of pixels around the pixel;
A second feature amount image smoothing unit that smoothes pixel values of the second feature amount image using pixel values of pixels around the pixel;
The fingerprint image processing apparatus according to appendix 5, further comprising:
[Appendix 7]
The first feature vector calculating unit selects a pixel at a sampling position defined in a lattice shape from a plurality of pixels forming the first feature image, and acquires the first feature from the pixel at the sampling position And
The second feature quantity vector calculation unit selects a pixel at the sampling position from a plurality of pixels forming the second feature quantity image, and acquires the second feature quantity from the pixel at the sampling position. 6 fingerprint image processing apparatus;
[Appendix 8]
The collation target candidate extraction unit calculates a difference value between elements corresponding to each of the search-side feature quantity vector and the collation-side feature quantity vector, and compares the total value of the calculated difference values with a threshold. The fingerprint image processing apparatus according to any one of appendices 2 to 7, wherein a collation target candidate for a fingerprint image to be searched is extracted.
[Appendix 9]
The feature quantity vector calculation unit further includes a feature quantity vector generation unit that generates the search-side feature quantity vector by combining the first and second feature quantity vectors. Fingerprint image processing device.
[Appendix 10]
The feature vector calculating unit calculates the first and second feature vectors related to the fingerprint image to be collated;
The fingerprint image processing apparatus according to appendix 9, wherein the feature vector generation unit generates the collation-side feature vector by combining the first and second feature vectors related to the fingerprint image to be collated.
[Appendix 11]
The fingerprint image processing apparatus according to any one of appendices 5 to 10, wherein the feature point extraction unit extracts at least one of a ridge end point and a ridge branch point included in the fingerprint image as a feature point.
[Appendix 12]
A plurality of first feature amounts calculated from a rotation direction of the feature point direction with respect to a reference point in the fingerprint image, which is a feature amount of each of the plurality of feature points in the fingerprint image to be searched. Calculating a first feature vector,
Calculating a second feature quantity vector having a plurality of second feature quantities as elements, which is a feature quantity relating to the feature point direction and calculated from the orientation of the feature point direction with respect to the reference point;
A fingerprint image processing method including:
[Appendix 13]
A plurality of first feature amounts calculated from a rotation direction of the feature point direction with respect to a reference point in the fingerprint image, which is a feature amount of each of the plurality of feature points in the fingerprint image to be searched. A process of calculating a first feature vector,
A process for calculating a second feature quantity vector having a plurality of second feature quantities as elements, which is a feature quantity related to the feature point direction and calculated from an orientation of the feature point direction with respect to the reference point;
For causing a computer that controls the fingerprint image processing apparatus to execute the program.
Note that the form of Supplementary Note 12 and Supplementary Note 13 can be expanded to the form of Supplementary Note 2 to the form of Supplementary Note 11, similarly to the form of Supplementary Note 1.

なお、引用した上記の特許文献の開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。   The disclosure of the cited patent document is incorporated herein by reference. Within the scope of the entire disclosure (including claims) of the present invention, the embodiments and examples can be changed and adjusted based on the basic technical concept. In addition, various combinations or selections of various disclosed elements (including each element in each claim, each element in each embodiment or example, each element in each drawing, etc.) within the scope of the entire disclosure of the present invention. Is possible. That is, the present invention of course includes various variations and modifications that could be made by those skilled in the art according to the entire disclosure including the claims and the technical idea. In particular, with respect to the numerical ranges described in this document, any numerical value or small range included in the range should be construed as being specifically described even if there is no specific description.

10 指紋撮影装置
20 データベース
30 照合対象抽出装置
100 指紋画像処理装置
101、301、301a、301b 特徴量ベクトル算出部
201 通信部
202 入力部
203 表示部
204 出力部
205 記憶部
206 照合対象決定部
302 照合対象候補抽出部
401 特徴点抽出部
402 第1特徴量画像生成部
403 第2特徴量画像生成部
404 第1特徴量画像平滑部
405 第2特徴量画像平滑部
406 第1特徴量ベクトル算出部
407 第2特徴量ベクトル算出部
408 特徴量ベクトル生成部
501〜503、511〜513 隆線
504、514 矢印
520〜528 画素
601〜604 領域
DESCRIPTION OF SYMBOLS 10 Fingerprint imaging | photography apparatus 20 Database 30 Collation target extraction apparatus 100 Fingerprint image processing apparatus 101,301,301a, 301b Feature-value vector calculation part 201 Communication part 202 Input part 203 Display part 204 Output part 205 Storage part 206 Collation target determination part 302 Collation Target candidate extraction unit 401 Feature point extraction unit 402 First feature amount image generation unit 403 Second feature amount image generation unit 404 First feature amount image smoothing unit 405 Second feature amount image smoothing unit 406 First feature amount vector calculation unit 407 Second feature vector calculation unit 408 Feature vector generation unit 501-503, 511-513 Ridge 504, 514 Arrow 520-528 Pixel 601-604 Region

Claims (13)

検索対象の指紋画像内の複数の特徴点それぞれが有する特徴点方向に関する特徴量であって指紋画像内の基準点に対する前記特徴点方向の回転方向から算出される、複数の第1特徴量を要素とする第1特徴量ベクトルと、
前記特徴点方向に関する特徴量であって前記基準点に対する前記特徴点方向の向きから算出される、複数の第2特徴量を要素とする第2特徴量ベクトルと、を算出する特徴量ベクトル算出部を備える、指紋画像処理装置。
A plurality of first feature amounts calculated from a rotation direction of the feature point direction with respect to a reference point in the fingerprint image, which is a feature amount of each of the plurality of feature points in the fingerprint image to be searched. A first feature vector,
A feature quantity vector calculation unit for calculating a feature quantity related to the feature point direction and a second feature quantity vector having a plurality of second feature quantities as elements, which is calculated from an orientation of the feature point direction with respect to the reference point A fingerprint image processing apparatus.
前記第1及び第2特徴量ベクトルから生成される前記検索対象の指紋画像に対応する検索側特徴量ベクトルと、照合対象の指紋画像に対応する特徴量ベクトルであって前記第1及び第2特徴量ベクトルの要素と同種の要素からなる照合側特徴量ベクトルと、を比較することで、複数の前記照合対象の指紋画像のなかから、前記検索対象の指紋画像に対する照合対象候補を抽出する照合対象候補抽出部をさらに備える、請求項1の指紋画像処理装置。   A search-side feature quantity vector corresponding to the search target fingerprint image generated from the first and second feature quantity vectors, and a feature quantity vector corresponding to the fingerprint image to be collated, the first and second features A collation target for extracting a collation target candidate for the fingerprint image to be searched from among a plurality of fingerprint images to be collated by comparing the elements of the quantity vector with a collation-side feature vector comprising the same type of elements The fingerprint image processing apparatus according to claim 1, further comprising a candidate extraction unit. 前記特徴量ベクトル算出部は、前記基準点と前記特徴点を結ぶ第1基準線と前記特徴点方向の直線がなす角度を定量化して前記第1特徴量を算出する、請求項1又は2の指紋画像処理装置。   The feature quantity vector calculation unit calculates the first feature quantity by quantifying an angle formed by a first reference line connecting the reference point and the feature point and a straight line in the feature point direction. Fingerprint image processing device. 前記特徴量ベクトル算出部は、前記第1基準線と直交する第2基準線と前記特徴点方向の直線がなす角度を定量化して前記第2特徴量を算出する、請求項3の指紋画像処理装置。   4. The fingerprint image processing according to claim 3, wherein the feature amount vector calculation unit calculates the second feature amount by quantifying an angle formed by a straight line in the feature point direction and a second reference line orthogonal to the first reference line. 5. apparatus. 前記特徴量ベクトル算出部は、
前記指紋画像から前記複数の特徴点を抽出する特徴点抽出部と、
前記抽出された特徴点それぞれに対応する前記指紋画像の画素値を、前記第1特徴量とすることで第1特徴量画像を生成する第1特徴量画像生成部と、
前記第1特徴量画像から複数の画素を選択し、前記選択された複数の画素から得られる前記第1特徴量を並べることで前記第1特徴量ベクトルを算出する第1特徴量ベクトル算出部と、
前記抽出された特徴点それぞれに対応する前記指紋画像の画素値を、前記第2特徴量とすることで第2特徴量画像を生成する第2特徴量画像生成部と、
前記第2特徴量画像から複数の画素を選択し、前記選択された複数の画素から得られる前記第2特徴量を並べることで前記第2特徴量ベクトルを算出する第2特徴量ベクトル算出部と、
を備える請求項1乃至4のいずれか一項に記載の指紋画像処理装置。
The feature vector calculation unit includes:
A feature point extraction unit for extracting the plurality of feature points from the fingerprint image;
A first feature amount image generating unit that generates a first feature amount image by setting a pixel value of the fingerprint image corresponding to each of the extracted feature points as the first feature amount;
A first feature vector calculation unit that calculates a first feature vector by selecting a plurality of pixels from the first feature image and arranging the first feature obtained from the plurality of selected pixels; ,
A second feature amount image generating unit that generates a second feature amount image by setting a pixel value of the fingerprint image corresponding to each of the extracted feature points as the second feature amount;
A second feature quantity vector calculating unit that calculates a second feature quantity vector by selecting a plurality of pixels from the second feature quantity image and arranging the second feature quantities obtained from the selected plurality of pixels; ,
The fingerprint image processing apparatus according to any one of claims 1 to 4, further comprising:
前記特徴量ベクトル算出部は、
前記第1特徴量画像の画素値を、当該画素の周辺にある画素の画素値を用いて平滑化する第1特徴量画像平滑部と、
前記第2特徴量画像の画素値を、当該画素の周辺にある画素の画素値を用いて平滑化する第2特徴量画像平滑部と、
をさらに備える請求項5の指紋画像処理装置。
The feature vector calculation unit includes:
A first feature amount image smoothing unit that smoothes pixel values of the first feature amount image using pixel values of pixels around the pixel;
A second feature amount image smoothing unit that smoothes pixel values of the second feature amount image using pixel values of pixels around the pixel;
The fingerprint image processing apparatus according to claim 5, further comprising:
前記第1特徴量ベクトル算出部は、前記第1特徴量画像をなす複数の画素から、格子状に規定されたサンプリング位置の画素を選択し、前記サンプリング位置の画素から前記第1特徴量を取得し、
前記第2特徴量ベクトル算出部は、前記第2特徴量画像をなす複数の画素から、前記サンプリング位置の画素を選択し、前記サンプリング位置の画素から前記第2特徴量を取得する、請求項5又は6の指紋画像処理装置。
The first feature vector calculating unit selects a pixel at a sampling position defined in a lattice shape from a plurality of pixels forming the first feature image, and acquires the first feature from the pixel at the sampling position And
6. The second feature quantity vector calculation unit selects a pixel at the sampling position from a plurality of pixels forming the second feature quantity image, and acquires the second feature quantity from the pixel at the sampling position. Or the fingerprint image processing apparatus of 6.
前記照合対象候補抽出部は、前記検索側特徴量ベクトルと前記照合側特徴量ベクトルそれぞれに対応する要素の差分値を算出し、前記算出された差分値の合計値と閾値を比較することで前記検索対象の指紋画像に対する照合対象候補を抽出する、請求項2に記載の指紋画像処理装置。 The collation target candidate extraction unit calculates a difference value between elements corresponding to each of the search-side feature quantity vector and the collation-side feature quantity vector, and compares the total value of the calculated difference values with a threshold. The fingerprint image processing apparatus according to claim 2, wherein a collation target candidate for a fingerprint image to be searched is extracted. 前記特徴量ベクトル算出部は、前記第1及び第2特徴量ベクトルを合成することで、前記検索側特徴量ベクトルを生成する特徴量ベクトル生成部をさらに備える請求項2に記載の指紋画像処理装置。 The fingerprint image processing apparatus according to claim 2, wherein the feature vector calculation unit further includes a feature vector generation unit that generates the search-side feature vector by combining the first and second feature vectors. . 前記特徴量ベクトル算出部は、前記照合対象の指紋画像に関する前記第1及び第2特徴量ベクトルを算出し、
前記特徴量ベクトル生成部は、前記照合対象の指紋画像に関する前記第1及び第2特徴量ベクトルを合成することで、前記照合側特徴量ベクトルを生成する、請求項9の指紋画像処理装置。
The feature vector calculating unit calculates the first and second feature vectors related to the fingerprint image to be collated;
The fingerprint image processing apparatus according to claim 9, wherein the feature vector generation unit generates the collation-side feature vector by combining the first and second feature vectors related to the fingerprint image to be collated.
前記特徴点抽出部は、前記指紋画像に含まれる隆線の端点及び隆線の分岐点の少なくとも一方を特徴点として抽出する、請求項5乃至のいずれか一項に記載の指紋画像処理装置。 The feature point extraction unit extracts the at least one branch point of the end points and ridge ridge included in the fingerprint image as a feature point, the fingerprint image processing apparatus according to any one of claims 5 to 7 . 検索対象の指紋画像内の複数の特徴点それぞれが有する特徴点方向に関する特徴量であって指紋画像内の基準点に対する前記特徴点方向の回転方向から算出される、複数の第1特徴量を要素とする第1特徴量ベクトルを算出する工程と、
前記特徴点方向に関する特徴量であって前記基準点に対する前記特徴点方向の向きから算出される、複数の第2特徴量を要素とする第2特徴量ベクトルを算出する工程と、
を含む指紋画像処理方法。
A plurality of first feature amounts calculated from a rotation direction of the feature point direction with respect to a reference point in the fingerprint image, which is a feature amount of each of the plurality of feature points in the fingerprint image to be searched. Calculating a first feature vector,
Calculating a second feature quantity vector having a plurality of second feature quantities as elements, which is a feature quantity relating to the feature point direction and calculated from the orientation of the feature point direction with respect to the reference point;
A fingerprint image processing method including:
検索対象の指紋画像内の複数の特徴点それぞれが有する特徴点方向に関する特徴量であって指紋画像内の基準点に対する前記特徴点方向の回転方向から算出される、複数の第1特徴量を要素とする第1特徴量ベクトルを算出する処理と、
前記特徴点方向に関する特徴量であって前記基準点に対する前記特徴点方向の向きから算出される、複数の第2特徴量を要素とする第2特徴量ベクトルを算出する処理と、
を指紋画像処理装置を制御するコンピュータに実行させるプログラム。
A plurality of first feature amounts calculated from a rotation direction of the feature point direction with respect to a reference point in the fingerprint image, which is a feature amount of each of the plurality of feature points in the fingerprint image to be searched. A process of calculating a first feature vector,
A process for calculating a second feature quantity vector having a plurality of second feature quantities as elements, which is a feature quantity related to the feature point direction and calculated from an orientation of the feature point direction with respect to the reference point;
For causing a computer that controls the fingerprint image processing apparatus to execute the program.
JP2014112657A 2014-05-30 2014-05-30 Fingerprint image processing apparatus, fingerprint image processing method and program Active JP6442873B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014112657A JP6442873B2 (en) 2014-05-30 2014-05-30 Fingerprint image processing apparatus, fingerprint image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014112657A JP6442873B2 (en) 2014-05-30 2014-05-30 Fingerprint image processing apparatus, fingerprint image processing method and program

Publications (2)

Publication Number Publication Date
JP2015228070A JP2015228070A (en) 2015-12-17
JP6442873B2 true JP6442873B2 (en) 2018-12-26

Family

ID=54885519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014112657A Active JP6442873B2 (en) 2014-05-30 2014-05-30 Fingerprint image processing apparatus, fingerprint image processing method and program

Country Status (1)

Country Link
JP (1) JP6442873B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6794766B2 (en) 2016-10-19 2020-12-02 日本電気株式会社 Fingerprint processing device, fingerprint processing method, program, fingerprint processing circuit
WO2018074601A1 (en) 2016-10-21 2018-04-26 日本電気株式会社 Synthesizing device, synthesizing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4303410B2 (en) * 2000-09-29 2009-07-29 富士通株式会社 Pattern center determining apparatus, pattern direction determining apparatus, pattern positioning apparatus, and pattern collating apparatus
JP4735372B2 (en) * 2006-03-30 2011-07-27 カシオ計算機株式会社 Fingerprint verification device and fingerprint verification method
JP2011253378A (en) * 2010-06-02 2011-12-15 Waseda Univ Authentication device and authentication method

Also Published As

Publication number Publication date
JP2015228070A (en) 2015-12-17

Similar Documents

Publication Publication Date Title
KR102415509B1 (en) Face verifying method and apparatus
JP5979451B2 (en) Verification result display device, verification result display method, program, and recording medium
CN107004113B (en) System and method for obtaining multi-modal biometric information
Berretti et al. Selecting stable keypoints and local descriptors for person identification using 3D face scans
Prakash et al. Human recognition using 3D ear images
US10740589B2 (en) Skin information processing method, skin information processing device, and non-transitory computer-readable medium
US10127681B2 (en) Systems and methods for point-based image alignment
JPWO2020050413A1 (en) Face image candidate determination device for authentication, face image candidate determination method for authentication, program, and recording medium
WO2018234384A1 (en) Detecting artificial facial images using facial landmarks
US10445546B2 (en) Authentication method and authentication apparatus using synthesized code for iris
US10740590B2 (en) Skin information processing method, skin information processing device, and non-transitory computer-readable medium
JP6739937B2 (en) Information processing apparatus, control method of information processing apparatus, and program
JP6442873B2 (en) Fingerprint image processing apparatus, fingerprint image processing method and program
US10430629B2 (en) Non-transitory computer-readable medium storing information processing program and information processing device
JP6526494B2 (en) INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING DEVICE
WO2015068417A1 (en) Image collation system, image collation method, and program
JP2013218605A (en) Image recognition device, image recognition method, and program
JP2020155159A (en) Synthesizing apparatus, synthesizing method, and program
JP5791361B2 (en) PATTERN IDENTIFICATION DEVICE, PATTERN IDENTIFICATION METHOD, AND PROGRAM
CN111753722B (en) Fingerprint identification method and device based on feature point type
Gonzalez et al. Improving presentation attack detection for ID cards on remote verification systems
JP6218237B2 (en) Image conversion program, apparatus and method for parallelizing photographed image
JP6542407B1 (en) Reading system, reading method, program, and storage medium
JP2017138743A (en) Image processing apparatus, image processing method, and program
JP2014232373A (en) Collation object extraction system, collation object extraction method, and collation object extraction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170404

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181112

R150 Certificate of patent or registration of utility model

Ref document number: 6442873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150