JP7239034B2 - Fingerprint processing device, fingerprint processing method, program, fingerprint processing circuit - Google Patents

Fingerprint processing device, fingerprint processing method, program, fingerprint processing circuit Download PDF

Info

Publication number
JP7239034B2
JP7239034B2 JP2022026934A JP2022026934A JP7239034B2 JP 7239034 B2 JP7239034 B2 JP 7239034B2 JP 2022026934 A JP2022026934 A JP 2022026934A JP 2022026934 A JP2022026934 A JP 2022026934A JP 7239034 B2 JP7239034 B2 JP 7239034B2
Authority
JP
Japan
Prior art keywords
fingerprint
representative
minutiae
image
fingerprint image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022026934A
Other languages
Japanese (ja)
Other versions
JP2022060505A (en
Inventor
聡 廣川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020188189A external-priority patent/JP7031717B2/en
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2022026934A priority Critical patent/JP7239034B2/en
Publication of JP2022060505A publication Critical patent/JP2022060505A/en
Application granted granted Critical
Publication of JP7239034B2 publication Critical patent/JP7239034B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Description

本発明は、指紋処理装置、指紋処理方法、プログラム、指紋処理回路に関する。 The present invention relates to a fingerprint processing device, a fingerprint processing method, a program, and a fingerprint processing circuit.

指紋照合を行う場合には一例として指紋画像から指紋の中心(コア)を算出し、その中心を基準とした特徴点の位置等の情報を用いて、指紋照合元と指紋照合先との画像の照合を行っている。しかしながら指紋画像における指紋の中心の位置の特定を誤ると、指紋の中心と各特徴点との関係がずれることにより、照合の精度が悪化する。指紋照合に関連する技術が特許文献1~特許文献3が開示されている。 When performing fingerprint matching, for example, the center of the fingerprint (core) is calculated from the fingerprint image, and information such as the position of the minutiae with respect to the center is used to compare the image of the fingerprint matching source and the fingerprint matching target. doing collation. However, if the position of the center of the fingerprint in the fingerprint image is specified incorrectly, the relationship between the center of the fingerprint and each minutiae is deviated, thereby degrading the matching accuracy. Patent Documents 1 to 3 disclose techniques related to fingerprint collation.

特開平10-177650号公報JP-A-10-177650 特開2015-228070号公報JP 2015-228070 A 特許第5822303号公報Japanese Patent No. 5822303

上述のような問題点の為、指紋の中心を特定しない指紋照合であって照合速度の速い指紋処理装置が求められている。 Due to the above-described problems, there is a demand for a fingerprint processing apparatus that performs fingerprint collation without specifying the center of the fingerprint and has a high collation speed.

そこでこの発明は、上述の課題を解決する指紋処理装置、指紋処理方法、プログラム、指紋処理回路を提供することを目的としている。 SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a fingerprint processing device, a fingerprint processing method, a program, and a fingerprint processing circuit that solve the above problems.

本発明の第1の態様によれば、指紋処理装置は、照合元の指紋画像において特定した指紋の複数の特徴点のうち、他の特徴点との間の各第一の距離のうち最小の距離を示す第一度合に基づく代表値が大きい方から順に選択された所定数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する照合処理部を有する。 According to the first aspect of the present invention, the fingerprint processing device, among the plurality of minutiae of the fingerprint specified in the fingerprint image to be collated, has the smallest first distance between each of the minutiae and other minutiae. A collation processing unit that determines a predetermined number of minutiae points selected in descending order of representative values based on the first degree of distance, as representative minutiae points to be used in the fingerprint collation processing.

本発明の第2の態様によれば、指紋処理方法は、照合元の指紋画像において特定した指紋の複数の特徴点のうち、他の特徴点との間の各第一の距離のうち最小の距離を示す第一度合に基づく代表値が大きい方から順に選択された所定数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する。 According to the second aspect of the present invention, the fingerprint processing method includes, among a plurality of minutiae points of a fingerprint specified in a fingerprint image to be collated, a minimum first distance between each minutiae point and other minutiae points. A predetermined number of minutiae points selected in descending order of the representative value based on the first match indicating the distance are determined as the representative minutiae points to be used in the fingerprint matching process.

本発明の第3の態様によれば、プログラムは、コンピュータに、照合元の指紋画像において特定した指紋の複数の特徴点のうち、他の特徴点との間の各第一の距離のうち最小の距離を示す第一度合に基づく代表値が大きい方から順に選択された所定数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定させる。 According to the third aspect of the present invention, the program instructs the computer, among the plurality of minutiae of the fingerprint specified in the fingerprint image to be collated, the smallest of the first distances between the other minutiae and the other minutiae. A predetermined number of minutiae points selected in descending order of the representative value based on the first match indicating the distance of the fingerprint are determined as the representative minutiae points to be used in the fingerprint matching process.

本発明の第4の態様によれば、指紋処理回路は、照合元の指紋画像において特定した指紋の複数の特徴点のうち、他の特徴点との間の各第一の距離のうち最小の距離を示す第一度合に基づく代表値が大きい方から順に選択された所定数の特徴点を、前記指紋の照合処理に用いる代表特徴点として判定する。 According to the fourth aspect of the present invention, the fingerprint processing circuit, among the plurality of minutiae of the fingerprint specified in the fingerprint image to be collated, minimizes each of the first distances between the minutiae and other minutiae. A predetermined number of minutiae points selected in descending order of the representative value based on the first match indicating the distance are determined as the representative minutiae points to be used in the fingerprint matching process.

本発明によれば、指紋の中心を特定せずとも速度が速く照合することのできる指紋処理装置、指紋処理方法、プログラム、指紋処理回路を提供することができる。 According to the present invention, it is possible to provide a fingerprint processing device, a fingerprint processing method, a program, and a fingerprint processing circuit that enable high-speed collation without specifying the center of a fingerprint.

指紋処理装置を含む指紋照合システムを示す図である。1 shows a fingerprint matching system including a fingerprint processing device; FIG. 指紋処理装置のハードウェア構成図である。2 is a hardware configuration diagram of a fingerprint processing device; FIG. 指紋処理装置の機能ブロック図である。3 is a functional block diagram of the fingerprint processing device; FIG. 指紋処理装置の処理フローを示す図である。It is a figure which shows the processing flow of a fingerprint processing apparatus. 特徴点検出部が検出する特徴点を説明するための図である。It is a figure for demonstrating the feature point which a feature point detection part detects. 指紋画像において判定された鮮明領域および不鮮明領域と特徴点とを示す図である。FIG. 3 is a diagram showing determined clear and blurred regions and minutiae in a fingerprint image; 指紋画像において判定された隆線の安定度を示す図である。FIG. 4 is a diagram showing the stability of ridges determined in a fingerprint image; 代表度算出フローを示す図である。It is a figure which shows a representative degree calculation flow. 特徴点と代表特徴点を視覚的に示す図である。FIG. 3 is a diagram visually showing feature points and representative feature points; 代表特徴点の特徴量の特定概要を示す第一の図である。FIG. 11 is a first diagram showing an overview of specifying feature amounts of representative feature points; 代表特徴点の特徴量を付与する処理フローを示す第一の図である。FIG. 10 is a first diagram showing a processing flow for assigning feature amounts of representative feature points; 指紋特徴量に基づく類似度の計算概要を示す第一の図である。FIG. 10 is a first diagram showing an outline of similarity calculation based on fingerprint feature quantities; 代表特徴点の特徴量の特定概要を示す第二の図である。FIG. 11 is a second diagram showing an overview of specifying feature amounts of representative feature points; 代表特徴点の特徴量の特定概要を示す第三の図である。FIG. 11 is a third diagram showing an overview of identifying feature amounts of representative feature points; 代表特徴点の特徴量を付与する処理フローを示す第二の図である。FIG. 10 is a second diagram showing a processing flow for assigning feature amounts of representative feature points; 指紋特徴量に基づく類似度の計算概要を示す第二の図である。FIG. 11 is a second diagram showing an outline of similarity calculation based on the fingerprint feature amount; 指紋処理装置の最少構成を示す図である。1 is a diagram showing the minimum configuration of a fingerprint processing device; FIG.

以下、本発明の一実施形態による指紋処理装置を図面を参照して説明する。
図1は同実施形態による指紋処理装置を含む指紋照合システムを示す図である。
指紋照合システムは、図1に示すように指紋処理装置1、指紋読取機2、データベース3を含んで構成されている。指紋処理装置1は指紋読取機2と通信ケーブルを介して接続されている。また指紋処理装置1はデータベース3と通信ケーブルを介して接続されている。指紋処理装置1は指紋読取機2から取得した指紋画像から得た指紋情報と、データベース3に格納されている指紋情報とを比較することにより指紋照合の処理を行う。データベース3には、予め多くの人の指紋画像から得られた指紋情報が記録される。
A fingerprint processing apparatus according to an embodiment of the present invention will now be described with reference to the drawings.
FIG. 1 is a diagram showing a fingerprint matching system including a fingerprint processing device according to the same embodiment.
The fingerprint collation system includes a fingerprint processor 1, a fingerprint reader 2, and a database 3, as shown in FIG. A fingerprint processing device 1 is connected to a fingerprint reader 2 via a communication cable. The fingerprint processing device 1 is also connected to the database 3 via a communication cable. The fingerprint processing device 1 compares the fingerprint information obtained from the fingerprint image obtained from the fingerprint reader 2 with the fingerprint information stored in the database 3 to perform fingerprint collation processing. Fingerprint information obtained from fingerprint images of many people is recorded in the database 3 in advance.

図2は指紋処理装置のハードウェア構成図である。
指紋処理装置1は、CPU(Central Processing Unit)11,RAM(Random Access Memory)12、ROM(Read Only Memory)13、SSD(Solid State Drive)14、通信モジュール15、表示画面16、IF(Interface)17などを備えてよい。指紋処理装置1はこのような各機能を備えたコンピュータである。
FIG. 2 is a hardware configuration diagram of the fingerprint processing device.
The fingerprint processing device 1 includes a CPU (Central Processing Unit) 11, a RAM (Random Access Memory) 12, a ROM (Read Only Memory) 13, an SSD (Solid State Drive) 14, a communication module 15, a display screen 16, an IF (Interface). 17 and the like. The fingerprint processing device 1 is a computer having such functions.

図3は指紋処理装置の機能ブロック図である。
指紋処理装置1はCPU11において指紋処理プログラムを実行する。これにより指紋処理装置1には、画像取得部21、鮮明度判定部22、隆線品質判定部23、特徴点検出部24、照合処理部25の機能を備える。また指紋処理装置1は記憶部15を備える。
FIG. 3 is a functional block diagram of the fingerprint processing device.
Fingerprint processing device 1 executes a fingerprint processing program in CPU 11 . Thus, the fingerprint processing apparatus 1 has the functions of an image acquisition section 21 , a sharpness determination section 22 , a ridge quality determination section 23 , a feature point detection section 24 and a collation processing section 25 . The fingerprint processing device 1 also includes a storage unit 15 .

画像取得部21は指紋読取機2より指紋画像を取得する。
鮮明度判定部22は指紋画像中の各画素の指紋の鮮明度を判定して分類する。
隆線品質判定部23は指紋画像中の各画素に写る指紋の隆線の品質を判定する。
特徴点検出部24は指紋画像に映る指紋の特徴点を検出する。
照合処理部25は画像取得部21の取得した指紋画像から得た指紋情報と、データベース3に記録されている複数の人の指紋情報との比較による照合処理を行う。
An image acquisition unit 21 acquires a fingerprint image from the fingerprint reader 2 .
The sharpness determination unit 22 determines and classifies the fingerprint sharpness of each pixel in the fingerprint image.
A ridge quality determination unit 23 determines the quality of the ridges of the fingerprint appearing in each pixel in the fingerprint image.
The minutiae detection unit 24 detects the minutiae of the fingerprint appearing in the fingerprint image.
The collation processing unit 25 performs collation processing by comparing the fingerprint information obtained from the fingerprint image acquired by the image acquisition unit 21 and the fingerprint information of a plurality of persons recorded in the database 3 .

本実施形態において照合処理部25は、照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の距離が長いことを示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、指紋照合に用いる代表特徴点と判定する。
または照合処理部25は、照合元の指紋画像において特定した指紋の特徴点のうち、指紋画像において特定された画像の鮮明さが不明な画素領域までの距離が長いことを示す第二度合に基づいて当該第二度合の値が大きい複数の特徴点を、代表特徴点と判定する。
または照合処理部25は、他の特徴点との間の距離が長いことを示す第一度合と、指紋画像において特定された画像の鮮明さが不明な画素領域までの距離が長いことを示す第二度合とを用いて複数の代表特徴点を判定する。例えば、第一度合に第二度合を乗じ、この値に基づいて代表度を算出し、当該代表度に基づいて複数の代表特徴点を判定してよい。
In the present embodiment, the matching processing unit 25 performs the first match based on the first match indicating that the distance between the fingerprint minutiae identified in the fingerprint image to be matched and the other minutiae is long. A plurality of minutiae having a large joint value are determined to be representative minutiae used for fingerprint collation.
Alternatively, the collation processing unit 25 determines, among the fingerprint minutiae identified in the fingerprint image to be collated, the second degree indicating that the distance to the pixel area where the sharpness of the image identified in the fingerprint image is unknown is long. A plurality of feature points with large second degree values are determined as representative feature points.
Alternatively, the collation processing unit 25 indicates that the first match indicates that the distance between the other feature points is long, and that the distance to the pixel area where the sharpness of the image specified in the fingerprint image is unknown is long. A plurality of representative feature points are determined using the second degree. For example, the first degree may be multiplied by the second degree, the representativeness may be calculated based on this value, and a plurality of representative feature points may be determined based on the representativeness.

照合処理部25は指紋画像において特定した指紋の特徴点に対応する画素における隆線の安定度合をさらに用いて代表度を算出し、当該代表度に基づいて代表特徴点を判定してよい。 The collation processing unit 25 may further use the degree of stability of ridges in the pixels corresponding to the specified fingerprint minutiae in the fingerprint image to calculate the degree of representativeness, and determine the representative minutiae based on the degree of representativeness.

そして照合処理部25は、代表度の高い特徴を示す複数の代表特徴点を特定し、照合元の指紋画像におけるそれら複数の代表特徴点と、データベース3に記録されている照合先の指紋画像における複数の代表特徴点とを用いて照合処理を行う。 Then, the collation processing unit 25 identifies a plurality of representative minutiae representing features with a high degree of representation, and identifies a plurality of representative minutiae in the fingerprint image to be collated and the fingerprint image to be collated recorded in the database 3. A matching process is performed using a plurality of representative feature points.

図4は指紋処理装置の処理フローを示す図である。
次に指紋処理装置の処理の詳細について順を追って説明する。
まず指紋処理装置1において画像取得部21が指紋読取機2から指紋画像を取得する(ステップS101)。画像取得部21は指紋画像を一時的にRAM12などに記録する。すると鮮明度判定部22は指紋画像をRAM12から読み取り、指紋画像中全体に渡って設定した各矩形領域の鮮明度を判定する(ステップS102)。各矩形領域は画素に対応する領域であってもよいし、画素とは別に設定した矩形の領域であってもよい。鮮明度判定部22は各矩形領域の鮮明度を判定すると、指紋画像中の矩形領域を特定するIDと鮮明度とをRAM12に記録する。鮮明度は例えば鮮明か不鮮明かを示す2値であってよい。鮮明度の判定方法はどのような方法であってもよい。例えば鮮明度判定部22は特開平10-177650号公報に記述されている品質指標抽出手段の行う処理と同様の処理により鮮明度を算出してよい。
FIG. 4 is a diagram showing the processing flow of the fingerprint processing device.
Next, the details of the processing of the fingerprint processing device will be explained step by step.
First, the image acquisition unit 21 of the fingerprint processing device 1 acquires a fingerprint image from the fingerprint reader 2 (step S101). The image acquisition unit 21 temporarily records the fingerprint image in the RAM 12 or the like. Then, the sharpness determination unit 22 reads the fingerprint image from the RAM 12 and determines the sharpness of each rectangular area set over the entire fingerprint image (step S102). Each rectangular area may be an area corresponding to a pixel, or may be a rectangular area set separately from the pixel. After determining the definition of each rectangular area, the definition determining unit 22 records an ID specifying the rectangular area in the fingerprint image and the definition in the RAM 12 . Sharpness may be binary, for example sharp or blurry. Any method may be used to determine the sharpness. For example, the sharpness determination section 22 may calculate the sharpness by the same process as the process performed by the quality index extraction means described in Japanese Patent Application Laid-Open No. 10-177650.

また隆線品質判定部23は指紋画像をRAM12から読み取り、指紋画像中の上記矩形領域のうち隆線が映る画素を特定し、その画素における隆線の安定度を判定する(ステップS103)。隆線の安定度とは隆線の幅の安定度合を意味する。隆線品質判定部23による隆線の安定度は、一例として設定した矩形領域における指紋隆線を示す黒色画像と指紋隆線間を示す白色画像の両方の分散値により示される。隆線品質判定部23は指紋隆線を示す黒色画像と指紋隆線間を示す白色画像の両方の分散値が閾値より高い矩形領域を、隆線の安定度が高い矩形領域と判定する。他方、隆線品質判定部23は指紋隆線を示す黒色画像または指紋隆線間を示す白色画像のいずれかの分散値が閾値以下の矩形領域を、隆線の安定度が低い矩形領域と判定する。隆線品質判定部23は、矩形領域のIDと、隆線の安定度が高いか低いかを示すフラグとを対応付けた情報をRAM12等に記録する。隆線の安定度のより詳細な算出は、例えば、特許第5822303号公報のステップS301~ステップS305として記述されている技術等を利用してよい。 The ridge quality determination unit 23 reads the fingerprint image from the RAM 12, specifies pixels in which ridges appear in the above-described rectangular area in the fingerprint image, and determines the stability of the ridges at those pixels (step S103). The ridge stability means the stability of the ridge width. The ridge stability determined by the ridge quality determining unit 23 is indicated by variance values of both a black image showing fingerprint ridges and a white image showing spaces between fingerprint ridges in a set rectangular area, for example. The ridge quality judging unit 23 judges, as a rectangular area with high ridge stability, a rectangular area in which both the black image representing the fingerprint ridges and the white image representing the space between the fingerprint ridges have variance values higher than a threshold value. On the other hand, the ridge quality judging unit 23 judges a rectangular area in which the variance value of either the black image representing the fingerprint ridges or the white image representing the space between the fingerprint ridges is equal to or less than the threshold as a rectangular area with low ridge stability. do. The ridge quality determination unit 23 records information in which the ID of the rectangular area is associated with a flag indicating whether the stability of the ridge is high or low in the RAM 12 or the like. More detailed calculation of the ridge line stability may be performed using, for example, the technique described in steps S301 to S305 of Japanese Patent No. 5822303, or the like.

特徴点検出部24は指紋画像をRAM12から読み取り、当該指紋画像に映る指紋の特徴点を検出する(ステップS104)。特徴点の検出は従来の検出手法を用いてよい。より具体的には特徴点検出部24は、2種類の特徴点を指紋画像から抽出する。 The minutiae detection unit 24 reads the fingerprint image from the RAM 12 and detects minutiae of the fingerprint appearing in the fingerprint image (step S104). A conventional detection method may be used to detect feature points. More specifically, the feature point detection unit 24 extracts two types of feature points from the fingerprint image.

図5は特徴点検出部が検出する特徴点を説明するための図である。
特徴点検出部24が対象とする第1の特徴点は、隆線の終点(端点)である。図5(a)には、2本の隆線501、502に挟まれた第1特徴点P1が図示されている。特徴点検出部24は、図5(a)に示す第1特徴点P1のような隆線の端点を、入力された指紋画像の第1特徴点P1として検出する。具体的には、特徴点検出部24は、指紋画像の全体を走査しながら第1特徴点P1を検出していく。
FIG. 5 is a diagram for explaining feature points detected by the feature point detection unit.
The first feature point targeted by the feature point detection unit 24 is the end point (end point) of the ridge. FIG. 5A shows a first feature point P1 sandwiched between two ridges 501 and 502. FIG. The minutiae detection unit 24 detects the end points of ridges such as the first minutiae P1 shown in FIG. 5A as the first minutiae P1 of the input fingerprint image. Specifically, the feature point detection unit 24 detects the first feature points P1 while scanning the entire fingerprint image.

特徴点検出部24が対象とする第2の特徴点は、隆線の分岐点である。図5(b)には、隆線511が2本の隆線512、513に分岐する第2特徴点P2が図示されている。特徴点検出部24は、図5(b)に示す第2特徴点P2のような隆線の分岐点を、入力された指紋画像の第2特徴点P2として検出する。 The second feature points targeted by the feature point detection unit 24 are ridge bifurcation points. FIG. 5(b) shows a second feature point P2 where the ridge 511 branches into two ridges 512 and 513. FIG. The minutiae detection unit 24 detects ridge branching points such as the second minutiae P2 shown in FIG. 5B as the second minutiae P2 of the input fingerprint image.

次に、特徴点検出部24は、検出した各特徴点から延びる指紋の隆線の延伸方向を算出する。第1特徴点P1に関しては、図5(a)に示すように、第1特徴点P1から隆線500が発生する方向(矢印504の方向)が、第1特徴点P1からの隆線の延伸方向と定義される。 Next, the minutiae detection unit 24 calculates the extending direction of the ridge line of the fingerprint extending from each detected minutiae. As for the first feature point P1, as shown in FIG. 5A, the direction in which the ridge 500 is generated from the first feature point P1 (the direction of the arrow 504) is the extension of the ridge from the first feature point P1. Defined as direction.

第2特徴点P2に関しては、図5(b)に示すように、隆線511が第2特徴点P2にて2本の隆線512、513に分岐している場合、第2特徴点P2から2本の隆線の間(ベクトルの中間)を進行する方向(矢印514の方向)が、第2特徴点P2からの隆線の延伸方向と定義される。 Regarding the second feature point P2, as shown in FIG. The direction (direction of arrow 514) traveling between two ridges (the middle of the vector) is defined as the extension direction of the ridge from the second feature point P2.

特徴点検出部24は、指紋画像において検出した特徴点の位置情報や当該特徴点から延びる隆線の延伸方向の情報(延伸方向情報)をRAM12に記録する。なお、検出された第1特徴点P1、第2特徴点P2に関する位置情報(座標)は、指紋画像内でのピクセル位置や矩形領域のIDの形式で記録されてよい。また、各特徴点を原点に設定したXY座標系におけるX軸と特徴点からの隆線の延伸方向との間の角度が、各特徴点からの隆線の延伸方向として記録されてよい。 The minutia detection unit 24 records in the RAM 12 the position information of the minutiae detected in the fingerprint image and the information on the extending direction of the ridge extending from the minutiae (stretching direction information). The position information (coordinates) of the detected first feature point P1 and second feature point P2 may be recorded in the form of pixel positions and rectangular area IDs in the fingerprint image. Also, the angle between the X-axis in the XY coordinate system with each feature point set as the origin and the extending direction of the ridge from the feature point may be recorded as the extending direction of the ridge from each feature point.

図6は指紋画像において判定された鮮明領域および不鮮明領域と特徴点とを示す図である。
この図が示す指紋画像における網掛け表示されている領域は、鮮明度が閾値未満の不鮮明領域E1を示している。また網掛け表示されていない領域は、鮮明度が閾値以上の鮮明領域E2を示している。このような指紋画像において、当該画像中の丸印や四角印で囲まれている局所点が特徴点を示している。特徴点のうち丸印で示す特徴点は第1特徴点P1を示す。特徴点のうち四角印で示す特徴点は第2特徴点P2を示す。丸印や四角印から出ている直線が各特徴点から延伸する隆線の延伸方向を示している。
FIG. 6 is a diagram showing the determined clear and blurred regions and minutiae in a fingerprint image.
The shaded area in the fingerprint image shown in this figure indicates the blurred area E1 whose definition is less than the threshold. A non-shaded area indicates a clear area E2 whose sharpness is equal to or higher than the threshold. In such a fingerprint image, local points surrounded by circles and squares in the image indicate feature points. Among the feature points, the feature points indicated by circles are the first feature points P1. Among the feature points, the feature points indicated by square marks are the second feature points P2. The straight lines extending from the circles and squares indicate the extending directions of the ridges extending from the respective feature points.

図7は指紋画像において判定された隆線の安定度を示す図である。
図7で示す指紋画像は、鮮明領域E2において隆線の安定度(品質)の高い白部分の領域と、隆線の安定度が閾値より低い黒部分の領域を示している。ステップS103の処理の結果、指紋処理装置1は、このような図7で示す隆線の安定度の分布を示す画像を出力するようにしてもよい。
FIG. 7 is a diagram showing the stability of ridges determined in a fingerprint image.
The fingerprint image shown in FIG. 7 shows a white area with a high ridge stability (quality) and a black area with a ridge stability lower than the threshold in the clear area E2. As a result of the processing in step S103, the fingerprint processing apparatus 1 may output an image showing the distribution of the stability of the ridges shown in FIG.

照合処理部25は、特徴点検出部24の検出した各特徴点についての位置情報と延伸方向情報を用いて、各特徴点の代表度eval_pを算出する(ステップS105)。この代表度は、指紋画像において特定された特徴点のうち、他の特徴点から離れているほど値が大きい度数である。代表度eval_pは、指紋画像において特定された特徴点のうち、他の特徴点からの距離が長く、鮮明度が高いことを示す度数であってよい。 The collation processing unit 25 calculates the representativeness eval_p of each feature point using the position information and the extension direction information for each feature point detected by the feature point detection unit 24 (step S105). This representativeness is a frequency of the feature points identified in the fingerprint image that increases in value as the feature points are further away from other feature points. The representativeness eval_p may be a frequency indicating that the feature points identified in the fingerprint image are distant from other feature points and have high definition.

図8は代表度算出フローを示す図である。
照合処理部25は、代表度eval_pの算出においては、まず、特徴点検出部24の検出した各特徴点についての位置情報と延伸方向情報をRAM12から取得する。照合処理部25は各特徴点の中から一つの選択特徴点を選択し、その選択特徴点と他の全ての特徴点の距離を算出する(ステップS1051)。照合処理部25は算出した複数の距離のうち最も値の小さい距離の情報を、選択特徴点の最近傍特徴点までの距離Lmp(第一度合)と決定する(ステップS1052)。
FIG. 8 is a diagram showing a representative degree calculation flow.
In calculating the representativeness eval_p, the collation processing unit 25 first acquires from the RAM 12 position information and extension direction information for each feature point detected by the feature point detection unit 24 . The matching processing unit 25 selects one selected feature point from among the feature points, and calculates the distances between the selected feature point and all other feature points (step S1051). The collation processing unit 25 determines the information of the smallest distance among the calculated distances as the distance Lmp (first match) to the closest feature point of the selected feature point (step S1052).

照合処理部25は次に、選択特徴点の位置情報と不鮮明領域E1を示す全ての矩形領域の位置情報とを用いて、それらの距離を算出する(ステップS1053)。照合処理部25は算出したその距離のうち最も値の小さい距離の情報を、選択特徴点の最近傍の不鮮明領域E1を示す矩形領域までの距離ucz(第一度合)と決定する(ステップS1054)。また照合処理部25は選択特徴点に対応する画素の隆線の安定度mRqlの情報をRAM12から取得する。そして選択特徴点の代表度eval_pを式(1)により算出する(ステップS1055)。 The collation processing unit 25 then uses the position information of the selected feature points and the position information of all the rectangular areas indicating the blurred area E1 to calculate their distances (step S1053). The collation processing unit 25 determines the information of the smallest distance among the calculated distances as the distance ucz (first match) to the rectangular area indicating the blurred area E1 closest to the selected feature point (step S1054). ). The collation processing unit 25 also acquires from the RAM 12 information on the ridge line stability mRql of the pixel corresponding to the selected feature point. Then, the representativeness eval_p of the selected feature point is calculated by Equation (1) (step S1055).

Figure 0007239034000001
Figure 0007239034000001

式(1)においてA,Bは定数を示している。また式(1)中の「/」は除算(÷)を意味する。定数Aは、選択特徴点の最近傍特徴点までの距離Lmpと、選択特徴点の最近傍の不鮮明領域E1を示す矩形領域までの距離uczとを乗じた値が大きくなりすぎないよう調整するための定数である。定数Bは選択特徴点に対応する画素の隆線の安定度mRqlの値を調整するための定数である。式(1)により、選択特徴点が、他の特徴点からの距離と鮮明度とが高いか否かの度数を示す代表度eval_pを算出することができる。なお、式(1)のように選択特徴点の最近傍の不鮮明領域E1を示す矩形領域までの距離uczを用いて代表度eval_pを算出することにより、不鮮明領域E1に他の特徴点が存在する場合を想定した代表度eval_pの算出を行うことができる。式(1)においては選択特徴点に対応する画素の隆線の安定度mRqlに関する情報を加えているが、この情報を加えない態様で、代表度eval_pが算出されてもよい。また式(1)においては選択特徴点の最近傍の不鮮明領域E1を示す矩形領域までの距離uczの情報を加えているが、この情報を加えない態様で、代表度eval_pが算出されてもよい。 In formula (1), A and B represent constants. Moreover, "/" in Formula (1) means a division (÷). The constant A is used to adjust the value obtained by multiplying the distance Lmp to the closest feature point to the selected feature point by the distance ucz to the rectangular area indicating the blurred area E1 closest to the selected feature point so that the product does not become too large. is a constant of The constant B is a constant for adjusting the value of the ridge line stability mRql of the pixel corresponding to the selected feature point. Expression (1) can be used to calculate the representativeness eval_p that indicates whether the selected feature point has a high distance from other feature points and a high degree of definition. By calculating the representativeness eval_p using the distance ucz to the rectangular area indicating the blurred area E1 closest to the selected feature point, as in Equation (1), other feature points exist in the blurred area E1. It is possible to calculate the representativeness eval_p assuming the case. Although information about the stability mRql of the ridge of the pixel corresponding to the selected feature point is added in equation (1), the representativeness eval_p may be calculated without adding this information. In addition, in the equation (1), the information of the distance ucz to the rectangular area indicating the blurred area E1 closest to the selected feature point is added, but the representativeness eval_p may be calculated without adding this information. .

照合処理部25は指紋画像に現れる全ての特徴点について選択特徴点として代表度eval_pの算出処理を行ったかを判定する(ステップS106)。照合処理部25は指紋画像に現れる全ての特徴点について選択特徴点として代表度eval_pの算出処理が終わるまで代表度eval_pの算出を繰り返す。照合処理部25は、全ての特徴点について算出した代表度eval_pを大きい順に探索し、代表度eval_pの大きい複数の所定数の特徴点を、代表特徴点と特定する(ステップS107)。所定数は例えば20や30などの数であってよい。 The collation processing unit 25 determines whether all the feature points appearing in the fingerprint image have been processed to calculate the representativeness eval_p as selected feature points (step S106). The collation processing unit 25 repeats the calculation of the representativeness eval_p for all the feature points appearing in the fingerprint image as the selected feature points until the calculation of the representativeness eval_p is completed. The collation processing unit 25 searches the calculated representativeness eval_p for all the feature points in descending order, and identifies a plurality of predetermined number of feature points having a large representativeness eval_p as representative feature points (step S107). The predetermined number may be a number such as 20 or 30, for example.

図9は特徴点と代表特徴点を視覚的に示す図である。
図9で示すように指紋画像には多くの特徴点が検出される。照合処理部25は各特徴点の代表度eval_pを算出し、大きい順に選択した所定の数の特徴点を、代表特徴点と判定する。図9において特徴点を示す印を黒く表示している特徴点は代表度eval_pが高く、色の薄い印を示す特徴点は代表度eval_pが低いことを表している。
FIG. 9 is a diagram visually showing feature points and representative feature points.
As shown in FIG. 9, many feature points are detected in the fingerprint image. The collation processing unit 25 calculates the representativeness eval_p of each feature point, and determines a predetermined number of feature points selected in descending order as representative feature points. In FIG. 9, the feature points indicated by black marks have high representativeness eval_p, and the feature points indicated by light-colored marks have low representativeness eval_p.

図10は代表特徴点の特徴量の特定概要を示す第一の図である。
図11は代表特徴点の特徴量を付与する処理フローを示す第一の図である。
照合処理部25は次に複数の代表特徴点にそれぞれ特徴量を付与する(ステップS108)。具体的には照合処理部25は、複数の代表特徴点のうち1つの代表特徴点を選択する(ステップS108-1)。この選択した代表特徴点を選択代表特徴点と呼ぶ。照合処理部25は選択代表特徴点についての位置情報と延伸方向情報(代表延伸方向)とをRAM12から読み取る。また照合処理部25は指紋画像中の他の特徴点の位置情報と延伸方向情報とをRAM12から読み取る。照合処理部25は選択代表特徴点についての延伸方向情報(代表延伸方向)が示す延伸方向を垂直軸のプラス方向と仮定して、選択代表特徴点を中心とし延伸方向情報に基づく垂直軸を基準として指紋画像平面上の360度方向を45度角毎に分割した第一象限~第八象限までの分割領域を特定する(ステップS108-2)。
FIG. 10 is a first diagram showing an overview of specifying feature amounts of representative feature points.
FIG. 11 is a first diagram showing a processing flow for assigning feature amounts of representative feature points.
The collation processing unit 25 then assigns feature amounts to each of the plurality of representative feature points (step S108). Specifically, the collation processing unit 25 selects one representative feature point from a plurality of representative feature points (step S108-1). This selected representative feature point is called a selected representative feature point. The collation processing unit 25 reads the position information and the extension direction information (representative extension direction) of the selected representative feature point from the RAM 12 . The collation processing unit 25 also reads from the RAM 12 position information and extension direction information of other feature points in the fingerprint image. The collation processing unit 25 assumes that the extension direction indicated by the extension direction information (representative extension direction) for the selected representative feature point is the positive direction of the vertical axis, and the vertical axis based on the extension direction information is centered on the selected representative feature point. , the divided areas of the first to eighth quadrants obtained by dividing the 360-degree direction on the fingerprint image plane at every 45-degree angle are specified (step S108-2).

今、照合処理部25は図10において1番の符号が振られている代表特徴点を選択代表特徴点と設定しているものとする。この場合、図10において1番の選択代表特徴点を原点として延伸方向情報が示す延伸方向に延びる軸を軸aと呼ぶ。1番の選択代表特徴点を中心に軸aから45度左に回転した軸を軸bと呼ぶ。1番の選択代表特徴点を中心に軸bから45度左に回転した軸を軸cと呼ぶ。1番の選択代表特徴点を中心に軸cから45度左に回転した軸を軸dと呼ぶ。1番の選択代表特徴点を中心に軸dから45度左に回転した軸を軸eと呼ぶ。1番の選択代表特徴点を中心に軸eから45度左に回転した軸を軸fと呼ぶ。1番の選択代表特徴点を中心に軸fから45度左に回転した軸を軸gと呼ぶ。1番の選択代表特徴点を中心に軸gから45度左に回転した軸を軸hと呼ぶ。 It is now assumed that the collation processing unit 25 has set the representative feature point numbered 1 in FIG. 10 as the selected representative feature point. In this case, the axis extending in the extension direction indicated by the extension direction information with the first selected representative feature point as the origin in FIG. 10 is referred to as the axis a. An axis rotated 45 degrees to the left from the axis a about the first selected representative feature point is called an axis b. An axis rotated 45 degrees to the left from the axis b about the first selected representative feature point is called an axis c. An axis rotated 45 degrees to the left from the axis c about the first selected representative feature point is called an axis d. An axis rotated 45 degrees to the left from the axis d about the first selected representative feature point is called an axis e. An axis rotated 45 degrees to the left from the axis e about the first selected representative feature point is called an axis f. An axis rotated 45 degrees to the left from the axis f about the first selected representative feature point is called an axis g. An axis rotated 45 degrees to the left from the axis g about the first selected representative feature point is called an axis h.

照合処理部25は軸aと軸bとの間の第一象限において1番の選択代表特徴点から最も距離の近い9番の特徴点を特定する(ステップS108-3)。また照合処理部25は軸bと軸cとの間の第二象限において1番の選択代表特徴点から最も距離の近い17番の特徴点を特定する。同様に照合処理部25は各軸で分割された第三象限~第八象限において1番の選択代表特徴点から最も距離の近い特徴点を特定する。照合処理部25は、第一象限から第八象限において特定した各特徴点までの1番の選択代表特徴点からの距離と、第一象限から第八象限において特定した各特徴点についての延伸方向情報と、1番の選択代表特徴点について算出した代表度との全てを、1番の選択代表特徴点の特徴量を決定する(ステップS108-4)。照合処理部25は全ての代表特徴点について特徴量を特定したかを判定する(ステップS108-5)。照合処理部25は全ての代表特徴点について特徴量を特定していない場合には特徴量の特定の処理を繰り返す。 The collation processing unit 25 identifies the 9th feature point closest to the 1st selected representative feature point in the first quadrant between the axis a and the axis b (step S108-3). The collation processing unit 25 also specifies the 17th feature point closest to the 1st selected representative feature point in the second quadrant between the axis b and the axis c. Similarly, the collation processing unit 25 specifies the feature point closest to the selected representative feature point No. 1 in the third to eighth quadrants divided by each axis. The collation processing unit 25 calculates the distance from the first selected representative feature point to each feature point specified in the first quadrant to the eighth quadrant, and the extension direction of each feature point specified in the first quadrant to the eighth quadrant. Based on all of the information and the representativeness calculated for the first selected representative feature point, the feature amount of the first selected representative feature point is determined (step S108-4). The collation processing unit 25 determines whether or not feature amounts have been identified for all representative feature points (step S108-5). If the matching processing unit 25 has not specified the feature amount for all the representative feature points, it repeats the process of specifying the feature amount.

照合処理部25は、全ての代表特徴点についての特徴量を特定すると、それら全ての代表特徴点についての特徴量から成る情報を、指紋読取機2から取得した指紋画像についての指紋特徴量と決定する(ステップS109)。指紋読取機2から取得した指紋画像を以下、認証指紋画像と呼ぶ。照合処理部25はデータベース3に記録されている1つ目の指紋画像の指紋特徴量を読み取る。データベース3に記録されている指紋画像を、以下探索先指紋画像と呼ぶ。探索先指紋画像の指紋特徴量は、認証指紋画像の指紋特徴量の算出と同様に算出された特徴量である。照合処理部25は、認証指紋画像の指紋特徴量と探索先指紋画像の指紋特徴量とを用いて類似度を計算する(ステップS110)。類似度の計算は照合処理の一態様である。 After specifying the feature amounts for all the representative minutiae, the collation processing unit 25 determines the information consisting of the feature amounts for all the representative minutiae as the fingerprint feature amount for the fingerprint image acquired from the fingerprint reader 2. (step S109). A fingerprint image acquired from the fingerprint reader 2 is hereinafter referred to as an authentication fingerprint image. The collation processing unit 25 reads the fingerprint feature amount of the first fingerprint image recorded in the database 3 . A fingerprint image recorded in the database 3 is hereinafter referred to as a search target fingerprint image. The fingerprint feature amount of the search target fingerprint image is a feature amount calculated in the same manner as the fingerprint feature amount of the authentication fingerprint image. The collation processing unit 25 calculates the degree of similarity using the fingerprint feature amount of the authentication fingerprint image and the fingerprint feature amount of the search fingerprint image (step S110). Similarity calculation is one aspect of matching processing.

図12は指紋特徴量に基づく類似度の計算概要を示す第一の図である。
図12に示すように、照合処理部25は認証指紋画像において特定した複数の代表特徴点それぞれについて、代表度と、第一象限~第八象限において特定した最近傍特徴点までの距離と、当該最近傍特徴点から延びる隆線の延伸方向を示す延伸方向情報と、から成る指紋特徴量の情報をRAM12に記録している。データベース3に記録される複数の探索先指紋画像も同様の指紋特徴量の情報から構成される。
FIG. 12 is a first diagram showing an outline of similarity calculation based on the fingerprint feature amount.
As shown in FIG. 12, the collation processing unit 25 performs, for each of the plurality of representative minutiae specified in the authentication fingerprint image, the representativeness, the distance to the nearest The RAM 12 stores fingerprint feature amount information including extending direction information indicating the extending direction of the ridge extending from the nearest neighboring minutiae. A plurality of search target fingerprint images recorded in the database 3 are also composed of similar fingerprint feature amount information.

照合処理部25は、認証指紋画像側の各代表特徴点と、探索先指紋画像の各代表特徴点との差分を総当たりで算出する。認証指紋画像側の1つの代表特徴点と探索先指紋画像の1つの代表特徴点との差分を計算する場合には、対応する同一象限について、最近傍特徴点までの距離の差と、延伸方向情報が示す方向の差のそれぞれに認証指紋画像側の代表度を乗じた上で加算した値を算出し、その値の八象限分の累積値を求める。この値が認証指紋画像側の1つの代表特徴点と探索先指紋画像の1つの代表特徴点との差分である。 The collation processing unit 25 round-robinly calculates the difference between each representative minutiae on the authentication fingerprint image side and each representative minutiae point on the search target fingerprint image. When calculating the difference between one representative minutiae on the authentication fingerprint image side and one representative minutiae point on the search target fingerprint image, for the same corresponding quadrant, the difference in the distance to the nearest neighbor minutiae and the extension direction Each difference in the direction indicated by the information is multiplied by the representativeness of the authentication fingerprint image, and then added to calculate the value, and the cumulative value for eight quadrants of the value is calculated. This value is the difference between one representative minutiae on the authentication fingerprint image side and one representative minutiae on the search target fingerprint image.

認証指紋画像において特定した代表特徴点を1~n、探索先指紋画像において特定されている代表特徴点を1~Nとすると、照合処理部25は認証指紋画像における1つの代表特徴点と探索先指紋画像における各代表特徴点との差分をそれぞれ算出する。
照合処理部25は認証指紋画像における1つの代表特徴点を代表特徴点1とすると、その認証指紋画像における代表特徴点1と、探索先指紋画像の代表特徴点1~Nそれぞれとの差分S(11,12,…1N)を算出する。
照合処理部25は算出したそれらの差分Sのうち、最も差分Sの小さい探索先指紋画像の代表特徴点を特定する。この処理により照合処理部25は認証指紋画像において特定した1つの代表特徴点1に近い、探索指紋画像に含まれる代表特徴点を特定できる。
照合処理部25は、認証指紋画像における全ての代表特徴点(1~n)について、探索先指紋画像中の差分Sの小さい代表特徴点を特定する。
照合処理部25は認証指紋画像における代表特徴点(1~n)それぞれについて特定した探索先指紋画像中の代表特徴点との間の差分Sを小さい順にソートして、小さい順に一定数(2~4)の値の平均を算出する。照合処理部25は、その平均値を定数から減算することで、認証指紋画像と探索先指紋画像との間の類似度を算出する。類似度の高い探索指紋画像の値は、定数からの減算の値が小さいため、その値は高くなる。
Assuming that the representative minutiae specified in the authentication fingerprint image are 1 to n, and the representative minutiae specified in the search target fingerprint image are 1 to N, the matching processing unit 25 determines one representative minutiae in the authentication fingerprint image and the search destination. A difference from each representative feature point in the fingerprint image is calculated.
Assuming that one representative minutiae in the authentication fingerprint image is the representative minutiae 1, the collation processing unit 25 calculates the difference S( 11, 12, . . . 1N).
The collation processing unit 25 specifies the representative minutiae of the search target fingerprint image with the smallest difference S among the calculated differences S. FIG. Through this process, the collation processing unit 25 can identify representative minutiae included in the search fingerprint image that are close to one representative minutiae 1 identified in the authentication fingerprint image.
The collation processing unit 25 identifies a representative minutiae having a small difference S in the search target fingerprint image for all the representative minutiae (1 to n) in the authentication fingerprint image.
The matching processing unit 25 sorts the differences S between the representative minutiae (1 to n) in the authentication fingerprint image and the representative minutiae in the search target fingerprint image specified in ascending order, and sorts them by a certain number (2 to n) in descending order. 4) Calculate the average of the values. The collation processing unit 25 calculates the degree of similarity between the authentication fingerprint image and the search target fingerprint image by subtracting the average value from the constant. The value of the search fingerprint image with a high degree of similarity is high because the value of subtraction from the constant is small.

照合処理部25は、データベース3に含まれる全ての探索先指紋画像を用いて、認証指紋画像との類似度を算出する。照合処理部25は類似度が基準閾値より高い探索先指紋画像を、認証指紋画像との間でより詳細に照合判定を行う照合候補と決定する(ステップS111)。照合処理部25は、認証指紋画像と照合候補と決定した探索先指紋画像との間の照合を、各指紋画像に含まれる特徴点を用いて行う(ステップS112)。当該照合の処理は特徴点を用いて照合判定を行う公知の技術を用いてよい。照合処理部25は、照合判定の結果、基準値よりも類似度の高い探索先指紋画像のうち、最も類似度の高い探索先指紋画像を認証指紋画像に一致する指紋画像と判定して出力する(ステップS113)。照合処理部25は、照合判定の結果、類似度の高い探索先指紋画像を検索できない場合には、一致無を示す情報を出力する(ステップS114)。 The collation processing unit 25 uses all search target fingerprint images contained in the database 3 to calculate the degree of similarity with the authentication fingerprint image. The collation processing unit 25 determines a search target fingerprint image whose similarity is higher than the reference threshold as a collation candidate for more detailed collation determination with the authentication fingerprint image (step S111). The matching processing unit 25 performs matching between the authentication fingerprint image and the search target fingerprint image determined as the matching candidate using the feature points included in each fingerprint image (step S112). For the matching process, a known technique of performing matching determination using feature points may be used. As a result of the matching determination, the matching processing unit 25 determines that the search target fingerprint image with the highest similarity among the search target fingerprint images with higher similarity than the reference value is the fingerprint image that matches the authentication fingerprint image, and outputs it. (Step S113). If the search target fingerprint image having a high degree of similarity cannot be retrieved as a result of the collation determination, the collation processing unit 25 outputs information indicating no match (step S114).

上述の処理を簡略して説明すると、まず、照合処理部25は、複数の代表特徴点から抽出した一つの抽出代表特徴点について、当該抽出代表特徴点から延びる指紋の隆線の代表延伸方向を特定する。また照合処理部25は、抽出代表特徴点に基づいて決定した近傍特徴点までの距離と、当該近傍特徴点から延びる指紋の隆線の代表延伸方向を基準とした延伸方向と、当該近傍特徴点の代表度とに基づいて決定される特徴量を抽出代表特徴点に付与する。そして照合処理部25は、抽出代表特徴点それぞれに同様に付与した特徴量を用いて、照合元の指紋画像(認証指紋画像)におけるそれら複数の代表特徴点と、照合先の指紋画像(探索先指紋画像)における複数の代表特徴点とによる指紋の照合処理を行う。 To briefly explain the above process, first, the collation processing unit 25 determines the representative extension direction of the fingerprint ridges extending from the extracted representative minutiae for one extracted representative minutiae extracted from a plurality of representative minutiae. Identify. In addition, the collation processing unit 25 determines the distance to the neighboring minutiae determined based on the extracted representative minutiae, the extending direction based on the representative extending direction of the ridges of the fingerprint extending from the neighboring minutiae, and the proximate minutiae. and the representativeness of the extracted representative feature points. Then, the collation processing unit 25 uses the feature values similarly assigned to each of the extracted representative minutiae to compare the plurality of representative minutiae in the fingerprint image of the collation source (authentication fingerprint image) with the fingerprint image of the collation destination (search destination). A fingerprint matching process is performed using a plurality of representative minutiae in a fingerprint image).

図13は代表特徴点の特徴量の特定概要を示す第二の図である。
図14は代表特徴点の特徴量の特定概要を示す第三の図である。
図15は代表特徴点の特徴量を付与する処理フローを示す第二の図である。
照合処理部25は、図10~図12を用いて説明した処理以外の方法で、照合候補の探索先指紋画像を特定するようにしてもよい。
照合処理部25は複数の代表特徴点にそれぞれ特徴量を付与する(ステップS108)。具体的には照合処理部25は、複数の代表特徴点のうち1つの代表特徴点を選択する(ステップS108-11)。図13においては符号1で示す代表特徴点を選択代表特徴点としている。この選択した代表特徴点を選択代表特徴点と呼ぶ。照合処理部25は選択代表特徴点についての位置情報と延伸方向情報とをRAM12から読み取る。照合処理部25は指紋画像中の他の特徴点(代表特徴点以外の特徴点も含む)の位置情報と延伸方向情報とをRAM12から読み取る。照合処理部25は選択代表特徴点についての延伸方向情報が示す延伸方向を垂直軸のプラス方向と仮定して、他の特徴点の延伸方向が垂直軸の延伸方向に逆向きとなる特徴点の近傍の画素を白色、他の特徴点の延伸方向が垂直軸の延伸方向に同一方向となる特徴点の近傍の画素を黒色とした隆線延伸方向判定画像(図13)を生成する(ステップS108-12)。隆線延伸方向判定画像において黒色や白色と特定されていない画像については、近傍の他の画素の色(画素値)に基づいて、補間された色の値が算出されて、黒色から白色までの階調の値のうちの何れかの階調の画素値を有するようにしてもよい。図13において選択代表特徴点1の隆線の延伸方向と同一方向の延伸方向となっている特徴点50についてはその周囲が黒色の画素となっていることが分かる。また図13において選択代表特徴点1の隆線の延伸方向と逆方向の延伸方向となっている特徴点9や特徴点6についてはその周囲が白色の画素となっていることが分かる。
FIG. 13 is a second diagram showing an overview of specifying feature amounts of representative feature points.
FIG. 14 is a third diagram showing an overview of specifying feature amounts of representative feature points.
FIG. 15 is a second diagram showing a processing flow for assigning feature amounts of representative feature points.
The collation processing unit 25 may specify search target fingerprint images as collation candidates by methods other than the processes described with reference to FIGS. 10 to 12 .
The collation processing unit 25 assigns feature amounts to each of the plurality of representative feature points (step S108). Specifically, the collation processing unit 25 selects one representative feature point from a plurality of representative feature points (step S108-11). In FIG. 13, the representative feature point indicated by reference numeral 1 is the selected representative feature point. This selected representative feature point is called a selected representative feature point. The matching processing unit 25 reads from the RAM 12 the position information and the extending direction information about the selected representative feature point. The collation processing unit 25 reads from the RAM 12 the position information and extension direction information of other feature points (including feature points other than the representative feature points) in the fingerprint image. The collation processing unit 25 assumes that the extension direction indicated by the extension direction information for the selected representative feature point is the plus direction of the vertical axis, and determines the extension direction of the other feature points opposite to the extension direction of the vertical axis. A ridge extension direction determination image (FIG. 13) is generated in which neighboring pixels are white, and pixels in the vicinity of feature points whose extending directions are the same as the vertical axis are black (step S108). -12). For an image that is not identified as black or white in the ridge extension direction determination image, an interpolated color value is calculated based on the colors (pixel values) of other pixels in the vicinity, and a range from black to white is calculated. It may have a pixel value of any one of the gradation values. In FIG. 13, it can be seen that black pixels surround a feature point 50 whose extension direction is the same as the extension direction of the ridge of the selected representative feature point 1 . In addition, in FIG. 13, it can be seen that white pixels surround the feature points 9 and 6 whose extending directions are opposite to the extending direction of the ridge of the selected representative feature point 1 .

照合処理部25は、選択代表特徴点1について生成した隆線延伸方向判定画像(図13)において、選択代表特徴点1の位置を中心とした24点の特徴抽出点の画素値を抽出する(ステップS108-13)。図14には選択代表特徴点1の位置を中心とした24点の特徴抽出点(1)~(24)の位置を図示している。照合処理部25は、特徴抽出点(1)~(24)の画素値を並べた値と、代表特徴点について算出した隆線の安定度とを示す情報を、選択代表特徴点1の指紋特徴量と決定する(ステップS108-14)。照合処理部25は全ての代表特徴点について指紋特徴量を算出したかを判定する(ステップS108-15)。照合処理部25は全ての代表特徴点について指紋特徴量を算出していない場合には他の代表特徴点について同様の手法により指紋特徴量を生成する。 The collation processing unit 25 extracts pixel values of 24 feature extraction points centered on the position of the selected representative feature point 1 in the ridge extension direction determination image (FIG. 13) generated for the selected representative feature point 1 ( step S108-13). FIG. 14 shows the positions of 24 feature extraction points (1) to (24) with the position of the selected representative feature point 1 as the center. The collation processing unit 25 converts the value obtained by arranging the pixel values of the feature extraction points (1) to (24) and the information indicating the stability of the ridge calculated for the representative minutiae to the fingerprint feature of the selected representative minutiae 1. amount is determined (step S108-14). The collation processing unit 25 determines whether the fingerprint feature amount has been calculated for all the representative minutiae (step S108-15). If fingerprint feature quantities have not been calculated for all representative minutiae, the collation processing unit 25 generates fingerprint feature quantities for other representative minutiae by the same method.

照合処理部25は、認証指紋画像において特定した全ての代表特徴点についての指紋特徴量を算出すると、それら全ての代表特徴点についての指紋特徴量から成る情報を、認証指紋画像についての指紋特徴量と決定する(ステップS109)。探索先指紋画像の指紋特徴量は、認証指紋画像の指紋特徴量の算出と同様に算出された特徴量である。認証指紋画像における代表特徴点の位置と特徴抽出点(1)~(24)の位置との関係と、探索先指紋画像における代表特徴点の位置と特徴抽出点(1)~(24)の位置との関係とは同じである。照合処理部25は、認証指紋画像の指紋特徴量と探索先指紋画像の指紋特徴量とを用いて類似度を計算する(ステップS110)。 After calculating the fingerprint feature amounts for all the representative minutiae specified in the authentication fingerprint image, the collation processing unit 25 converts the information consisting of the fingerprint feature amounts for all of the representative minutiae into the fingerprint feature amounts for the authentication fingerprint image. (step S109). The fingerprint feature amount of the search target fingerprint image is a feature amount calculated in the same manner as the fingerprint feature amount of the authentication fingerprint image. The relationship between the position of the representative minutiae and the positions of the feature extraction points (1) to (24) in the authentication fingerprint image, and the position of the representative minutiae and the positions of the feature extraction points (1) to (24) in the search target fingerprint image. is the same as the relationship with The collation processing unit 25 calculates the degree of similarity using the fingerprint feature amount of the authentication fingerprint image and the fingerprint feature amount of the search fingerprint image (step S110).

図16は指紋特徴量に基づく類似度の計算概要を示す第二の図である。
この図が示すように認証指紋画像の指紋特徴量には、多くの特徴点の中から特定した複数の代表特徴点に対応する画素(又は矩形領域)における隆線の安定度(隆線品質)と、その代表特徴点を基準とした周囲の特徴抽出点(1)~(24)の画素値が含まれる。データベース3に記録される複数の探索先指紋画像も同様の指紋特徴量の情報から構成される。
FIG. 16 is a second diagram showing an outline of similarity calculation based on the fingerprint feature amount.
As shown in this figure, the fingerprint feature quantity of the authentication fingerprint image includes the stability of ridges (ridge quality) in pixels (or rectangular areas) corresponding to a plurality of representative minutiae identified from many minutiae. , and the pixel values of the surrounding feature extraction points (1) to (24) based on the representative feature point. A plurality of search target fingerprint images recorded in the database 3 are also composed of similar fingerprint feature amount information.

照合処理部25は、認証指紋画像側の各代表特徴点と、探索先指紋画像の各代表特徴点との差分を総当たりで算出する。認証指紋画像側の1つの代表特徴点と探索先指紋画像の1つの代表特徴点との差分Sを計算する場合には、対応する特徴抽出点の画素値の差に、認証指紋画像の隆線の安定度を乗じた値を、24の特徴抽出点それぞれについて算出し累積する。この値が認証指紋画像側の1つの代表特徴点と探索先指紋画像の1つの代表特徴点との差分Sである。 The collation processing unit 25 round-robinly calculates the difference between each representative minutiae on the authentication fingerprint image side and each representative minutiae point on the search target fingerprint image. When calculating the difference S between one representative minutiae on the authentication fingerprint image side and one representative minutiae point on the search target fingerprint image, the difference between the pixel values of the corresponding feature extraction points is the ridge line of the authentication fingerprint image. is calculated for each of the 24 feature extraction points and accumulated. This value is the difference S between one representative minutiae on the authentication fingerprint image side and one representative minutiae on the search target fingerprint image.

認証指紋画像において特定した代表特徴点を1~n、探索先指紋画像において特定されている代表特徴点を1~Nとすると、照合処理部25は認証指紋画像における1つの代表特徴点と探索先指紋画像における各代表特徴点との差分Sをそれぞれ算出する。
照合処理部25は認証指紋画像における1つの代表特徴点を代表特徴点1とすると、その認証指紋画像における代表特徴点1と、探索先指紋画像の代表特徴点1~Nそれぞれとの差分S(11,12,…1N)を算出する。
照合処理部25は算出したそれらの差分Sのうち、最も差分Sの小さい探索先指紋画像の代表特徴点を特定する。この処理により照合処理部25は認証指紋画像において特定した1つの代表特徴点1に近い、探索指紋画像に含まれる代表特徴点を特定できる。
照合処理部25は、認証指紋画像における全ての代表特徴点(1~n)について、探索先指紋画像中の差分Sの小さい代表特徴点を特定する。
照合処理部25は認証指紋画像における代表特徴点(1~n)それぞれについて特定した探索先指紋画像中の代表特徴点との間の差分Sを小さい順にソートして、小さい順に一定数(2~4)の値の平均を算出する。照合処理部25は、その平均値を定数から減算することで、認証指紋画像と探索先指紋画像との間の類似度を算出する。類似度の高い探索指紋画像の値は、定数からの減算の値が小さいため、その値は高くなる。
Assuming that the representative minutiae specified in the authentication fingerprint image are 1 to n, and the representative minutiae specified in the search target fingerprint image are 1 to N, the matching processing unit 25 determines one representative minutiae in the authentication fingerprint image and the search destination. A difference S from each representative feature point in the fingerprint image is calculated.
Assuming that one representative minutiae in the authentication fingerprint image is the representative minutiae 1, the collation processing unit 25 calculates the difference S( 11, 12, . . . 1N).
The collation processing unit 25 specifies the representative minutiae of the search target fingerprint image with the smallest difference S among the calculated differences S. FIG. Through this process, the collation processing unit 25 can identify representative minutiae included in the search fingerprint image that are close to one representative minutiae 1 identified in the authentication fingerprint image.
The collation processing unit 25 identifies a representative minutiae having a small difference S in the search target fingerprint image for all the representative minutiae (1 to n) in the authentication fingerprint image.
The matching processing unit 25 sorts the differences S between the representative minutiae (1 to n) in the authentication fingerprint image and the representative minutiae in the search target fingerprint image specified in ascending order, and sorts them by a certain number (2 to n) in descending order. 4) Calculate the average of the values. The collation processing unit 25 calculates the degree of similarity between the authentication fingerprint image and the search target fingerprint image by subtracting the average value from the constant. The value of the search fingerprint image with a high degree of similarity is high because the value of subtraction from the constant is small.

照合処理部25は、データベース3に含まれる全ての探索先指紋画像を用いて、認証指紋画像との類似度を算出する。照合処理部25は類似度が基準閾値より高い探索先指紋画像を、認証指紋画像との間でより詳細に照合判定を行う照合候補と決定する(ステップS111)。照合処理部25は、認証指紋画像と照合候補と決定した探索先指紋画像との間の照合を、各指紋画像に含まれる特徴点を用いて行う。当該照合の処理は特徴点を用いて照合判定を行う公知の技術を用いてよい。照合処理部25は、照合判定の結果、最も類似度の高い探索先指紋画像を認証指紋画像に一致する指紋画像と判定する(ステップS112)。照合処理部25は、照合判定の結果、類似度の高い探索先指紋画像を検索できない場合には、一致無を示す情報を出力する(ステップS113)。 The collation processing unit 25 uses all search target fingerprint images contained in the database 3 to calculate the degree of similarity with the authentication fingerprint image. The collation processing unit 25 determines a search target fingerprint image whose similarity is higher than the reference threshold as a collation candidate for more detailed collation determination with the authentication fingerprint image (step S111). The matching processing unit 25 performs matching between the authentication fingerprint image and the search target fingerprint image determined as the matching candidate using the feature points included in each fingerprint image. For the matching process, a known technique of performing matching determination using feature points may be used. As a result of the collation determination, the collation processing unit 25 determines that the search target fingerprint image with the highest degree of similarity is the fingerprint image that matches the authentication fingerprint image (step S112). If the search target fingerprint image having a high degree of similarity cannot be retrieved as a result of the collation determination, the collation processing unit 25 outputs information indicating no match (step S113).

上述の処理を簡略して説明すると、まず、照合処理部25は、複数の前記代表特徴点から抽出した一つの抽出代表特徴点について、当該抽出代表特徴点から延びる指紋の隆線の代表延伸方向を特定する。次に照合処理部25は、抽出代表特徴点に基づいて決定した近傍特徴点から延びる指紋の隆線の代表延伸方向を基準とした延伸方向と、代表延伸方向との一致度が高いことを示す当該近傍特徴点の画素値と、代表延伸方向との一致度が低いことを示す当該近傍特徴点の画素値とを示す隆線延伸方向判定画像を生成する。そして照合処理部25は、隆線延伸方向判定画像において対応する抽出代表特徴点の位置を基準とした所定位置の複数の画素値を示す特徴量を代表特徴点に付与する。照合処理部25は、代表特徴点それぞれに同様に付与した特徴量を用いて、照合元の指紋画像におけるそれら複数の代表特徴点と、照合先の指紋画像における複数の代表特徴点とによる指紋の照合処理を行う。 To briefly explain the above process, first, the collation processing unit 25, for one extracted representative minutia extracted from a plurality of representative minutia, identify. Next, the collation processing unit 25 indicates that the extending direction based on the representative extending direction of the ridges of the fingerprint extending from the neighboring minutiae determined based on the extracted representative minutiae and the representative extending direction have a high degree of matching. A ridge extension direction determination image is generated that shows the pixel values of the neighboring feature points and the pixel values of the neighboring feature points indicating that the degree of matching with the representative extension direction is low. Then, the collation processing unit 25 assigns to the representative feature point a feature quantity indicating a plurality of pixel values at predetermined positions with reference to the position of the corresponding extracted representative feature point in the ridge extension direction determination image. The matching processing unit 25 uses the feature values similarly assigned to each of the representative minutiae to compare the plurality of representative minutiae in the fingerprint image to be matched and the plurality of representative minutiae in the fingerprint image to be matched. Perform matching process.

以上本発明の実施形態について説明したが、上述の処理によれば、指紋の中心を特定することなく照合処理を行っているため、指紋の中心の特定精度を必要とせずに、照合処理を行うことができる。
また上述の照合候補の探索先指紋画像を決定する処理において簡易な四則演算とソート処理を利用し、また算出に用いる特徴点を代表特徴点や特徴抽出点などの少ない特徴点に限定している。これにより照合候補を決定する処理を軽減することができる。
また照合処理においても照合候補として特定した探索先指紋画像のみを用いて認証指紋画像との照合処理を行うため、処理を軽減することができる。
The embodiment of the present invention has been described above. According to the above-described processing, the matching process is performed without specifying the center of the fingerprint. be able to.
In addition, simple four arithmetic operations and sorting processing are used in the process of determining the search target fingerprint image of the matching candidate described above, and the feature points used for calculation are limited to a small number of feature points such as representative feature points and feature extraction points. . This makes it possible to reduce the processing for determining matching candidates.
Also, in the matching process, only the search target fingerprint image specified as a matching candidate is used to perform the matching process with the authentication fingerprint image, so the process can be reduced.

上述の説明において指紋処理装置1は、図10~図12を用いて説明した類似度の計算と、図13~図16を用いて説明した類似度の計算との何れかを行うものとして説明したが、両方の類似度の計算を行って、それぞれ類似度の高い照合候補を特定してもよい。 In the above description, the fingerprint processing apparatus 1 performs either the similarity calculation described with reference to FIGS. 10 to 12 or the similarity calculation described with reference to FIGS. 13 to 16. However, both similarity calculations may be performed to identify matching candidates with high similarity.

図17は指紋処理装置の最少構成を示す図である。
この図で示すように指紋処理装置1は少なくとも、照合元の指紋画像において特定した指紋の特徴点のうち、他の特徴点との間の距離が長いことを示す第一度合に基づいて当該第一度合の値が大きい複数の特徴点を、指紋照合に用いる代表特徴点と判定する照合処理部25を有している。
なお本実施形態による指紋処理装置1は、少なくとも上記の照合処理部25の機能を備えた照合処理回路であると定義されてもよい。
FIG. 17 is a diagram showing the minimum configuration of the fingerprint processing device.
As shown in this figure, the fingerprint processing apparatus 1 performs at least the first match indicating that the distance between the fingerprint minutiae specified in the fingerprint image to be collated and the other minutiae is long. It has a collation processing unit 25 for determining a plurality of minutiae having a large first match value as representative minutiae used for fingerprint collation.
The fingerprint processing apparatus 1 according to this embodiment may be defined as a verification processing circuit having at least the functions of the verification processing section 25 described above.

上述の指紋処理装置1は内部に、コンピュータシステムを有している。そして、指紋処理装置1に上述した各処理を行わせるためのプログラムは、当該~装置のコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムを~装置のコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD-ROM、DVD-ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。 The fingerprint processing device 1 described above has a computer system inside. A program for causing the fingerprint processing device 1 to perform each of the processes described above is stored in a computer-readable recording medium of the device. The above processing is performed. Here, the computer-readable recording medium refers to magnetic disks, magneto-optical disks, CD-ROMs, DVD-ROMs, semiconductor memories, and the like. Alternatively, the computer program may be distributed to a computer via a communication line, and the computer receiving the distribution may execute the program.

また、上記プログラムは、前述した各処理部の機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。 Further, the program may be for implementing part of the functions of the processing units described above. Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

1・・・指紋処理装置
2・・・指紋読取機
3・・・データベース
11・・・CPU
12・・・RAM
13・・・ROM
14・・・SSD
15・・・通信モジュール
16・・・表示画面
17・・・IF(インタフェース)
21・・・画像取得部
22・・・鮮明度判定部
23・・・隆線品質判定部
24・・・特徴点検出部
25・・・照合処理部
1 Fingerprint processing device 2 Fingerprint reader 3 Database 11 CPU
12 RAM
13 ROM
14 SSD
15... communication module 16... display screen 17... IF (interface)
21... Image acquisition unit 22... Sharpness determination unit 23... Ridge quality determination unit 24... Characteristic point detection unit 25... Verification processing unit

Claims (12)

照合元の指紋画像において特定した指紋の複数の特徴点のうち、前記指紋画像において画像の鮮明さが不明な画素領域までの第一距離に基づき、前記指紋の照合処理に用いる代表特徴点を決定する照合処理部を有する、
指紋処理装置。
Determining a representative minutiae to be used in the fingerprint matching process based on a first distance to a pixel region in the fingerprint image whose image sharpness is unknown among a plurality of minutiae of the fingerprint identified in the fingerprint image to be matched. Having a matching processing unit that
Fingerprint processor.
前記照合処理部は、前記複数の特徴点のうち、他の特徴点との第二距離に基づき、前記指紋の照合処理に用いる代表特徴点を決定する、
請求項1に記載の指紋処理装置。
The matching processing unit determines a representative minutiae to be used for the fingerprint matching process based on a second distance from other minutiae among the plurality of minutiae.
The fingerprint processing device according to claim 1.
前記照合処理部は、前記第二距離のうち最小の距離を示す第二度合に基づく代表値が大きい方から順に選択された所定数の特徴点を、前記代表特徴点として決定する照合処理部を有する、
請求項2に記載の指紋処理装置。
The matching processing unit determines, as the representative feature points, a predetermined number of feature points selected in descending order of the representative value based on the second degree indicating the minimum distance among the second distances. have
The fingerprint processing device according to claim 2.
前記照合処理部は、前記第二度合に、前記第一距離が長いことを示す第一度合を乗じた値に基づいて代表度を算出し、当該代表度に基づいて前記代表特徴点を決定する
請求項3に記載の指紋処理装置。
The collation processing unit calculates a representativeness based on a value obtained by multiplying the second degree by a first degree indicating that the first distance is long, and determines the representative feature point based on the representativeness. The fingerprint processing device according to claim 3.
前記照合処理部は、前記指紋画像において特定した指紋の特徴点に対応する画素における隆線の安定度合をさらに用いて代表度を算出し、当該代表度に基づいて前記代表特徴点を決定する
請求項1から4のいずれか一項に記載の指紋処理装置。
The collation processing unit further uses a degree of stability of ridges in pixels corresponding to the minutiae of the fingerprint identified in the fingerprint image to calculate a degree of representation, and determines the representative minutiae based on the degree of representation. 5. The fingerprint processing device according to any one of items 1 to 4.
前記照合処理部は、前記代表度の高い特徴を示す複数の前記代表特徴点を特定し、前記照合元の指紋画像におけるそれら複数の代表特徴点と、照合先の指紋画像における複数の代表特徴点とを用いて照合処理を行う
請求項4または請求項5に記載の指紋処理装置。
The collation processing unit specifies a plurality of representative minutiae representing features with a high degree of representation, and a plurality of representative minutiae points in the fingerprint image to be collated and a plurality of representative minutiae in the fingerprint image to be collated. 6. The fingerprint processing device according to claim 4, wherein the collation processing is performed using the .
前記照合処理部は、複数の前記代表特徴点から抽出した一つの抽出代表特徴点について、当該抽出代表特徴点から延びる指紋の隆線の代表延伸方向を特定し、前記抽出代表特徴点に基づいて決定した近傍特徴点までの距離と、当該近傍特徴点から延びる指紋の隆線の前記代表延伸方向を基準とした延伸方向と、当該近傍特徴点の前記代表度とに基づいて決定される特徴量を付与し、前記代表特徴点それぞれに同様に付与した特徴量を用いて、前記照合元の指紋画像におけるそれら複数の代表特徴点と、照合先の指紋画像における複数の代表特徴点とによる指紋の照合処理を行う
請求項6に記載の指紋処理装置。
The collation processing unit specifies, for one extracted representative minutiae extracted from the plurality of representative minutiae, a representative extension direction of ridges of a fingerprint extending from the extracted representative minutiae, and based on the extracted representative minutiae, A feature amount determined based on the distance to the determined neighboring minutiae, the extending direction of the ridges of the fingerprint extending from the neighboring minutiae with reference to the representative extending direction, and the representativeness of the neighboring minutiae. , and using the feature quantity similarly assigned to each of the representative minutiae, the fingerprint of the plurality of representative minutiae in the fingerprint image of the matching source and the plurality of representative minutiae in the fingerprint image of the matching destination 7. The fingerprint processing device according to claim 6, which performs collation processing.
前記照合処理部は、前記近傍特徴点は前記抽出代表特徴点についての前記代表延伸方向を基準として前記抽出代表特徴点を原点とした8象限の領域それぞれにおける当該抽出代表特徴点に近傍の特徴点である
請求項7に記載の指紋処理装置。
The collation processing unit determines that the neighboring feature points are feature points in the vicinity of the extracted representative feature point in each of eight quadrant regions with the extracted representative feature point as the origin, with the representative stretching direction of the extracted representative feature point as a reference. The fingerprint processing device according to claim 7.
前記照合処理部は、複数の前記代表特徴点から抽出した一つの抽出代表特徴点について、当該抽出代表特徴点から延びる指紋の隆線の代表延伸方向を特定し、前記抽出代表特徴点に基づいて決定した近傍特徴点から延びる指紋の隆線の前記代表延伸方向を基準とした延伸方向と、前記代表延伸方向との一致度が高いことを示す当該近傍特徴点の画素値と、前記代表延伸方向との一致度が低いことを示す当該近傍特徴点の画素値とを示す隆線延伸方向判定画像を生成し、前記隆線延伸方向判定画像において対応する前記抽出代表特徴点の位置を基準とした所定位置の複数の画素値を示す特徴量を付与し、前記代表特徴点それぞれに同様に付与した特徴量を用いて、前記照合元の指紋画像におけるそれら複数の代表特徴点と、照合先の指紋画像における複数の代表特徴点とによる指紋の照合処理を行う
請求項6に記載の指紋処理装置。
The collation processing unit specifies, for one extracted representative minutiae extracted from the plurality of representative minutiae, a representative extension direction of ridges of a fingerprint extending from the extracted representative minutiae, and based on the extracted representative minutiae, a pixel value of the neighboring minutiae indicating that the extension direction of the ridges of the fingerprint extending from the determined neighboring minutiae based on the representative stretching direction and the representative stretching direction is high, and the representative stretching direction; A ridge extension direction determination image is generated that indicates the pixel values of the neighboring feature points that indicate a low degree of matching with the ridge extension direction determination image, and the position of the corresponding extracted representative feature point in the ridge extension direction determination image is used as a reference. A feature quantity indicating a plurality of pixel values at a predetermined position is assigned, and using the feature quantity similarly assigned to each of the representative feature points, the plurality of representative feature points in the fingerprint image of the reference source and the fingerprint of the reference target are obtained. 7. The fingerprint processing device according to claim 6, wherein fingerprint matching processing is performed using a plurality of representative feature points in an image.
指紋処理装置が、
照合元の指紋画像において特定した指紋の複数の特徴点のうち、前記指紋画像において画像の鮮明さが不明な画素領域までの第一距離に基づき、前記指紋の照合処理に用いる代表特徴点を決定する、
指紋処理方法。
A fingerprint processing device
Determining a representative minutiae to be used in the fingerprint matching process based on a first distance to a pixel region in the fingerprint image whose image sharpness is unknown among a plurality of minutiae of the fingerprint identified in the fingerprint image to be matched. do,
Fingerprint processing method.
コンピュータに、
照合元の指紋画像において特定した指紋の複数の特徴点のうち、前記指紋画像において画像の鮮明さが不明な画素領域までの第一距離に基づき、前記指紋の照合処理に用いる代表特徴点を決定させる
プログラム。
to the computer,
Determining a representative minutiae to be used in the fingerprint matching process based on a first distance to a pixel region in the fingerprint image whose image sharpness is unknown among a plurality of minutiae of the fingerprint identified in the fingerprint image to be matched. A program that makes
照合元の指紋画像において特定した指紋の複数の特徴点のうち、前記指紋画像において画像の鮮明さが不明な画素領域までの第一距離に基づき、前記指紋の照合処理に用いる代表特徴点を決定する、
指紋処理回路。
Determining a representative minutiae to be used in the fingerprint matching process based on a first distance to a pixel region in the fingerprint image whose image sharpness is unknown among a plurality of minutiae of the fingerprint identified in the fingerprint image to be matched. do,
Fingerprint processing circuit.
JP2022026934A 2020-11-11 2022-02-24 Fingerprint processing device, fingerprint processing method, program, fingerprint processing circuit Active JP7239034B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022026934A JP7239034B2 (en) 2020-11-11 2022-02-24 Fingerprint processing device, fingerprint processing method, program, fingerprint processing circuit

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020188189A JP7031717B2 (en) 2020-11-11 2020-11-11 Fingerprint processing device, fingerprint processing method, program, fingerprint processing circuit
JP2022026934A JP7239034B2 (en) 2020-11-11 2022-02-24 Fingerprint processing device, fingerprint processing method, program, fingerprint processing circuit

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020188189A Division JP7031717B2 (en) 2020-11-11 2020-11-11 Fingerprint processing device, fingerprint processing method, program, fingerprint processing circuit

Publications (2)

Publication Number Publication Date
JP2022060505A JP2022060505A (en) 2022-04-14
JP7239034B2 true JP7239034B2 (en) 2023-03-14

Family

ID=87884845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022026934A Active JP7239034B2 (en) 2020-11-11 2022-02-24 Fingerprint processing device, fingerprint processing method, program, fingerprint processing circuit

Country Status (1)

Country Link
JP (1) JP7239034B2 (en)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072895A (en) 1996-12-13 2000-06-06 International Business Machines Corporation System and method using minutiae pruning for fingerprint image processing
JP2001307102A (en) 2000-04-27 2001-11-02 Fujitsu Ltd Personal authentication system and method using living body information and registration device, authentication device and pattern information input medium for the system
JP2001344604A (en) 2000-03-31 2001-12-14 Fujitsu Ltd Method, device and program for composing fingerprint data, computer-readable recording medium with the program recorded thereon and living body feature data composing method
JP2005346518A (en) 2004-06-04 2005-12-15 Dainippon Printing Co Ltd Personal identification method
JP2006012080A (en) 2004-06-29 2006-01-12 Secom Co Ltd Biological information authentication device
JP2006277146A (en) 2005-03-28 2006-10-12 Sanyo Electric Co Ltd Collating method and collating device
JP2007328502A (en) 2006-06-07 2007-12-20 Hitachi Information & Control Solutions Ltd Biometrics method and system
JP4098468B2 (en) 2000-06-27 2008-06-11 株式会社リコー High voltage power supply
WO2010119500A1 (en) 2009-04-13 2010-10-21 富士通株式会社 Biometric information registration device, biometric information registration method, computer program for registering biometric information, biometric authentication device, biometric authentication method, and computer program for biometric authentication
JP2011141744A (en) 2010-01-07 2011-07-21 Nec Infrontia Corp Fingerprint characteristic amount extraction device, fingerprint input device, fingerprint authentication device and fingerprint characteristic amount extraction method
WO2012127630A1 (en) 2011-03-22 2012-09-27 富士通株式会社 Biometric authentication system, biometric authentication method, and biometric authentication program
JP7057092B2 (en) 2017-10-12 2022-04-19 キヤノン株式会社 Toner and toner manufacturing method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0498468A (en) * 1990-08-11 1992-03-31 Omron Corp Feature point selecting method in fingerprint collating device
JP2865528B2 (en) * 1993-08-11 1999-03-08 株式会社山武 Fingerprint collation device

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6072895A (en) 1996-12-13 2000-06-06 International Business Machines Corporation System and method using minutiae pruning for fingerprint image processing
JP2001344604A (en) 2000-03-31 2001-12-14 Fujitsu Ltd Method, device and program for composing fingerprint data, computer-readable recording medium with the program recorded thereon and living body feature data composing method
JP2001307102A (en) 2000-04-27 2001-11-02 Fujitsu Ltd Personal authentication system and method using living body information and registration device, authentication device and pattern information input medium for the system
JP4098468B2 (en) 2000-06-27 2008-06-11 株式会社リコー High voltage power supply
JP2005346518A (en) 2004-06-04 2005-12-15 Dainippon Printing Co Ltd Personal identification method
JP2006012080A (en) 2004-06-29 2006-01-12 Secom Co Ltd Biological information authentication device
JP2006277146A (en) 2005-03-28 2006-10-12 Sanyo Electric Co Ltd Collating method and collating device
JP2007328502A (en) 2006-06-07 2007-12-20 Hitachi Information & Control Solutions Ltd Biometrics method and system
WO2010119500A1 (en) 2009-04-13 2010-10-21 富士通株式会社 Biometric information registration device, biometric information registration method, computer program for registering biometric information, biometric authentication device, biometric authentication method, and computer program for biometric authentication
JP2011141744A (en) 2010-01-07 2011-07-21 Nec Infrontia Corp Fingerprint characteristic amount extraction device, fingerprint input device, fingerprint authentication device and fingerprint characteristic amount extraction method
WO2012127630A1 (en) 2011-03-22 2012-09-27 富士通株式会社 Biometric authentication system, biometric authentication method, and biometric authentication program
JP7057092B2 (en) 2017-10-12 2022-04-19 キヤノン株式会社 Toner and toner manufacturing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
中村 高宏、外2名,"不一致特徴点の信頼性評価を用いた指紋照合",電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,2006年03月10日,Vol.105, No.674,pp.167-172

Also Published As

Publication number Publication date
JP2022060505A (en) 2022-04-14

Similar Documents

Publication Publication Date Title
JP6794766B2 (en) Fingerprint processing device, fingerprint processing method, program, fingerprint processing circuit
KR101917515B1 (en) Object recognition apparatus, objection recognition method, and program
US20100183230A1 (en) Feature attribute calculation apparatus, feature extraction apparatus, pattern matching apparatus, and method
JP2005092346A (en) Characteristic extraction method from three-dimensional data and device
CN101383005A (en) Method for separating passenger target image and background by auxiliary regular veins
JPH09185676A (en) Ruled line elimination method
CN110348307B (en) Path edge identification method and system for crane metal structure climbing robot
CN114549400A (en) Image identification method and device
US7403636B2 (en) Method and apparatus for processing an image
JP7239034B2 (en) Fingerprint processing device, fingerprint processing method, program, fingerprint processing circuit
US7386172B2 (en) Image recognition method
JP7031717B2 (en) Fingerprint processing device, fingerprint processing method, program, fingerprint processing circuit
KR20180025135A (en) Apparatus and method for inside wall frame detection based on single image
JP6591257B2 (en) Image processing apparatus, image processing method, and program
JP2898562B2 (en) License plate determination method
US6198846B1 (en) Character recognition system
US11915498B2 (en) Reading system, reading device, and storage medium
JPH11110542A (en) Method and device for extracting pattern and medium recorded with program therefor
CN113205067A (en) Method and device for monitoring operator, electronic equipment and storage medium
WO2015136716A1 (en) Image processing device, image sensor, and image processing method
Kundu et al. Accurate localizations of reference points in a fingerprint image
Li et al. Image stitching algorithm based on fast feature extraction and perceptual hash
Arai Braille block recognition by analyzing autocorrelation patterns
CN115457257A (en) Cross-modal vehicle detection method based on multilayer local sampling and three-dimensional view cone point cloud
Liu et al. Practical Orientation Field Estimation for Embedded Fingerprint Recognition Systems

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230213

R151 Written notification of patent or utility model registration

Ref document number: 7239034

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151