JPWO2017038668A1 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JPWO2017038668A1
JPWO2017038668A1 JP2017537828A JP2017537828A JPWO2017038668A1 JP WO2017038668 A1 JPWO2017038668 A1 JP WO2017038668A1 JP 2017537828 A JP2017537828 A JP 2017537828A JP 2017537828 A JP2017537828 A JP 2017537828A JP WO2017038668 A1 JPWO2017038668 A1 JP WO2017038668A1
Authority
JP
Japan
Prior art keywords
feature
feature point
core
image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017537828A
Other languages
Japanese (ja)
Other versions
JP6729592B2 (en
Inventor
原 雅範
雅範 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2017038668A1 publication Critical patent/JPWO2017038668A1/en
Priority to JP2020114010A priority Critical patent/JP6935832B2/en
Application granted granted Critical
Publication of JP6729592B2 publication Critical patent/JP6729592B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本発明は、指紋等の照合における精度向上に貢献する特徴量を算出する画像処理装置を提供する。画像処理装置は、画像入力部と、芯線画像抽出部と、芯線追加部と、を備える。画像入力部は、隆線により曲線縞模様が形成されている画像を入力する。芯線画像抽出部は、当該画像から芯線を抽出した芯線画像を生成する。芯線追加部は、芯線画像から、予め定めた特徴を有する隆線又は領域を検出し、検出された隆線又は領域に芯線を追加する。The present invention provides an image processing apparatus that calculates a feature amount that contributes to accuracy improvement in collation of fingerprints and the like. The image processing apparatus includes an image input unit, a core line image extraction unit, and a core line addition unit. The image input unit inputs an image in which a curved stripe pattern is formed by ridges. The core line image extraction unit generates a core line image obtained by extracting a core line from the image. The core line adding unit detects a ridge or area having a predetermined characteristic from the core line image, and adds the core line to the detected ridge or area.

Description

[関連出願についての記載]
本発明は、日本国特許出願:特願2015−168471号(2015年8月28日出願)に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
本発明は、画像処理装置、画像処理方法及びプログラムに関する。特に、指紋画像等の曲線縞模様状の画像データを処理する、画像処理装置、画像処理方法及びプログラムに関する。
[Description of related applications]
The present invention is based on a Japanese patent application: Japanese Patent Application No. 2015-168471 (filed on August 28, 2015), and the entire contents of this application are incorporated in the present specification by reference.
The present invention relates to an image processing apparatus, an image processing method, and a program. In particular, the present invention relates to an image processing apparatus, an image processing method, and a program for processing image data having a curved stripe pattern such as a fingerprint image.

曲線縞模様状の多数の隆線により構成される指紋、掌紋は、古くから人物確認の手段として利用されている。特に、犯罪現場に残された遺留指紋を用いる照合は、効果的な捜査手段である。多くの警察機関等には、コンピュータを利用した指紋照合システム(AFIS;Automated Fingerprint Identification System)が導入されている。指紋照合システムでは、データベースに登録された指紋画像と犯罪現場等にて採取された遺留指紋それぞれの特徴点(Minutiaとも称される)を照合することで、遺留指紋に対応する人物の特定がなされる。   Fingerprints and palm prints composed of a large number of ridges with a curved stripe pattern have long been used as a means for confirming a person. In particular, verification using a residual fingerprint left at the crime scene is an effective investigation means. Many police agencies and the like have introduced a fingerprint collation system (AFIS) using a computer (Automatic Fingerprint Identification System). In the fingerprint verification system, the fingerprint image registered in the database is compared with the feature points (also called Minutia) of each retained fingerprint collected at the crime scene, and the person corresponding to the retained fingerprint is identified. The

指紋照合に用いられる特徴点(指紋特徴点)には、指紋隆線の端点や分岐点が用いられることが多い。例えば、非特許文献1の「4.3 Minutiae−Based Methods」にて開示されているように、指紋隆線の端点や分岐点を用いた特徴点照合が用いられている。   In many cases, an end point or a branch point of a fingerprint ridge is used as a feature point (fingerprint feature point) used for fingerprint collation. For example, as disclosed in “4.3 Minute-Based Methods” of Non-Patent Document 1, feature point matching using the end points and branch points of fingerprint ridges is used.

また、警察機関等における指紋照合システムの運用では、高品質な押捺指紋に対しては、特徴点が自動的に抽出されデータベースに登録されるが、低品質な指紋画像が多い遺留指紋に対しては、鑑識官(Examiner)がマニュアルで特徴点を入力することが多い。その上で、データベースに登録された指紋画像の特徴点が被探索側(ファイル側)のデータ、鑑識官が入力した特徴点が探索側(サーチ側)のデータとしてそれぞれ扱われ、両者のデータ間における照合スコアに基づき、指紋照合(人物特定)が行われる。   Also, in the operation of fingerprint verification systems in police agencies, for high-quality imprinted fingerprints, feature points are automatically extracted and registered in the database, but for low-quality fingerprint images In many cases, Examiner manually inputs feature points. In addition, the feature points of the fingerprint image registered in the database are treated as data on the search side (file side), and the feature points input by the inspector are handled as data on the search side (search side). Fingerprint collation (person identification) is performed based on the collation score.

非特許文献2には、コア(Core)、デルタ(Delta)、中核蹄線(Innermost Recurve or loop)等の鑑識用語が記載されている。   Non-Patent Document 2 describes such descriptive terms as core, delta, and innermost recurve or loop.

特許文献1において、特徴点(分岐点、端点)の方向を特徴付ける特徴量として特徴点方向が記載されている。   In Patent Document 1, a feature point direction is described as a feature amount that characterizes the direction of a feature point (branch point, end point).

特開2010−267016号公報JP 2010-267016 A

D.Maltoni、“Handbook of Fingerprint Recognition”、Springer、2003D.Maltoni, “Handbook of Fingerprint Recognition”, Springer, 2003 United States. Federal Bureau of Investigation、“The Science of Fingerprints-Classification and Uses”、1990United States. Federal Bureau of Investigation, “The Science of Fingerprints-Classification and Uses”, 1990

なお、上記先行技術文献の各開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明者らによってなされたものである。   Each disclosure of the above prior art document is incorporated herein by reference. The following analysis was made by the present inventors.

指紋画像を特徴付ける特徴量には、端点や分岐点の位置だけではなく、特許文献1に開示されたような方向に関する特徴量が用いられることが多い。例えば、図45(a)に示す指紋画像から特徴点(端点、分岐点)を抽出すると、図45(b)に示すとおりとなる。なお、以降の説明で参照する図面において、隆線の端点を円形、分岐点を正方形にて表記する。   In many cases, not only the position of the end point and the branch point but also the feature amount related to the direction as disclosed in Patent Document 1 is used as the feature amount characterizing the fingerprint image. For example, when feature points (end points, branch points) are extracted from the fingerprint image shown in FIG. 45 (a), the result is as shown in FIG. 45 (b). In the drawings to be referred to in the following description, the end points of the ridges are indicated by circles and the branch points are indicated by squares.

図45(b)に示すように、図45(a)の指紋画像からは3個ずつの端点及び分岐点が抽出される。また、それぞれの端点及び分岐点について、各特徴点の方向に関する特徴量が算出される。図45(b)では、各端点及び分岐点のそれぞれから延伸する短い線が、算出された特徴点の方向に関する特徴量を示す。   As shown in FIG. 45 (b), three end points and branch points are extracted from the fingerprint image of FIG. 45 (a). In addition, for each end point and branch point, a feature amount regarding the direction of each feature point is calculated. In FIG. 45 (b), a short line extending from each of the end points and the branch points indicates the calculated feature amount regarding the direction of the feature point.

各特徴点の位置とその方向(図45(b)に示す短い線の方向を数値化した値)が、各指紋画像を特徴付ける特徴量(特徴量ベクトル)として算出されることが多い。多くの端点及び分岐点が指紋画像の全体に散在しているので、当該指紋画像に散在する特徴点ごとにその位置及び方向が特徴量として算出される。しかしながら、指紋画像の一部の領域は、特徴点の方向に係る特徴量(以下、特徴点方向と表記する)が安定して算出できないことが発明者らの検討の結果判明した。具体的には、指紋画像のコア領域やデルタ領域といった領域では、これらの領域に含まれる特徴点から安定して特徴点方向が算出できないことが判明した。   The position and direction of each feature point (value obtained by digitizing the direction of the short line shown in FIG. 45B) is often calculated as a feature amount (feature amount vector) that characterizes each fingerprint image. Since many end points and branch points are scattered throughout the fingerprint image, the position and direction of each feature point scattered in the fingerprint image is calculated as a feature amount. However, as a result of investigations by the inventors, it has been found that a feature amount related to the direction of a feature point (hereinafter referred to as a feature point direction) cannot be stably calculated in a part of the fingerprint image. Specifically, it has been found that in the regions such as the core region and the delta region of the fingerprint image, the feature point direction cannot be calculated stably from the feature points included in these regions.

図46は、指紋画像の一部の領域を示す図である。図46には、コア領域701とデルタ領域702が示されている。また、領域703はコア領域、デルタ領域以外の領域である。図46を確認すると、コア領域701とデルタ領域702における隆線方向の変動は、他の領域703よりも格段に大きいことが分かる。具体的には、領域703では、全ての隆線が左上から右下にほぼ同じ方向に流れているのに対し、コア領域701では隆線の向きが鋭角に大きく変化しているのが確認できる。また、デルタ領域702では、その中心点を基点して、各隆線が3方向に分岐しているのが確認できる。   FIG. 46 is a diagram illustrating a partial region of a fingerprint image. In FIG. 46, a core region 701 and a delta region 702 are shown. An area 703 is an area other than the core area and the delta area. 46, it can be seen that the fluctuation in the ridge direction in the core region 701 and the delta region 702 is much larger than that in the other regions 703. Specifically, in the region 703, it can be confirmed that all the ridges flow in substantially the same direction from the upper left to the lower right, whereas in the core region 701, the direction of the ridge greatly changes to an acute angle. . Moreover, in the delta area | region 702, it can confirm that each ridge branches in three directions starting from the center point.

詳細は後述するが、分岐点の特徴点方向を算出する際、3本の隆線から形成される3つの内角における角度差が利用される。コア領域やデルタ領域以外の領域では、上記角度差が大きく、ノイズ等の影響により隆線方向が変動したとしても、当該角度差に与える影響は少ない。その結果、コア領域やデルタ領域以外の領域に存在する特徴点からは安定して特徴点方向が算出される。   Although details will be described later, when calculating the feature point direction of the branch point, the angle difference at the three inner angles formed by the three ridges is used. In the regions other than the core region and the delta region, the angle difference is large, and even if the ridge direction fluctuates due to the influence of noise or the like, the influence on the angle difference is small. As a result, the feature point direction is stably calculated from the feature points existing in the regions other than the core region and the delta region.

しかし、図46に示すように、コア領域やデルタ領域は、隆線方向が大きく変化し得る領域であるため、ノイズの影響や画像処理の方式の違いにより、分岐点を形成する3本の隆線同士の関係が容易に変化し得る。その結果、3本の隆線から形成される3つの内角における角度差もまた変動し、当該角度差に基づき算出される特徴点方向が安定しない。このように、高品質な押捺指紋を用いたとしても、コア領域やデルタ領域では特徴点方向を安定して算出することができないという問題がある。   However, as shown in FIG. 46, the core region and the delta region are regions in which the ridge direction can be greatly changed. The relationship between the lines can easily change. As a result, the angle difference at the three inner angles formed by the three ridges also varies, and the feature point direction calculated based on the angle difference is not stable. As described above, there is a problem that even if a high-quality imprinted fingerprint is used, the feature point direction cannot be stably calculated in the core region and the delta region.

指紋画像を特徴付ける特徴量の1つである特徴点方向が安定して算出できないと、異なる時期、場所等にて採取された同一人物の指紋画像(対指紋画像)であっても、対応する特徴点の特徴点方向が異なることになる。その結果、2つの指紋画像の照合において、本来、対(ペア)となる特徴点同士が非対の特徴点と判断され、照合スコアが悪化する(照合精度が悪化する)。   If the feature point direction, which is one of the feature quantities that characterize a fingerprint image, cannot be calculated stably, even if it is a fingerprint image (versus-fingerprint image) of the same person taken at different times, places, etc., the corresponding feature The feature point directions of the points will be different. As a result, in the matching of two fingerprint images, the feature points that are originally paired are determined to be non-paired feature points, and the matching score deteriorates (matching accuracy deteriorates).

このような実情から、遺留指紋に係る指紋画像により特徴点方向を算出する際には、コア領域やデルタ領域に含まれる特徴点を用いないという運用がされることがある。しかし、コア領域やデルタ領域には多様な隆線形状が存在し、個々の指紋に特有な形状を有するものであるため、本来これらの領域は指紋照合における有効な領域であると言える。換言するならば、特徴点方向が安定して算出できないという理由から、コア領域やデルタ領域は十分活用されているとは言えず、これらの領域に含まれる特徴点を適切に特徴付ける特徴量を算出することで、指紋照合の精度を向上させる余地があると言える。   From such a situation, when the feature point direction is calculated from the fingerprint image related to the retained fingerprint, there is a case where the feature point included in the core region or the delta region is not used. However, since various ridge shapes exist in the core region and the delta region and have shapes specific to individual fingerprints, it can be said that these regions are originally effective regions for fingerprint matching. In other words, the core region and delta region are not fully utilized because the feature point direction cannot be calculated stably, and feature quantities that appropriately characterize the feature points included in these regions are calculated. By doing so, it can be said that there is room for improving the accuracy of fingerprint matching.

本発明は、指紋等の照合における精度向上に貢献する特徴量を算出する、画像処理装置、画像処理方法及びプログラムを、提供することを目的とする。   An object of the present invention is to provide an image processing apparatus, an image processing method, and a program for calculating a feature amount that contributes to accuracy improvement in fingerprint collation.

本発明の第1の視点によれば、隆線により曲線縞模様が形成されている画像を入力する画像入力部と、前記画像から芯線を抽出した芯線画像を生成する、芯線画像抽出部と、前記芯線画像から、予め定めた特徴を有する隆線又は領域を検出し、前記検出された隆線又は領域に芯線を追加する芯線追加部と、を備える、画像処理装置が提供される。   According to a first aspect of the present invention, an image input unit that inputs an image in which a curved stripe pattern is formed by ridges, a core line image extraction unit that generates a core line image obtained by extracting a core line from the image, There is provided an image processing apparatus comprising: a core line adding unit that detects a ridge or area having a predetermined characteristic from the core line image and adds a core line to the detected ridge or area.

本発明の第2の視点によれば、隆線により曲線縞模様が形成されている画像を入力するステップと、前記画像から芯線を抽出した芯線画像を生成するステップと、前記芯線画像から、予め定めた特徴を有する隆線又は領域を検出し、前記検出された隆線又は領域に芯線を追加するステップと、を含む、画像処理方法が提供される。   According to a second aspect of the present invention, from the step of inputting an image in which a curved stripe pattern is formed by ridges, the step of generating a core line image obtained by extracting a core line from the image, and the core line image, Detecting a ridge or region having a defined characteristic, and adding a core line to the detected ridge or region.

本発明の第3の視点によれば、隆線により曲線縞模様が形成されている画像を入力する処理と、前記画像から芯線を抽出した芯線画像を生成する処理と、前記芯線画像から、予め定めた特徴を有する隆線又は領域を検出し、前記検出された隆線又は領域に芯線を追加する処理と、を画像処理装置に搭載されたコンピュータに実行させるプログラムが提供される。
なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
According to a third aspect of the present invention, from a process of inputting an image in which a curved stripe pattern is formed by ridges, a process of generating a core line image obtained by extracting a core line from the image, and the core line image, There is provided a program for detecting a ridge or area having a defined characteristic and adding a core line to the detected ridge or area, and causing a computer mounted on the image processing apparatus to execute the process.
This program can be recorded on a computer-readable storage medium. The storage medium may be non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, an optical recording medium, or the like. The present invention can also be embodied as a computer program product.

本発明の各視点によれば、指紋等の照合における精度向上に貢献する特徴量を算出することに寄与する、画像処理装置、画像処理方法及びプログラムが、提供される。   According to each aspect of the present invention, there are provided an image processing apparatus, an image processing method, and a program that contribute to calculating a feature amount that contributes to accuracy improvement in collation of fingerprints and the like.

一実施形態の概要を説明するための図である。It is a figure for demonstrating the outline | summary of one Embodiment. 第1の実施形態に係る指紋照合システムの構成の一例を示す図である。It is a figure which shows an example of a structure of the fingerprint collation system which concerns on 1st Embodiment. 第1の実施形態に係る特徴量生成装置の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the feature-value production | generation apparatus which concerns on 1st Embodiment. 芯線画像の一例を示す図である。It is a figure which shows an example of a core line image. 分岐点に関する特徴点方向の算出を説明するための図である。It is a figure for demonstrating calculation of the feature point direction regarding a branch point. 端点に関する特徴点方向の算出を説明するための図である。It is a figure for demonstrating the calculation of the feature point direction regarding an end point. 特徴点方向の数値化を説明するための図である。It is a figure for demonstrating the numerical value of a feature point direction. コア領域における特徴点方向の算出に係る問題を説明するための図である。It is a figure for demonstrating the problem which concerns on the calculation of the feature point direction in a core area | region. 遺留指紋画像の一例を示す図である。It is a figure which shows an example of a remains fingerprint image. 特徴点方向のずれを説明するための図である。It is a figure for demonstrating the shift | offset | difference of a feature point direction. 特徴量算出部13の動作の一例を示すフローチャートである。5 is a flowchart illustrating an example of an operation of a feature amount calculation unit 13. 第1及び第2特徴点方向の一例を示す図である。It is a figure which shows an example of the 1st and 2nd feature point direction. 第1及び第2特徴点方向の一例を示す図である。It is a figure which shows an example of the 1st and 2nd feature point direction. デルタ領域に存在する分岐点から第2特徴点方向の算出を説明するための図である。It is a figure for demonstrating the calculation of the 2nd feature point direction from the branch point which exists in a delta area | region. 端点に関する第2特徴点方向の算出処理を説明するための図である。It is a figure for demonstrating the calculation process of the 2nd feature point direction regarding an end point. 端点の第1及び第2特徴点方向の一例を示す図である。It is a figure which shows an example of the 1st and 2nd feature point direction of an end point. 特徴量算出部による第2特徴点方向の算出を説明するための図である。It is a figure for demonstrating the calculation of the 2nd feature point direction by the feature-value calculation part. 特徴量算出部による第2特徴点方向の算出を説明するための図である。It is a figure for demonstrating the calculation of the 2nd feature point direction by the feature-value calculation part. 特徴量算出部が算出する特徴量の一例を示す図である。It is a figure which shows an example of the feature-value which a feature-value calculation part calculates. 第1の実施形態に係る入力装置の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the input device which concerns on 1st Embodiment. 入力装置により表示される操作画面の一例を示す図である。It is a figure which shows an example of the operation screen displayed by an input device. 第1の実施形態に係る照合装置の内部構成の一例を示す図である。It is a figure which shows an example of the internal structure of the collation apparatus which concerns on 1st Embodiment. 特徴点照合部による照合処理を説明するための図である。It is a figure for demonstrating the collation process by a feature point collation part. 特徴点照合部による特徴点間の対応関係を検出する動作を説明するための図である。It is a figure for demonstrating the operation | movement which detects the correspondence between the feature points by a feature point collation part. 特徴点照合部による特徴点間の対応関係を検出する動作を説明するための図である。It is a figure for demonstrating the operation | movement which detects the correspondence between the feature points by a feature point collation part. 特徴点照合部による特徴点間の対応関係を検出する動作を説明するための図である。It is a figure for demonstrating the operation | movement which detects the correspondence between the feature points by a feature point collation part. 特徴点照合部による特徴点間の対応関係を検出する動作を説明するための図である。It is a figure for demonstrating the operation | movement which detects the correspondence between the feature points by a feature point collation part. 2つの特徴点間の対応関係を説明するための図である。It is a figure for demonstrating the correspondence between two feature points. 2つの特徴点間の対応関係を説明するための図である。It is a figure for demonstrating the correspondence between two feature points. 照合装置が出力する照合結果の一例を示す図である。It is a figure which shows an example of the collation result which a collation apparatus outputs. 第1の実施形態に係る指紋照合システムの全体動作の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the whole operation | movement of the fingerprint collation system which concerns on 1st Embodiment. 中核蹄線を説明するための図である。It is a figure for demonstrating a core hoof line. デルタ領域には特徴点が存在しないことがあり得ることを説明するための図である。It is a figure for demonstrating that a feature point may not exist in a delta area | region. 第2の実施形態に係る特徴量生成装置の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of the feature-value production | generation apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る芯線追加部を説明するための図である。It is a figure for demonstrating the core wire addition part which concerns on 2nd Embodiment. 第2の実施形態に係る芯線追加部を説明するための図である。It is a figure for demonstrating the core wire addition part which concerns on 2nd Embodiment. 鑑識官による突起芯線の入力を説明するための図である。It is a figure for demonstrating the input of the protrusion core wire by the inspector. 鑑識官によるデルタドット芯線の入力を説明するための図である。It is a figure for demonstrating the input of the delta dot core wire by an inspector. 中核蹄線の遷移を説明するための図である。It is a figure for demonstrating transition of a core hoof line. デルタ領域における指紋画像の一例を示す図である。It is a figure which shows an example of the fingerprint image in a delta area | region. 一実施形態に係る画像処理装置の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of the image processing apparatus which concerns on one Embodiment. 特徴量生成装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a feature-value production | generation apparatus. 入力装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of an input device. 照合装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of a collation apparatus. 指紋画像の特徴点と特徴量を説明するための図である。It is a figure for demonstrating the feature point and feature-value of a fingerprint image. 指紋画像の一部の領域を示す図である。It is a figure which shows the one part area | region of a fingerprint image.

初めに、一実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、この概要の記載はなんらの限定を意図するものではない。   First, an outline of one embodiment will be described. Note that the reference numerals of the drawings attached to the outline are attached to the respective elements for convenience as an example for facilitating understanding, and the description of the outline is not intended to be any limitation.

一実施形態に係る画像処理装置100は、画像入力部101と、芯線画像抽出部102と、芯線追加部103と、を備える。画像入力部101は、隆線により曲線縞模様が形成されている画像を入力する。芯線画像抽出部102は、当該画像から芯線を抽出した芯線画像を生成する。芯線追加部103は、芯線画像から、予め定めた特徴を有する隆線又は領域を検出し、検出された隆線又は領域に芯線を追加する。   An image processing apparatus 100 according to an embodiment includes an image input unit 101, a core line image extraction unit 102, and a core line addition unit 103. The image input unit 101 inputs an image in which a curved stripe pattern is formed by ridges. The core line image extraction unit 102 generates a core line image obtained by extracting a core line from the image. The core line adding unit 103 detects a ridge or area having a predetermined characteristic from the core line image, and adds the core line to the detected ridge or area.

詳細については、後述するが、コア領域やデルタ領域には稀に特徴点が存在しない場合がある。また、コア領域やデルタ領域はノイズ等の影響を受けやすいという特徴がある。このような事情により、サーチ側とファイル側の指紋画像において、一方のコア領域等には特徴点が存在し、他方のコア領域等には特徴点が存在しないという状況が生じうる。このような状況が発生すると、高い照合精度が期待できない。そこで、一実施形態に係る画像処理装置100は、芯線画像からコア領域にて現れる隆線(後述の中核蹄線)やデルタ領域を検出し、これらの検出対象に芯線を追加する。その結果、2つの指紋画像(芯線画像)において、一方には特徴点が存在し、他方には特徴点が存在しないという状況を回避し、照合精度の劣化を抑制できる。   Although details will be described later, there are rare cases where feature points do not exist in the core region and the delta region. In addition, the core region and the delta region are characterized by being easily affected by noise and the like. Due to such a situation, in the fingerprint images on the search side and the file side, a feature point may exist in one core region or the like, and a feature point may not exist in the other core region or the like. When such a situation occurs, high collation accuracy cannot be expected. Therefore, the image processing apparatus 100 according to an embodiment detects ridges (core hoof lines described later) and delta regions that appear in the core region from the core image, and adds the core wire to these detection targets. As a result, in two fingerprint images (core line images), it is possible to avoid a situation in which a feature point exists on one side and a feature point does not exist on the other side, and deterioration of matching accuracy can be suppressed.

以下に具体的な実施の形態について、図面を参照してさらに詳しく説明する。なお、各実施形態において同一構成要素には同一の符号を付し、その説明を省略する。   Hereinafter, specific embodiments will be described in more detail with reference to the drawings. In addition, in each embodiment, the same code | symbol is attached | subjected to the same component and the description is abbreviate | omitted.

[第1の実施形態]
第1の実施形態について、図面を用いてより詳細に説明する。
[First Embodiment]
The first embodiment will be described in more detail with reference to the drawings.

図2は、第1の実施形態に係る指紋照合システムの構成の一例を示す図である。図2を参照すると、指紋照合システムは、特徴量生成装置10と、データベース20と、入力装置30と、照合装置40と、を含んで構成される。   FIG. 2 is a diagram illustrating an example of the configuration of the fingerprint matching system according to the first embodiment. Referring to FIG. 2, the fingerprint collation system includes a feature quantity generation device 10, a database 20, an input device 30, and a collation device 40.

特徴量生成装置10は、指紋画像に係るデータ及びそのID(Identifier)情報を入力し、当該入力した指紋画像を特徴付ける特徴量(特徴量ベクトル)を生成する。特徴量生成装置10は、生成した特徴量を指紋画像のID情報と共に、データベース20に出力する。   The feature quantity generation device 10 inputs data relating to a fingerprint image and its ID (Identifier) information, and generates a feature quantity (feature quantity vector) that characterizes the inputted fingerprint image. The feature amount generation device 10 outputs the generated feature amount together with the fingerprint image ID information to the database 20.

データベース20は、指紋画像の特徴量とそのID情報を関連付けて記憶する。   The database 20 stores the fingerprint image feature quantity and its ID information in association with each other.

入力装置30は、例えば、鑑識官が使用する装置である。入力装置30は、例えば、マウスやタブレット等のポインティングデバイスによる操作を受け付け、鑑識官が特徴量を入力する装置である。入力装置30は、鑑識官が入力した特徴量を、指紋画像のID情報と共に照合装置40に出力する。   The input device 30 is, for example, a device used by an expert. The input device 30 is a device that accepts an operation by a pointing device such as a mouse or a tablet, for example, and an expert officer inputs a feature amount. The input device 30 outputs the feature amount input by the inspector to the verification device 40 together with the ID information of the fingerprint image.

照合装置40は、鑑識官が入力した特徴量(入力装置30が出力する特徴量)を用いた照合処理を実行する。具体的には、照合装置40は、鑑識官が入力した特徴量とデータベース20にアクセスすることで得られる特徴量を比較することで、鑑識官が入力した特徴量と同じ、又は、類似する特徴量を持つ指紋画像を特定する。   The collation device 40 executes a collation process using the feature amount input by the expert (a feature amount output from the input device 30). Specifically, the collation device 40 compares the feature amount input by the inspector with the feature amount obtained by accessing the database 20, thereby the feature that is the same as or similar to the feature amount input by the inspector. Identify fingerprint images with volume.

ここで、押捺指紋は、データベース等へ登録する目的で採取される指紋であり、隆線領域の面積は広く品質は良いという特徴を有する。対して、遺留指紋は、犯罪現場等に遺留された指紋であり、明瞭な隆線領域の面積は狭く、品質が低いことが多いという特徴を持つ。遺留指紋に関しては、信頼度の高い特徴量を得るために、鑑識官が特徴量を入力することが多い。   Here, the imprint fingerprint is a fingerprint collected for the purpose of registration in a database or the like, and has a feature that the area of the ridge region is wide and the quality is good. On the other hand, a deceased fingerprint is a fingerprint detained at a crime scene or the like, and has a feature that the area of a clear ridge region is narrow and the quality is often low. In order to obtain a highly reliable feature quantity, a forensic officer often inputs a feature quantity for a remnant fingerprint.

このような事情を鑑み、第1の実施形態では、特徴量生成装置10は押捺指紋に係る画像を入力し、入力装置30にて鑑識官が特徴量を入力する指紋画像は遺留指紋に係る画像とする。但し、各装置が扱うことができる指紋画像を限定する趣旨ではない。特徴量生成装置10が遺留指紋から特徴量を生成し、その特徴量を照合装置40に提供しても良いし、鑑識官が押捺指紋から特徴量を抽出してもよい。換言するならば、照合の対象となる指紋は、押捺指紋同士でも良いし、遺留指紋同士でも良い。但し、犯罪捜査の用途では、遺留指紋と押捺指紋の照合が行われることが多いことを考慮して、第1の実施形態では上記の構成としている。   In view of such circumstances, in the first embodiment, the feature amount generation device 10 inputs an image related to a fingerprint, and the fingerprint image that the inspector inputs the feature amount in the input device 30 is an image related to a retained fingerprint. And However, this is not intended to limit the fingerprint images that can be handled by each device. The feature quantity generation device 10 may generate a feature quantity from the retained fingerprint and provide the feature quantity to the collation device 40, or an inspector may extract the feature quantity from the imprinted fingerprint. In other words, the fingerprints to be collated may be either imprinted fingerprints or retained fingerprints. However, in the criminal investigation use, the above-described configuration is adopted in the first embodiment in consideration of the fact that the remnant fingerprint and the fingerprint are often collated.

[特徴量生成装置の構成及び動作]
図3は、特徴量生成装置10の内部構成の一例を示す図である。図3を参照すると、特徴量生成装置10は、指紋画像入力部11と、芯線画像抽出部12と、特徴量算出部13と、特徴量出力部14と、記憶部15と、を含んで構成される。なお、指紋画像入力部11等の各部は相互にデータの授受が可能に構成されると共に、記憶部15に格納されたデータにアクセス可能である。
[Configuration and Operation of Feature Generation Device]
FIG. 3 is a diagram illustrating an example of an internal configuration of the feature value generation apparatus 10. Referring to FIG. 3, the feature quantity generation device 10 includes a fingerprint image input unit 11, a core line image extraction unit 12, a feature quantity calculation unit 13, a feature quantity output unit 14, and a storage unit 15. Is done. Each unit such as the fingerprint image input unit 11 is configured to be able to exchange data with each other, and can access data stored in the storage unit 15.

指紋画像入力部11は、外部から指紋画像(隆線により曲線縞模様が形成されている画像)に係るデータと、当該指紋画像のID情報と、を入力する手段である。例えば、指紋画像入力部11は、USB(Universal Serial Bus)メモリ等の外部記憶媒体に格納された指紋画像のデジタルデータ(画像ファイル)を取り込み、芯線画像抽出部12に当該データを引き渡す。又は、指紋画像入力部11は、ネットワークを介して指紋画像に係るデータ等を入力してもよい。あるいは、スキャナ等によりデジタル化された指紋画像を入力する構成ではなく、指紋画像入力部11にスキャナ機能を搭載することで、デジタル化された指紋画像を取得してもよい。   The fingerprint image input unit 11 is a means for inputting data relating to a fingerprint image (an image in which a curved stripe pattern is formed by ridges) and ID information of the fingerprint image from the outside. For example, the fingerprint image input unit 11 takes in digital data (image file) of a fingerprint image stored in an external storage medium such as a USB (Universal Serial Bus) memory, and delivers the data to the core image extraction unit 12. Alternatively, the fingerprint image input unit 11 may input data relating to a fingerprint image via a network. Alternatively, the digitized fingerprint image may be acquired by mounting the scanner function in the fingerprint image input unit 11 instead of inputting the digitized fingerprint image by a scanner or the like.

指紋画像には標準化された規格が存在する。具体的には、米国National Institute of Standards and Technologyにより標準化されたANSI/NIST-ITL-1-2000 Data Format for the Interchange of Fingerprint、Facial、& Scar Mark & Tattoo (SMT) Informationが存在する。指紋画像入力部11は、上記規格に基づきデジタル化された指紋画像(例えば、解像度が500dpiの指紋画像)を取り扱えることが望ましい。   There is a standardized standard for fingerprint images. Specifically, there are ANSI / NIST-ITL-1-2000 Data Format for the Interchange of Fingerprint, Facial, & Scar Mark & Tattoo (SMT) Information standardized by the National Institute of Standards and Technology. It is desirable that the fingerprint image input unit 11 can handle a digitized fingerprint image (for example, a fingerprint image having a resolution of 500 dpi) based on the above standard.

記憶部15は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)、HDD(Hard Disk Drive)等の媒体により構成され、芯線画像抽出部12等の各部が作業領域やデータを格納領域として使用する。   The storage unit 15 is configured by a medium such as a RAM (Random Access Memory), a ROM (Read Only Memory), or an HDD (Hard Disk Drive), for example, and each unit such as the core image extraction unit 12 stores a work area and data. Use as

芯線画像抽出部12は、取得した指紋画像から芯線画像を抽出する手段である。例えば、芯線画像抽出部12は、図4に示すような芯線画像を抽出する。なお、芯線画像抽出部12は、非特許文献1の「3 Fingerprint Analysis and Representation」に開示された芯線画像抽出手法を用いることができる。そのため、芯線画像の抽出に関する詳細な説明は省略するが、芯線画像抽出部12は、概略以下の手順にて、芯線画像を抽出する。   The core line image extraction unit 12 is means for extracting a core line image from the acquired fingerprint image. For example, the core image extraction unit 12 extracts a core image as shown in FIG. Note that the core image extraction unit 12 can use the core image extraction method disclosed in “3 Fingerprint Analysis and Representation” of Non-Patent Document 1. Therefore, although detailed description regarding the extraction of the core line image is omitted, the core line image extraction unit 12 extracts the core line image in the following general procedure.

芯線画像抽出部12は、初めに、指紋画像の隆線の方向を抽出する。その後、芯線画像抽出部12は、当該隆線方向に沿って各隆線を強調し、二値画像を生成する。その後、芯線画像抽出部12は、二値画像を芯線化することで、芯線画像(芯線データ)を抽出する。   The core line image extraction unit 12 first extracts the direction of the ridge of the fingerprint image. Thereafter, the core image extraction unit 12 emphasizes each ridge along the ridge direction and generates a binary image. Thereafter, the core image extraction unit 12 extracts a core image (core data) by converting the binary image into a core.

特徴量算出部13は、芯線画像から特徴点を抽出し、当該特徴点を特徴付ける特徴量を算出する手段である。特徴量算出部13が算出する特徴量には、特徴点(端点、分岐点)の位置と、当該特徴点を方向により特徴付ける特徴点方向と、が含まれる。   The feature amount calculation unit 13 is a means for extracting feature points from the core image and calculating feature amounts that characterize the feature points. The feature amount calculated by the feature amount calculation unit 13 includes the position of the feature point (end point, branch point) and the feature point direction that characterizes the feature point according to the direction.

特徴量算出部13は、芯線画像抽出部12が抽出した芯線画像から、芯線の分岐点及び端点を抽出することで、特徴点を抽出する。なお、芯線画像から特徴点を抽出する際の手順には、非特許文献1の「3 Fingerprint Analysis and Representation」に開示された特徴点抽出手法を用いることができる。そのため、特徴点抽出に関する詳細な説明は省略する。また、特徴量算出部13は、特徴点の抽出の際に、指紋画像の特異点(コア型特異点、デルタ型特異点)を抽出し、特徴量の1つとして利用する。   The feature quantity calculation unit 13 extracts feature points by extracting branch points and end points of the core line from the core line image extracted by the core line image extraction unit 12. Note that the feature point extraction method disclosed in “3 Fingerprint Analysis and Representation” of Non-Patent Document 1 can be used as a procedure for extracting feature points from a core image. Therefore, the detailed description regarding feature point extraction is abbreviate | omitted. In addition, the feature amount calculation unit 13 extracts a singular point (core type singular point or delta type singular point) of a fingerprint image and extracts it as one of the feature amounts.

例えば、特徴量算出部13は、図4に示すような分岐点201、202や、端点211、212を特徴点として抽出し、各特徴点の位置及びその種別(分岐点、端点)を記憶部15に登録する。   For example, the feature quantity calculation unit 13 extracts branch points 201 and 202 and end points 211 and 212 as shown in FIG. 4 as feature points, and stores the position of each feature point and its type (branch point and end point). 15 to register.

以下、特徴量算出部13による特徴点方向の算出に先立ち、通常行われる特徴点方向の算出処理と、その問題点を説明する。   The feature point direction calculation process that is normally performed prior to the feature point direction calculation by the feature amount calculation unit 13 and its problems will be described below.

初めに、分岐点に関する特徴点方向の算出について説明する。その際、図5(a)に示す分岐点203の特徴点方向221の算出を説明する。初めに、分岐点203を形成する3つの隆線(芯線)のそれぞれを分岐点203から一定距離トレースする(隆線上を遡る)ことで、3つの終端点231〜233が決定される(図5(b)参照)。   First, calculation of the feature point direction regarding the branch point will be described. At this time, calculation of the feature point direction 221 of the branch point 203 shown in FIG. First, the three end points 231 to 233 are determined by tracing each of the three ridges (core lines) forming the branch point 203 by a predetermined distance from the branch point 203 (tracing back on the ridge line) (FIG. 5). (See (b)).

次に、分岐点203と3つの終端点231〜233により定まる3本の直線が形成する3つの角度a1〜a3それぞれが計算される(図5(c)参照)。次に、計算された3つの角度のうち、最も角度の小さい角度が決定され、当該角度を2分する方向が、特徴点方向221として算出される(図5(b)参照)。   Next, three angles a1 to a3 formed by three straight lines determined by the branch point 203 and the three end points 231 to 233 are calculated (see FIG. 5C). Next, of the three calculated angles, the smallest angle is determined, and the direction that bisects the angle is calculated as the feature point direction 221 (see FIG. 5B).

なお、本願開示において、1つの点を始点とする2本の直線により形成される2つの角度のうち、角度の小さい方を内角、大きい方を外角と定める。また、1つの点を始点とする3本の直線により形成される3つの角度のうち、最小の角度をもつものを最小内角、2番目に小さい角度をもつものを第2最小内角、角度の最も大きいものを最大内角と定める。図5(c)の例では、角度a1が最小内角、角度a2の方が角度a3よりも小さければ、角度a2が第2最小内角となる。   In the present disclosure, of the two angles formed by two straight lines starting from one point, the smaller angle is defined as the inner angle, and the larger angle is defined as the outer angle. Of the three angles formed by three straight lines starting from one point, the one with the smallest angle is the smallest interior angle, the one with the second smallest angle is the second smallest interior angle, The larger one is defined as the maximum interior angle. In the example of FIG. 5C, if the angle a1 is the minimum interior angle and the angle a2 is smaller than the angle a3, the angle a2 is the second minimum interior angle.

次に、図6を参照しつつ、端点に関する特徴点方向の算出について説明する。初めに、端点213から、その端点を形成する隆線(芯線)上を一定距離トレースし、終端点234が算出される。端点213から終端点234に向けた方向が、端点213の特徴点方向として算出される。なお、後述する第1及び第2特徴点方向を含む特徴点方向は、図7に示すように、指紋画像内の2次元座標系におけるX軸と、特徴点方向による直線と、により形成される角度θを用いて特徴量として表記される。   Next, calculation of the feature point direction regarding the end points will be described with reference to FIG. First, the end point 234 is calculated by tracing a certain distance from the end point 213 on the ridge (core line) forming the end point. The direction from the end point 213 toward the end point 234 is calculated as the feature point direction of the end point 213. Note that a feature point direction including first and second feature point directions, which will be described later, is formed by an X axis in a two-dimensional coordinate system in a fingerprint image and a straight line by the feature point direction, as shown in FIG. It is expressed as a feature value using the angle θ.

分岐点及び端点を算出する際のトレース距離は、算出される特徴点方向に大きな影響を与える重要なパラメータである。第1の実施形態では、隆線間隔の2本分を上記トレース距離に設定している。しかし、トレース距離はこれに限られない。   The trace distance when calculating the branch point and the end point is an important parameter that greatly affects the calculated feature point direction. In the first embodiment, two ridge intervals are set as the trace distance. However, the trace distance is not limited to this.

図5及び図6を参照しつつ説明した方法により、特徴点の特徴点方向が算出されるが、コア領域(指紋中心点の近傍)やデルタ領域(三角州の領域)では、算出された特徴点方向が不安定になるという問題がある。その理由を、図8を参照しつつ、説明する。なお、図8(a)に示す指紋画像はコア領域を抜粋した図である。   The feature point direction of the feature point is calculated by the method described with reference to FIG. 5 and FIG. 6, but the calculated feature point is calculated in the core region (near the fingerprint center point) and the delta region (delta region). There is a problem that the direction becomes unstable. The reason will be described with reference to FIG. Note that the fingerprint image shown in FIG. 8A is an excerpt of the core region.

上記方法に従い、図8(a)に示された分岐点204を形成する隆線を3方向に所定の距離、トレースすると、3点の終端点235〜237が得られる(図8(b)参照)。次に、分岐点204と3つの終端点235〜237のそれぞれを結ぶ3本の直線により形成される3つの内角a1〜a3のうち、最小内角a1を2分する方向が分岐点204の特徴点方向として算出される(図8(c)参照)。   When the ridges forming the branch point 204 shown in FIG. 8A are traced in a predetermined distance in three directions according to the above method, three terminal points 235 to 237 are obtained (see FIG. 8B). ). Next, among the three inner angles a1 to a3 formed by three straight lines connecting the branch point 204 and the three end points 235 to 237, the direction that bisects the minimum inner angle a1 is a feature point of the branch point 204. It is calculated as a direction (see FIG. 8C).

ここで、図8(b)を参照すると、3つの内角のうち、最小内角a1と第2最小内角a2の角度差が小さいことが理解される。このことは、3つの内角を定める種々の要因が僅かでも変動すると、最小内角と第2最小内角の関係が逆転し得ることを意味する。例えば、同一の指紋画像であっても、当該指紋画像に適用する二値化や芯線化処理の些細な違いにより特徴点方向が大きく変動する可能性がある。   Here, referring to FIG. 8B, it is understood that the difference between the minimum internal angle a1 and the second minimum internal angle a2 is small among the three internal angles. This means that the relationship between the minimum interior angle and the second minimum interior angle can be reversed if the various factors that define the three interior angles vary even slightly. For example, even in the same fingerprint image, there is a possibility that the direction of the feature point may vary greatly due to a slight difference in binarization and core processing applied to the fingerprint image.

図9は、遺留指紋画像の一例を示す図である。図9に示す指紋画像の分岐点205の周辺を拡大した図が、図10(a)及び図10(d)である。図10(a)及び図10(d)では、指紋画像に対し異なる方式の芯線化処理を施し、その結果を重ねて表示している。図10(b)は図10(a)から芯線を抽出した図であり、図10(e)は図10(d)から芯線を抽出した図である。図10(b)と図10(e)それぞれに示す芯線画像に対して、上述の特徴点方向の算出に係る処理(最小内角を2分する方向を算出する処理)を適用すると、図10(c)と図10(f)に示す特徴点方向242、243が得られる。   FIG. 9 is a diagram illustrating an example of a remnant fingerprint image. FIGS. 10A and 10D are enlarged views of the periphery of the branch point 205 of the fingerprint image shown in FIG. 10A and 10D, the fingerprint image is subjected to different types of core processing, and the results are displayed in an overlapping manner. FIG. 10B is a diagram in which the core wire is extracted from FIG. 10A, and FIG. 10E is a diagram in which the core wire is extracted from FIG. 10D. When the above-described processing related to the calculation of the feature point direction (processing for calculating the direction that bisects the minimum internal angle) is applied to the core image shown in each of FIGS. 10B and 10E, FIG. The characteristic point directions 242 and 243 shown in FIG. 10C and FIG. 10F are obtained.

図10を参照すると、同一の遺留指紋であっても、コア領域に存在する分岐点の特徴点方向は、芯線の些少な違いにより、大きく変動することが確認できる。このように、コア領域では特徴点方向を安定して一意に決定することが困難であり、同じ人物から採取した指紋画像であっても、サーチ側とファイル側にて異なる特徴点方向を算出してしまうことがある。その結果、サーチ側とファイル側にて対となる特徴点間の特徴点方向の差が大きくなり、照合スコアが低下する要因やペアリングが失敗する要因となり得る。   Referring to FIG. 10, it can be confirmed that the direction of the feature point of the branch point existing in the core region varies greatly due to a slight difference in the core line even with the same residual fingerprint. In this way, it is difficult to stably and uniquely determine the feature point direction in the core region, and even for fingerprint images taken from the same person, different feature point directions are calculated on the search side and the file side. May end up. As a result, the difference in the feature point direction between the paired feature points on the search side and the file side becomes large, which can be a factor that lowers the matching score and causes pairing failure.

上記の説明は芯線処理の方式が異なる場合であるが、コア領域にて特徴点方向が一意に定まらないという現象は、遺留指紋に顕著な画像歪みや汚れ等により容易に発生し得る。   Although the above description is for a case where the core line processing method is different, the phenomenon that the feature point direction is not uniquely determined in the core region can easily occur due to noticeable image distortion, dirt, or the like in the retained fingerprint.

さらに、デルタ領域では、分岐点と3つの終端点を結ぶ直線からなる3つの内角の角度差は、コア領域の分岐点よりも小さいものと言える。つまり、デルタ領域では3本の隆線が3方向に延伸するため、3つの内角はほぼ120度前後となる。そのため、デルタ領域では、算出された特徴点方向はより不安定であるという傾向がある。   Furthermore, in the delta region, it can be said that the angle difference between the three interior angles formed by the straight lines connecting the branch point and the three end points is smaller than the branch point of the core region. In other words, since the three ridges extend in three directions in the delta region, the three interior angles are approximately 120 degrees. Therefore, in the delta region, the calculated feature point direction tends to be more unstable.

また、上述したように、遺留指紋の品質は低いことが多く、コンピュータを利用した情報処理による特徴点の自動的な抽出には不向きである。そのため、遺留指紋専門官(Latent Examiner)が、手動にて特徴点の位置とその特徴点方向を入力することが多い。このような入力作業は、「特徴点マニュアル入力」と呼ばれる。専門的な知見を有する遺留指紋専門官であっても、コア領域やデルタ領域の分岐点における最小内角を一意に決定することは困難であり、遺留指紋専門官が異なれば異なる特徴点方向が指定されることも多い。その結果、サーチ側とファイル側の特徴量が異なることになり、照合精度の劣化要因の1つとなっている。   Further, as described above, the quality of a retained fingerprint is often low and is not suitable for automatic extraction of feature points by information processing using a computer. For this reason, a remnant fingerprint specialist (Lent Examiner) often manually inputs the position of the feature point and the direction of the feature point. Such an input operation is called “feature point manual input”. Even a remnant fingerprint specialist with specialized knowledge cannot easily determine the minimum interior angle at the bifurcation point of the core region or delta region. Different remnant fingerprint specialists specify different feature point directions. Often done. As a result, the feature values on the search side and the file side are different, which is one of the causes of deterioration of collation accuracy.

以上の状況を鑑みて、第1の実施形態に係る特徴量生成装置10では、上記図5及び図6を参照しつつ説明した特徴点方向の算出方法による特徴点方向と、当該方法とは異なる方法による特徴点方向と、を算出する。   In view of the above situation, in the feature quantity generation device 10 according to the first embodiment, the feature point direction according to the feature point direction calculation method described with reference to FIGS. 5 and 6 is different from the method. The feature point direction by the method is calculated.

なお、以降の説明において、図5及び図6を参照しつつ説明した特徴点方向の算出方法を第1の算出方法と表記し、当該方法により算出された特徴点方向を第1特徴点方向と表記する。また、以降説明する第1の算出方法とは異なる方法を第2の算出方法と表記すると共に、当該方法により算出された特徴点方向を第2特徴点方向(Secondary Direction)と表記する。   In the following description, the feature point direction calculation method described with reference to FIGS. 5 and 6 is referred to as a first calculation method, and the feature point direction calculated by the method is referred to as a first feature point direction. write. Further, a method different from the first calculation method described below is referred to as a second calculation method, and a feature point direction calculated by the method is referred to as a second feature point direction (Secondary Direction).

図11は、特徴量算出部13の動作の一例を示すフローチャートである。図11を参照しつつ、主に特徴点方向に関する第2の算出方法を説明する。   FIG. 11 is a flowchart illustrating an example of the operation of the feature amount calculation unit 13. With reference to FIG. 11, a second calculation method mainly related to the feature point direction will be described.

ステップS101において、特徴量算出部13は、取得した芯線画像から特徴点を抽出し、その位置及び種別を記憶部15に登録する。その後、特徴量算出部13は、ステップS102以降の処理を実行することで、芯線画像に散在する各特徴点について、その特徴点方向を算出する。   In step S <b> 101, the feature amount calculation unit 13 extracts feature points from the acquired core image, and registers the position and type in the storage unit 15. Thereafter, the feature amount calculation unit 13 calculates the feature point direction of each feature point scattered in the core line image by executing the processing after step S102.

ステップS102において、特徴量算出部13は、特徴点方向算出の対象となっている特徴点が分岐点か端点かを確認する。   In step S <b> 102, the feature amount calculation unit 13 confirms whether the feature point that is the target of feature point direction calculation is a branch point or an end point.

分岐点の場合(ステップS102、Yes分岐)には、特徴量算出部13は、ステップS103〜S105に係る処理を実行する。端点の場合(ステップS102、No分岐)には、特徴量算出部13は、ステップS106〜S116に係る処理を実行する。   In the case of a branch point (step S102, Yes branch), the feature amount calculation unit 13 executes the processes according to steps S103 to S105. In the case of the end point (step S102, No branch), the feature amount calculation unit 13 executes the processing according to steps S106 to S116.

ステップS103において、特徴量算出部13は、第1の算出方法により、分岐点の第1特徴点方向を算出する。ここでは、第1の算出方法により、図8(b)に示す芯線画像と3つの内角a1〜a3が得られ、図8(c)に示す第1特徴点方向が算出されたものとする。   In step S103, the feature amount calculation unit 13 calculates the first feature point direction of the branch point by the first calculation method. Here, it is assumed that the core image shown in FIG. 8B and the three inner angles a1 to a3 are obtained by the first calculation method, and the first feature point direction shown in FIG. 8C is calculated.

第1特徴点方向の算出が終了すると、特徴量算出部13は、第2最小内角と最小内角の差分値(角度差)を計算し、当該差分値が所定の閾値以下か否かを判定する(ステップS104)。図8(b)に示す例では、第2最小内角a2から最小内角a1の角度を減算し、上記差分値が計算される。   When the calculation of the first feature point direction ends, the feature amount calculation unit 13 calculates a difference value (angle difference) between the second minimum interior angle and the minimum interior angle, and determines whether the difference value is equal to or less than a predetermined threshold value. (Step S104). In the example shown in FIG. 8B, the difference value is calculated by subtracting the angle of the minimum internal angle a1 from the second minimum internal angle a2.

上記差分値が閾値以下(ステップS104、Yes分岐)であれば、特徴量算出部13は、分岐点の第2特徴点方向を算出する(ステップS105)。具体的には、特徴量算出部13は、第2最小内角を2分する方向を第2特徴点方向として算出する。例えば、図12に示すように、第1特徴点方向301に加え、第2最小内角a2を2分する第2特徴点方向311が算出される。なお、特徴量算出部13が第2特徴点方向を算出するか否かの判断に用いる閾値(ステップS104の閾値)は、例えば、20度〜30度程度とすることができる。   If the difference value is equal to or less than the threshold value (step S104, Yes branch), the feature amount calculation unit 13 calculates the second feature point direction of the branch point (step S105). Specifically, the feature amount calculation unit 13 calculates the direction that bisects the second minimum interior angle as the second feature point direction. For example, as shown in FIG. 12, in addition to the first feature point direction 301, a second feature point direction 311 that bisects the second minimum interior angle a2 is calculated. In addition, the threshold value (threshold value in step S104) used for determining whether or not the feature amount calculation unit 13 calculates the second feature point direction can be, for example, about 20 degrees to 30 degrees.

ここで、本願開示において、第1特徴点方向を図示する場合には膨らみを持たせた実線を使用し、第2特徴点方向を図示する場合には膨らみのない実線を使用する。   In this disclosure, when the first feature point direction is illustrated, a solid line with a bulge is used, and when the second feature point direction is illustrated, a solid line without a bulge is used.

特徴量算出部13は、第2最小内角と最小内角の角度差が小さい(例えば、角度差が30度以下)場合に、第2最小内角を2分する方向を第2特徴点方向として算出する。差分値が閾値より大きい場合(ステップS104、No分岐)には、特徴量算出部13は、分岐点についての第2特徴点方向を算出せず、処理を終了する。   The feature amount calculation unit 13 calculates the direction that bisects the second minimum internal angle as the second feature point direction when the angle difference between the second minimum internal angle and the minimum internal angle is small (for example, the angle difference is 30 degrees or less). . When the difference value is larger than the threshold value (step S104, No branch), the feature amount calculation unit 13 ends the process without calculating the second feature point direction for the branch point.

図13(a)は、図10(a)に示す指紋画像から算出した第1特徴点方向と第2特徴点方向の一例を示す図であり、図13(b)は図10(d)に示す指紋画像から算出した第1特徴点方向と第2特徴点方向の一例を示す図である。図13を参照すると、図13(a)に示す第1特徴点方向302と図13(b)に示す第2特徴点方向313は一致(実質的に一致;2つの方向のずれが所定の範囲内)し、図13(a)の第2特徴点方向312と図13(b)の第1特徴点方向303が一致(実質的に一致)することが分かる。   FIG. 13A is a diagram illustrating an example of the first feature point direction and the second feature point direction calculated from the fingerprint image illustrated in FIG. 10A, and FIG. 13B is a diagram illustrating FIG. It is a figure which shows an example of the 1st feature point direction calculated from the fingerprint image shown, and a 2nd feature point direction. Referring to FIG. 13, the first feature point direction 302 shown in FIG. 13A and the second feature point direction 313 shown in FIG. 13B match (substantially match; the deviation between the two directions is within a predetermined range) It can be seen that the second feature point direction 312 in FIG. 13A and the first feature point direction 303 in FIG. 13B match (substantially match).

これらの特徴点方向を用いた照合については後述するが、第2特徴点方向を新たな特徴量として導入することで、コア領域等における特徴点方向の変動に起因する照合精度の劣化を抑制できる。即ち、2つの特徴点において、第1特徴点方向が異なるとしても、一方の第1特徴点方向と他方の第2特徴点方向が一致すれば、2つの特徴点は対となる特徴点(対特徴点)と定めることができる。   Although collation using these feature point directions will be described later, by introducing the second feature point direction as a new feature amount, it is possible to suppress degradation of collation accuracy caused by variation in the feature point direction in the core region or the like. . That is, even if the first feature point direction is different between two feature points, if one first feature point direction and the other second feature point direction coincide, the two feature points are paired feature points (pairs). Characteristic point).

上述の第2の算出方法は、コア領域に存在する分岐点を例に取った場合であるが、デルタ領域に存在する分岐点に関しても、コア領域に存在する分岐点から第2特徴点方向を算出する場合と同じ方法で算出できる。   The second calculation method described above is a case where the branch point existing in the core region is taken as an example. However, for the branch point existing in the delta region, the direction of the second feature point from the branch point existing in the core region is also determined. It can be calculated in the same way as the calculation.

例えば、図14を参照すると、最小内角a1により第1特徴点方向304が、第2最小内角a2により第2特徴点方向315がそれぞれ、デルタ領域に存在する分岐点321を特徴付ける特徴点方向として算出される。   For example, referring to FIG. 14, the first feature point direction 304 is calculated by the minimum inner angle a1, and the second feature point direction 315 is calculated by the second minimum inner angle a2 as the feature point directions characterizing the branch point 321 existing in the delta region. Is done.

上記説明したように、特徴量算出部13は、抽出された特徴点が分岐点である場合、当該分岐点をなす3本の隆線が形成する3つの内角のうちの1つの内角(例えば、図8(b)に示す最小内角a1)に基づき、第1特徴点方向を算出する。さらに、特徴量算出部13は、当該3つの内角のうち少なくとも2つの内角間の関係(例えば、図8(b)に示す最小内角a1と第2最小内角a2との間の大小関係)に基づき、第2特徴点方向を算出する。具体的には、特徴量算出部13は、3つの内角のうち、角度が最小である内角と角度が2番目に小さい内角との間の角度差が閾値よりも小さい場合に、第2特徴点方向を算出する。より詳細には、特徴量算出部13は、最小内角を2分する方向であって、隆線をトレースして得られる終端点に向かう方向を第1特徴点方向とし、第2最小内角を2分する方向であって、隆線をトレースして得られる終端点に向かう方向を第2特徴点方向とする。   As described above, when the extracted feature point is a branch point, the feature amount calculation unit 13 selects one of the three interior angles formed by the three ridges forming the branch point (for example, Based on the minimum inner angle a1) shown in FIG. 8B, the first feature point direction is calculated. Further, the feature amount calculation unit 13 is based on a relationship between at least two of the three inner angles (for example, a magnitude relationship between the minimum inner angle a1 and the second minimum inner angle a2 illustrated in FIG. 8B). The second feature point direction is calculated. Specifically, the feature amount calculation unit 13 determines the second feature point when the angle difference between the inner angle having the smallest angle and the inner angle having the second smallest angle is smaller than the threshold among the three inner angles. Calculate the direction. More specifically, the feature amount calculation unit 13 divides the minimum interior angle into two, the direction toward the terminal point obtained by tracing the ridge is the first feature point direction, and the second minimum interior angle is 2 A direction toward the terminal point obtained by tracing the ridge is defined as a second feature point direction.

特徴点が端点の場合(図12のステップS102、No分岐)、特徴量算出部13は、第1の算出方法により、端点の第1特徴点方向を算出する(ステップS106)。   When the feature point is an end point (step S102 in FIG. 12, No branch), the feature amount calculation unit 13 calculates the first feature point direction of the end point by the first calculation method (step S106).

次に、特徴量算出部13は、端点の第2特徴点方向の候補を算出する(ステップS107)。具体的には、特徴量算出部13は、端点から通常のトレース距離(第1の算出方法時のトレース距離;以下、第1トレース距離と表記する)よりも長い距離(以下、第2トレース距離)、隆線上をトレースし2つのトレース距離による2つの終端点を算出する。なお、第2のトレース距離は、第1のトレース距離の倍程度とするのが望ましい。例えば、図15を参照すると、第1の算出処理により終端点341が算出され、端点331から第2のトレース距離に位置する終端点342が算出される。特徴量算出部13は、端点331から第2のトレース距離による終端点342に向かう方向を、第2特徴点方向の候補に設定する。   Next, the feature quantity calculation unit 13 calculates a candidate for the second feature point direction of the end point (step S107). Specifically, the feature amount calculation unit 13 determines a distance (hereinafter referred to as a second trace distance) longer than a normal trace distance from the end point (a trace distance during the first calculation method; hereinafter referred to as a first trace distance). ) Trace on the ridge and calculate two end points by two trace distances. Note that the second trace distance is preferably about twice the first trace distance. For example, referring to FIG. 15, the end point 341 is calculated by the first calculation process, and the end point 342 located at the second trace distance from the end point 331 is calculated. The feature amount calculation unit 13 sets a direction from the end point 331 toward the terminal point 342 according to the second trace distance as a candidate for the second feature point direction.

図11のステップS108において、特徴量算出部13は、端点331と終端点341を結ぶ直線と、端点331と終端点342を結ぶ直線と、から形成される内角b1を計算する。   In step S108 in FIG. 11, the feature amount calculation unit 13 calculates an interior angle b1 formed from a straight line connecting the end point 331 and the end point 341 and a straight line connecting the end point 331 and the end point 342.

その後、特徴量算出部13は、当該計算した角度(図15に示す内角b1)と閾値(例えば、45度)を比較する(ステップS109)。   Thereafter, the feature amount calculation unit 13 compares the calculated angle (inner angle b1 shown in FIG. 15) with a threshold (for example, 45 degrees) (step S109).

計算した内角が閾値よりも大きい場合には(ステップS109、Yes分岐)、特徴量算出部13は、ステップS107にて設定した第2特徴点方向の候補を、そのまま第2特徴点方向に定める(ステップS110)。即ち、特徴量算出部13は、2つのトレース距離それぞれに対応して計算した2つの終端点から得られる内角が閾値よりも大きい場合には、端点から第2のトレース距離により得られる終端点に向かう直線の方向を第2特徴点方向とする。   If the calculated interior angle is larger than the threshold (step S109, Yes branch), the feature amount calculation unit 13 determines the second feature point direction candidate set in step S107 as it is as the second feature point direction ( Step S110). In other words, the feature amount calculation unit 13 changes the end point obtained by the second trace distance from the end point when the interior angle obtained from the two end points calculated corresponding to the two trace distances is larger than the threshold value. Let the direction of the straight line which goes to be a 2nd feature point direction.

図16を参照すると、例えば、第1トレース距離によるトレースにより終端点343が得られ、第2のトレース距離によるトレースにより終端点344が得られるとする。この場合、端点332から終端点343に向けた方向が第1特徴点方向となり、端点332から終端点344に向けた方向が第2特徴点方向となる。   Referring to FIG. 16, for example, it is assumed that the end point 343 is obtained by tracing according to the first trace distance, and the end point 344 is obtained by tracing according to the second trace distance. In this case, the direction from the end point 332 to the end point 343 is the first feature point direction, and the direction from the end point 332 to the end point 344 is the second feature point direction.

上記説明したように、特徴量算出部13は、抽出された特徴点が端点である場合、端点から、端点をなす隆線上を第1の距離トレースすることで得られる第1の終端点に向かう方向を第1特徴点方向とする。また、特徴量算出部13は、端点をなす隆線上を第1の距離よりも長い第2の距離トレースすることで得られる第2の終端点を計算し、端点と第1の終端点を結ぶ直線と、端点と第2の終端点を結ぶ直線と、により端点において形成される内角が、所定の条件(例えば、2本の直線による内角が閾値以上)を満たす場合に、端点から第2の終端点に向かう方向を第2特徴点方向として算出する。   As described above, when the extracted feature point is an end point, the feature amount calculation unit 13 goes from the end point to the first end point obtained by tracing the first distance on the ridge that forms the end point. Let the direction be the first feature point direction. Further, the feature amount calculation unit 13 calculates a second terminal point obtained by tracing a second distance longer than the first distance on the ridge that forms the terminal point, and connects the terminal point and the first terminal point. When the internal angle formed at the end point by the straight line and the straight line connecting the end point and the second end point satisfies a predetermined condition (for example, the internal angle by the two straight lines is equal to or greater than the threshold value), The direction toward the end point is calculated as the second feature point direction.

特徴量算出部13は、ステップS110の方法により第2特徴点方向を定めることができない場合(ステップS109、No分岐)には、ステップS111以降の方法により、第2特徴点方向の算出を試みる。   If the second feature point direction cannot be determined by the method of step S110 (step S109, No branch), the feature amount calculation unit 13 tries to calculate the second feature point direction by the method after step S111.

図17は、特徴量算出部13による第2特徴点方向の算出を説明するための図である。図17を参照しつつ、ステップS111以降の特徴量算出部13の動作を説明する。   FIG. 17 is a diagram for explaining calculation of the second feature point direction by the feature amount calculation unit 13. With reference to FIG. 17, the operation of the feature quantity calculation unit 13 after step S111 will be described.

ステップS111において、特徴量算出部13は、端点333から第1のトレース距離による第1特徴点方向351に相対する方向(反対方向;180度反転した方向)に所定の長さ(例えば、隆線間隔1本分)を有する仮想線361を設定する。   In step S111, the feature amount calculator 13 has a predetermined length (for example, a ridge) in a direction (opposite direction; direction reversed 180 degrees) opposite to the first feature point direction 351 based on the first trace distance from the end point 333. An imaginary line 361 having an interval is set.

次に、特徴量算出部13は、当該仮想線361と隆線の交点が存在するか否かを判定する(ステップS112)。図17の例では、交点371が検出される。   Next, the feature quantity calculation unit 13 determines whether or not an intersection of the virtual line 361 and the ridge exists (step S112). In the example of FIG. 17, an intersection point 371 is detected.

仮想線と隆線の交点が検出された場合(ステップS112、Yes分岐)には、特徴量算出部13は、検出された交点から、隆線上を2方向に一定距離(例えば、隆線間隔2本分)トレースし、2つの終端点345、346を計算する(ステップS113)。   When the intersection of the virtual line and the ridge is detected (step S112, Yes branch), the feature amount calculation unit 13 makes a certain distance in two directions on the ridge from the detected intersection (for example, the ridge interval 2). This is traced, and two end points 345 and 346 are calculated (step S113).

次に、特徴量算出部13は、交点371と端点333を結ぶ直線(仮想線361の一部)と、交点371と終端点345を結ぶ直線と、交点371と終端点346を結ぶ直線と、からなる3本の直線により交点371にて形成される3つの内角a4〜a6を計算する(ステップS114;図17(b)参照)。   Next, the feature amount calculation unit 13 includes a straight line connecting the intersection point 371 and the end point 333 (part of the virtual line 361), a straight line connecting the intersection point 371 and the terminal point 345, and a straight line connecting the intersection point 371 and the terminal point 346. The three inner angles a4 to a6 formed at the intersection 371 by the three straight lines are calculated (step S114; see FIG. 17B).

その後、特徴量算出部13は、3つの内角のうち角度が最も大きい内角a6を除く、2つの内角a4、a5のうち、大きい方の内角(図17の例では、内角a5;第2最小内角)が閾値(例えば、145度)以下か否かを判定する(ステップS115)。   Thereafter, the feature quantity calculation unit 13 excludes the inner angle a6 having the largest angle among the three inner angles, and the larger inner angle (the inner angle a5 in the example of FIG. 17; the second smallest inner angle) of the two inner angles a4 and a5. ) Is less than or equal to a threshold value (for example, 145 degrees) (step S115).

第2最小内角が閾値以下である場合(ステップS115、Yes分岐)には、特徴量算出部13は、交点371から終端点345に向く方向を、第2特徴点方向に定める(ステップS116)。   When the second minimum interior angle is equal to or smaller than the threshold (step S115, Yes branch), the feature amount calculation unit 13 determines the direction from the intersection point 371 to the end point 345 as the second feature point direction (step S116).

図17(c)を参照すると、端点333に対応する特徴点方向として、第1特徴点方向351と、第2特徴点方向352と、が算出される。なお、図17(c)において、交点371を端点333の位置に移動させ、第2特徴点方向352の始点が端点333と重なるように図示している。   Referring to FIG. 17C, a first feature point direction 351 and a second feature point direction 352 are calculated as the feature point directions corresponding to the end point 333. In FIG. 17C, the intersection point 371 is moved to the position of the end point 333, and the start point of the second feature point direction 352 is shown to overlap the end point 333.

第2最小内角が閾値より大きい場合(ステップS115、No分岐)には、特徴量算出部13は、当該端点に対応する第2特徴点方向は存在しないと決定する(処理を終了する)。   When the second minimum interior angle is larger than the threshold value (step S115, No branch), the feature amount calculation unit 13 determines that there is no second feature point direction corresponding to the end point (ends the process).

上記の計算を実行すると、コア領域やデルタ領域以外の領域では、3本の直線により形成される角度のうち、第2最小内角(図17(b)の例では、内角a5)は180度に近い値となる(閾値として定めた145度を超える)。そのため、コア領域やデルタ領域以外の領域では、第2特徴点方向が算出される端点は少ない。   When the above calculation is executed, in the region other than the core region and the delta region, the second minimum interior angle (in the example of FIG. 17B, the interior angle a5) is 180 degrees among the angles formed by the three straight lines. It becomes a close value (exceeds 145 degrees defined as a threshold). Therefore, in regions other than the core region and the delta region, there are few end points at which the second feature point direction is calculated.

なお、図11のフローチャートを参照しつつ説明した端点の第2特徴点方向の算出では、所定の条件に応じて、ステップS110による第2特徴点方向の算出と、ステップS116による第2特徴点方向の算出と、が実行されるがいずれか一方に限り実行され、端点に関する第2特徴点方向の算出が行われても良いことは勿論である。   In the calculation of the second feature point direction of the end point described with reference to the flowchart of FIG. 11, the calculation of the second feature point direction in step S110 and the second feature point direction in step S116 are performed according to predetermined conditions. Of course, it is possible to execute the calculation of the second feature point direction with respect to the end point.

図16及び図17を参照して説明した端点の第2特徴点方向の算出方法は、コア領域における説明であるが、デルタ領域の端点についても同様の方法にて第2特徴点方向を算出できる。   The calculation method of the second feature point direction of the end point described with reference to FIGS. 16 and 17 is the description in the core region, but the second feature point direction can also be calculated by the same method for the end point of the delta region. .

例えば、図18を参照すると、端点334がデルタ領域に存在している。特徴量算出部13は、端点334から第1のトレース距離により終端点347を計算する(第1特徴点方向を算出する)。この場合、端点と第1のトレース距離による終端点を結ぶ直線と、端点と第2のトレース距離による終端点を結ぶ直線と、からなる内角は閾値より小さく(ステップS109、No分岐)、ステップS111以降の処理が実行される。   For example, referring to FIG. 18, an end point 334 is present in the delta region. The feature amount calculation unit 13 calculates the end point 347 from the end point 334 by the first trace distance (calculates the first feature point direction). In this case, the interior angle composed of the straight line connecting the end point and the end point by the first trace distance and the straight line connecting the end point and the end point by the second trace distance is smaller than the threshold (step S109, No branch), and step S111. The subsequent processing is executed.

特徴量算出部13は、第1特徴点方向とは逆の方向に仮想線362を設定し、仮想線362と隆線との交点372を得る(ステップS111)。次に、特徴量算出部13は、交点372から隆線上を2方向に一定距離トレースし、2つの終端点348、349を計算する(ステップS113)。次に、特徴量算出部13は、交点372と端点334を結ぶ直線と、交点372と終端点348を結ぶ直線と、交点372と終端点349を結ぶ直線と、からなる3本の直線により形成される3つの内角a4〜a6を計算する(ステップS114;図18(b)参照)。この場合、第2最小内角a5は、閾値以下と言えるので、交点372から終端点348に向かう方向が、第2特徴点方向353として算出される(ステップS116;図18(c)参照)。なお、図18(c)においても、交点372を端点334の位置に移動させ、第2特徴点方向353の始点が端点334と重なるように図示している。   The feature amount calculation unit 13 sets a virtual line 362 in a direction opposite to the first feature point direction, and obtains an intersection 372 between the virtual line 362 and the ridge (step S111). Next, the feature amount calculation unit 13 traces a certain distance in two directions on the ridge from the intersection point 372, and calculates two end points 348 and 349 (step S113). Next, the feature amount calculation unit 13 is formed by three straight lines including a straight line connecting the intersection point 372 and the end point 334, a straight line connecting the intersection point 372 and the terminal point 348, and a straight line connecting the intersection point 372 and the terminal point 349. The three inner angles a4 to a6 to be calculated are calculated (step S114; see FIG. 18B). In this case, since the second minimum interior angle a5 can be said to be equal to or less than the threshold value, the direction from the intersection point 372 to the terminal point 348 is calculated as the second feature point direction 353 (step S116; see FIG. 18C). 18C, the intersection point 372 is moved to the position of the end point 334, and the start point of the second feature point direction 353 is shown to overlap the end point 334.

上記説明したように、特徴量算出部13は、ステップS110により第2特徴点方向を算出できない場合に、端点から第1特徴点方向とは反対方向に延伸する、端点を始点とする仮想線を設定する。そして、特徴量算出部13は、仮想線が所定の範囲内にて隆線と交点を持ち、且つ、所定の条件を満たす場合に、第2特徴点方向を算出する。   As described above, when the feature amount calculation unit 13 cannot calculate the second feature point direction in step S110, the feature amount calculation unit 13 extends the virtual line starting from the end point in the direction opposite to the first feature point direction. Set. And the feature-value calculation part 13 calculates a 2nd feature point direction, when a virtual line has a ridge and an intersection within a predetermined range, and satisfy | fills a predetermined condition.

以上により、特徴量算出部13による特徴点の特徴量算出処理が終了する。   Thus, the feature point feature amount calculation processing by the feature amount calculation unit 13 ends.

特徴量算出部13による特徴量算出処理が終了すると、図19に示すような特徴量が得られる。図19を参照すると、特徴量算出部13は、指紋画像ごとに当該指紋画像に存在する特徴点に関する特徴量(特徴点の種別、位置、第1特徴点方向、第2特徴点方向)を算出する。上述のように、コア領域やデルタ領域では、第1特徴点方向に加え第2特徴点方向が算出されるが、他の領域では第2特徴点方向が算出されないことが多い。図19では、算出されなかった第2特徴点方向を記号「−」を用いて表記している。   When the feature amount calculation processing by the feature amount calculation unit 13 ends, a feature amount as shown in FIG. 19 is obtained. Referring to FIG. 19, the feature amount calculation unit 13 calculates a feature amount (a feature point type, a position, a first feature point direction, and a second feature point direction) related to feature points existing in the fingerprint image for each fingerprint image. To do. As described above, the second feature point direction is calculated in addition to the first feature point direction in the core region and the delta region, but the second feature point direction is often not calculated in other regions. In FIG. 19, the direction of the second feature point that has not been calculated is described using the symbol “−”.

特徴量算出部13は、算出した特徴量(図19に示すような結果)を特徴量出力部14に引き渡す。   The feature amount calculation unit 13 delivers the calculated feature amount (result as shown in FIG. 19) to the feature amount output unit 14.

特徴量出力部14は、特徴量算出部13が算出した特徴量を、特徴量算出部13により抽出された特徴量としてデータベース20に出力する。その際、特徴量出力部14は、特徴量と、当該特徴量に対応する指紋画像のID情報と、を関連付けて、データベース20に出力する。なお、特徴量出力部14は、算出された特徴量に加え、指紋画像の特異点(コア型特異点、デルタ型特異点)をデータベース20に出力しても良い。   The feature amount output unit 14 outputs the feature amount calculated by the feature amount calculation unit 13 to the database 20 as the feature amount extracted by the feature amount calculation unit 13. At that time, the feature quantity output unit 14 associates the feature quantity with the ID information of the fingerprint image corresponding to the feature quantity, and outputs it to the database 20. The feature amount output unit 14 may output the singular points (core singular points and delta singular points) of the fingerprint image to the database 20 in addition to the calculated feature amounts.

[入力装置の構成及び動作]
次に、入力装置30の構成及び動作について説明する。
[Configuration and operation of input device]
Next, the configuration and operation of the input device 30 will be described.

図20は、入力装置30の内部構成の一例を示す図である。図20を参照すると、入力装置30は、データ入力部31と、データ出力部32と、記憶部33と、を含んで構成される。   FIG. 20 is a diagram illustrating an example of the internal configuration of the input device 30. Referring to FIG. 20, the input device 30 includes a data input unit 31, a data output unit 32, and a storage unit 33.

データ入力部31は、遺留指紋等に係る画像データと当該遺留指紋のID情報を、外部記憶装置(USBメモリ等)やネットワークにより入力する。また、データ入力部31は、鑑識官による操作を受け付けると共に、当該操作に応じた操作画面を生成し、当該操作画面を液晶ディスプレイ等の表示装置(図示せず)に表示する。即ち、データ入力部31は、ユーザ(オペレータ)の操作に供する画面を表示装置に表示し、ユーザによる特徴点の特徴量を入力する操作を受け付ける。   The data input unit 31 inputs image data related to a retained fingerprint and ID information of the retained fingerprint through an external storage device (USB memory or the like) or a network. In addition, the data input unit 31 accepts an operation by an inspector, generates an operation screen corresponding to the operation, and displays the operation screen on a display device (not shown) such as a liquid crystal display. That is, the data input unit 31 displays a screen for a user (operator) operation on the display device, and receives an operation for inputting a feature amount of a feature point by the user.

鑑識官は、表示装置に写る操作画面により、指紋画像(主に遺留指紋画像)から特異点(コア型特異点、デルタ型特異点)や特徴点を見つけ出し、その位置に関する情報や特徴量を入力する。例えば、鑑識官は、第1特徴点方向や第2特徴点方向のような特徴点方向を入力する場合には、入力する特徴点方向に沿ってドラッグ操作を行うことにより、特徴点方向を入力する。その後、鑑識官によるドラッグ操作が終了すると、データ入力部31は、図21に示すようなプルダウンメニューを表示させ、鑑識官が、「第1特徴点方向の設定」や「第2特徴点方向の設定」を選択することに応じて、特徴点方向を入力する。   The inspector finds singular points (core type singular points and delta type singular points) and feature points from the fingerprint image (mainly retained fingerprint images) on the operation screen displayed on the display device, and inputs information and feature amounts related to the positions. To do. For example, when inputting a feature point direction such as the first feature point direction or the second feature point direction, the inspector inputs the feature point direction by performing a drag operation along the input feature point direction. To do. Thereafter, when the drag operation by the inspector is completed, the data input unit 31 displays a pull-down menu as shown in FIG. 21, and the inspector performs “setting of the first feature point direction” or “second feature point direction”. In response to selecting “SET”, the feature point direction is input.

なお、入力装置30は、鑑識官により入力された特徴点方向を表示する場合には、図13等に示すように、第1特徴点方向と第2特徴点方向の表示態様を互いに異なるものとするのが望ましい(例えば、一方は膨らみを持たせる、他方は膨らみを持たせない、あるいは点線を用いる、表示色を変更する等)。そのような操作インターフェイスを鑑識官に提供することで、鑑識官は直感的な操作にて特徴量の入力を行えるようになる。   When the input device 30 displays the feature point direction input by the inspector, the display mode of the first feature point direction and the second feature point direction are different from each other as shown in FIG. (For example, one has a bulge, the other does not have a bulge, uses a dotted line, or changes a display color). By providing such an operation interface to the inspector, the inspector can input the feature amount by an intuitive operation.

データ入力部31は、このようにして入力された各特徴点の特徴量を記憶部33に格納する。その際、データ入力部31は、ドラッグ操作により示された特徴点方向を、図7に示す角度に変換する等の処理を実行し、特徴量生成装置10がデータベース20に登録する特徴量と同様のフォーマットによる特徴量を記憶部33に格納する。ここで、入力装置30は、上述した指紋画像入力部11、芯線画像抽出部12、特徴量算出部13、特徴量出力部14を備えており、遺留指紋に係る画像データの特徴量とID情報を表示装置に表示するような構成にしてもよい。このような構成により、鑑識官は、表示された遺留指紋に係る特徴量に誤りがあった場合に修正するだけでよく、鑑識官の処理工数を削減できる。   The data input unit 31 stores the feature amount of each feature point input in this way in the storage unit 33. At that time, the data input unit 31 executes a process such as converting the feature point direction indicated by the drag operation into an angle shown in FIG. 7, and is the same as the feature quantity registered in the database 20 by the feature quantity generation device 10. Are stored in the storage unit 33. Here, the input device 30 includes the fingerprint image input unit 11, the core image extraction unit 12, the feature amount calculation unit 13, and the feature amount output unit 14 described above, and the feature amount and ID information of the image data related to the retained fingerprint. May be displayed on the display device. With such a configuration, the inspector only has to correct when there is an error in the feature amount related to the displayed residual fingerprint, and the processing time of the inspector can be reduced.

データ出力部32は、鑑識官によるデータ入力操作が終了すると、記憶部33に格納された特徴量を読み出して、当該特徴量を遺留指紋画像のID情報と共に照合装置40に出力する。   When the data input operation by the inspector is completed, the data output unit 32 reads the feature amount stored in the storage unit 33 and outputs the feature amount to the collation device 40 together with the ID information of the retained fingerprint image.

[照合装置の構成及び動作]
次に、照合装置40の構成及び動作について説明する。
[Configuration and operation of verification device]
Next, the configuration and operation of the verification device 40 will be described.

図22は、照合装置40の内部構成の一例を示す図である。図22を参照すると、照合装置40は、特徴量入力部41と、特徴点照合部42と、照合結果出力部43と、記憶部44と、を含んで構成される。   FIG. 22 is a diagram illustrating an example of the internal configuration of the collation device 40. Referring to FIG. 22, the collation device 40 includes a feature amount input unit 41, a feature point collation unit 42, a collation result output unit 43, and a storage unit 44.

特徴量入力部41は、指紋照合における探索側(サーチ側)となる指紋画像に係る特徴量とID情報を入力装置30から入力する。また、特徴量入力部41は、特徴点照合部42からの依頼に応じて、データベース20にアクセスし、指紋照合における被探索側(ファイル側)となる指紋画像に係る特徴量とID情報を取得する。特徴量入力部41は、取得した特徴量とID情報(サーチ側とファイル側の特徴量及びID情報)を特徴点照合部42に引き渡す。   The feature amount input unit 41 inputs the feature amount and ID information related to the fingerprint image on the search side (search side) in fingerprint collation from the input device 30. Further, the feature amount input unit 41 accesses the database 20 in response to a request from the feature point matching unit 42, and acquires the feature amount and ID information related to the fingerprint image to be searched (file side) in fingerprint matching. To do. The feature amount input unit 41 delivers the acquired feature amount and ID information (search side and file side feature amounts and ID information) to the feature point matching unit 42.

特徴点照合部42は、サーチ側の指紋(遺留指紋)画像に係る特徴量と、ファイル側の指紋(押捺指紋)画像に係る特徴量と、に基づきサーチ側とファイル側の指紋画像の照合を行い、照合結果を示す照合スコアを計算する。特徴点照合部42は、与えられた2つの特徴量の照合を行う際、位置及び第1特徴点方向の照合に関しては、非特許文献1の「4 Fingerprint Matching」に開示された特徴点照合処理を用いることができる。   The feature point matching unit 42 performs matching of the fingerprint image on the search side and the file side based on the feature amount related to the fingerprint (retained fingerprint) image on the search side and the feature amount related to the fingerprint (print fingerprint) image on the file side. And a collation score indicating the collation result is calculated. The feature point matching unit 42 performs the feature point matching process disclosed in “4 Fingerprint Matching” of Non-Patent Document 1 regarding the matching of the position and the first feature point direction when matching the two given feature quantities. Can be used.

ここでは、図23以降の図面を参照しつつ、特徴点照合部42による第2特徴点方向を利用した照合処理を主に説明する。なお、図23(a)の左側に図示した指紋画像は遺留指紋に係る画像であり、図示された特徴点及びその特徴量は、鑑識官が入力したものである。また、図23(a)の右側に図示した指紋画像は、左側の指紋画像に対応する人物の押捺指紋に係る画像であって、図示された特徴点及びその特徴量は、特徴量生成装置10が算出したものである。   Here, the matching process using the second feature point direction by the feature point matching unit 42 will be mainly described with reference to FIG. 23 and subsequent drawings. Note that the fingerprint image shown on the left side of FIG. 23A is an image related to a deceased fingerprint, and the feature points and feature quantities shown in the figure are input by an inspector. Also, the fingerprint image shown on the right side of FIG. 23A is an image related to the person's imprinted fingerprint corresponding to the left fingerprint image, and the feature points and their feature quantities shown in FIG. Is calculated.

特徴点照合部42は、図23(a)の左側に図示された複数の特徴点401〜405と、右側に図示された複数の特徴点(特徴点411〜415を含む10個の特徴点)と、の間の対応関係を検出する。例えば、左側(サーチ側;遺留指紋側)の特徴点401と右側(ファイル側;押捺指紋側)の特徴点411と、の間の対応関係や、左側の特徴点402と右側の特徴点412の間の対応関係が、検出される。   The feature point matching unit 42 includes a plurality of feature points 401 to 405 illustrated on the left side of FIG. 23A and a plurality of feature points illustrated on the right side (ten feature points including feature points 411 to 415). And the correspondence between them is detected. For example, the correspondence between the feature point 401 on the left side (search side; left fingerprint side) and the feature point 411 on the right side (file side; fingerprint fingerprint side), the left side feature point 402 and the right side feature point 412 Corresponding relationships between them are detected.

特徴点同士の対応関係算出にあたり、特徴点照合部42は、第2特徴点方向を考慮して対応関係の検出を行う。より具体的には、特徴点照合部42は、以下に示す照合規則(1)〜(3)にて特徴点間の対応関係を検出する。その際、特徴点照合部42は、2つの指紋画像の位置合わせ(位置決め)処理を実施し、特徴点座標を変換する。2つの指紋画像の位置合わせには種々の方法を採用することができる。例えば、特異点(コア型特異点、デルタ型特異点)を利用して2つの指紋画像の位置合わせを行ってもよい。特徴点照合部42は、位置合わせ処理にて座標変換された後のサーチ側とファイル側の2つの特徴点座標が所定の範囲内にあれば、当該2つの特徴点は対特徴点の候補として扱う。その上で、特徴点照合部42は、対特徴点の候補それぞれの特徴量(第1及び第2特徴点方向)を比較し、最終的な判定(対特徴点、非対特徴点)を行う。   In calculating the correspondence between feature points, the feature point matching unit 42 detects the correspondence in consideration of the second feature point direction. More specifically, the feature point matching unit 42 detects the correspondence between feature points according to the matching rules (1) to (3) shown below. At that time, the feature point collating unit 42 performs alignment processing (positioning) of two fingerprint images and converts the feature point coordinates. Various methods can be employed to align the two fingerprint images. For example, two fingerprint images may be aligned using singular points (core singular points and delta singular points). If the two feature point coordinates on the search side and the file side after the coordinate conversion in the alignment processing are within a predetermined range, the feature point matching unit 42 determines that the two feature points are candidates for the feature points. deal with. After that, the feature point matching unit 42 compares the feature amounts (first and second feature point directions) of the paired feature point candidates, and performs final determination (paired feature point, unpaired feature point). .

照合規則(1)2つの特徴点の位置関係が所定の範囲内にある場合おいて、2つの特徴点が共に第2特徴点方向を有さない場合には、それぞれの特徴点が有する第1特徴点方向が実質的に一致するか否かに応じて、対応関係が検出される(対特徴点と判定される)。つまり、位置合わせ処理で座標変換された後のサーチ側とファイル側の2つの特異点座標が所定の範囲内にある場合に、当該2つの特徴点は同じ位置に存在すると判定される。その後、各特徴点の有する第1特徴点方向が一致すれば、2つの特徴点は対特徴点であると判定される。   Collation Rule (1) When the positional relationship between two feature points is within a predetermined range, if both feature points do not have the second feature point direction, the first feature point of each feature point Correspondence is detected according to whether or not the feature point directions substantially match (determined as a feature point). That is, when the two singular point coordinates on the search side and the file side after coordinate conversion by the alignment process are within a predetermined range, it is determined that the two feature points are present at the same position. Thereafter, if the first feature point directions of the feature points coincide with each other, it is determined that the two feature points are the pair feature points.

照合規則(2)2つの特徴点の位置関係が所定の範囲内にある場合において、一方の特徴点が第1特徴点方向に限り有し、他方の特徴点が第1及び2特徴点方向を有する場合には、以下の条件に従い対応関係が検出される。   Collation rule (2) When the positional relationship between two feature points is within a predetermined range, one feature point has only the first feature point direction, and the other feature point has the first and second feature point directions. If so, the correspondence is detected according to the following conditions.

(2−1)特徴点種別(分岐点、端点)が同一の場合には、第1特徴点方向を有する特徴点の第1特徴点方向が、他方の特徴点の第1及び第2特徴点方向のいずれか一方と実質的に一致する場合、対応関係が検出される。   (2-1) When the feature point type (branch point, end point) is the same, the first feature point direction of the feature point having the first feature point direction is the first and second feature points of the other feature point. A correspondence is detected if it substantially matches one of the directions.

(2−2)特徴点種別が異なる場合には、第1特徴点方向を有する特徴点と、第1及び第2特徴点方向を有する特徴点それぞれの特徴点方向が、以下の関係のいずれかを満たす場合に、2つの特徴点の間に対応関係が検出される。   (2-2) When the feature point types are different, the feature point direction of the feature point having the first feature point direction and the feature point having the first and second feature point directions is any of the following relationships: If the condition is satisfied, a correspondence relationship is detected between the two feature points.

第1の関係は、第1特徴点方向を有する特徴点の第1特徴点方向が、他方の特徴点が有する第1及び第2特徴点方向のいずれか一方と実質的に一致する場合である。第1の関係を満たす2つの特徴点の間には、対応関係が検出される。   The first relationship is a case where the first feature point direction of the feature point having the first feature point direction substantially coincides with one of the first and second feature point directions of the other feature point. . A correspondence relationship is detected between two feature points that satisfy the first relationship.

第2の関係は、第1特徴点方向を有する特徴点の第1特徴点方向が、他方の特徴点が有する第1及び第2特徴点方向による直線からなる内角を2分する方向と実質的に一致する場合である。なお、以降の説明において、第1及び第2特徴点方向による直線からなる内角を2分する方向を、第1照合用方向と表記すると共に図面では点線を用いて図示する。第2の関係を満たす2つの特徴点の間にも、対応関係が検出される。即ち、第1特徴点方向を有する特徴点が分岐点であれば、当該分岐点が有する第1特徴点方向と、位置関係が所定の範囲内にある端点の第1照合用方向と、の比較により、2つの特徴点間の対応関係が判定される。同様に、第1特徴点方向を有する特徴点が端点であれば、当該端点が有する第1特徴点方向と、位置関係が所定の範囲内にある分岐点の第1照合用方向と、の比較により、2つの特徴点間の対応関係が判定される。   The second relationship is substantially the same as the direction in which the first feature point direction of the feature point having the first feature point direction bisects the interior angle formed by the straight line formed by the first and second feature point directions of the other feature point. Is the case. In the following description, a direction that bisects an internal angle formed by a straight line by the first and second feature point directions is referred to as a first verification direction and is illustrated using a dotted line in the drawings. A correspondence relationship is also detected between two feature points that satisfy the second relationship. That is, if the feature point having the first feature point direction is a branch point, the first feature point direction of the branch point is compared with the first matching direction of the end points whose positional relationship is within a predetermined range. Thus, the correspondence between the two feature points is determined. Similarly, if the feature point having the first feature point direction is an end point, the first feature point direction of the end point is compared with the first matching direction of the branch point whose positional relationship is within a predetermined range. Thus, the correspondence between the two feature points is determined.

図24を参照して特徴点種別が同一の場合を具体的に説明すると、特徴点406が第1特徴点方向を有し、特徴点416は2つの特徴点方向を有する。図24(a)に示す場合は、特徴点406の第1特徴点方向と、特徴点416の第1特徴点方向が一致するので、2つの特徴点には対応関係が検出される。図24(b)に示す場合は、特徴点406の第1特徴点方向と、特徴点416の第2特徴点方向が一致するので、2つの特徴点には対応関係が検出される。一方、図24(c)に示す場合には、特徴点406の第1特徴点方向は、特徴点416の第1及び第2特徴点方向のいずれとも一致しないので、2つの特徴点には対応関係がないと判定される(対応関係は検出されない)。   The case where the feature point types are the same will be described in detail with reference to FIG. 24. The feature point 406 has a first feature point direction, and the feature point 416 has two feature point directions. In the case shown in FIG. 24A, since the first feature point direction of the feature point 406 matches the first feature point direction of the feature point 416, a correspondence relationship is detected between the two feature points. In the case shown in FIG. 24B, since the first feature point direction of the feature point 406 matches the second feature point direction of the feature point 416, a correspondence relationship is detected between the two feature points. On the other hand, in the case shown in FIG. 24C, the first feature point direction of the feature point 406 does not match either the first feature point direction or the second feature point direction of the feature point 416, and therefore corresponds to two feature points. It is determined that there is no relationship (correspondence is not detected).

次に、図25を参照して、特徴点種別が異なる場合を具体的に説明する。図25を参照すると、第1特徴点方向を有する特徴点407は分岐点である。また、第1及び第2特徴点方向を有する特徴点417は端点である。従って、図25の例では、2つの特徴点407、417が上記(2−2)の第1の関係、又は、第2の関係を有するか否かに基づき、2つの特徴点間の対応関係が判定される。図25(a)の場合には、特徴点407の第1特徴点方向と、特徴点417の第1特徴点方向と、が実質的に一致するので、上記第1の関係を満たす。従って、2つの特徴点間に対応関係が検出される。図25(b)の場合には、特徴点407の第1特徴点方向と、特徴点417の第1照合用方向(第1及び第2特徴点方向を2分する方向)と、が実質的に一致するので、上記第2の関係を満たす。従って、2つの特徴点間に対応関係が検出される。対して、図25(c)を参照すると、特徴点407の第1特徴点方向は、特徴点417の第1及び第2特徴点方向のいずれとも一致せず、且つ、第1照合用方向とも一致しない。即ち、2つの特徴点は、上記第1及び第2の関係のいずれも満たさないので、2つの特徴点の間に対応関係は検出されない。   Next, the case where the feature point types are different will be specifically described with reference to FIG. Referring to FIG. 25, the feature point 407 having the first feature point direction is a branch point. A feature point 417 having the first and second feature point directions is an end point. Therefore, in the example of FIG. 25, the correspondence between the two feature points is based on whether the two feature points 407 and 417 have the first relationship (2-2) or the second relationship. Is determined. In the case of FIG. 25A, the first feature point direction of the feature point 407 and the first feature point direction of the feature point 417 substantially coincide with each other, and thus the first relationship is satisfied. Accordingly, a correspondence relationship is detected between the two feature points. In the case of FIG. 25B, the first feature point direction of the feature point 407 and the first matching direction of the feature point 417 (the direction dividing the first and second feature point directions) are substantially the same. Therefore, the second relation is satisfied. Accordingly, a correspondence relationship is detected between the two feature points. On the other hand, referring to FIG. 25C, the first feature point direction of the feature point 407 does not coincide with either the first feature point direction or the second feature point direction of the feature point 417, and is also the first matching direction. It does not match. That is, since the two feature points do not satisfy both of the first and second relationships, no correspondence is detected between the two feature points.

照合規則(3)2つの特徴点の位置関係が所定の範囲内にあり、且つ、2つの特徴点が共に、第1及び2特徴点方向を有する場合には、以下の条件に従い対応関係が検出される。   Matching rule (3) When the positional relationship between two feature points is within a predetermined range and both feature points have the first and second feature point directions, the corresponding relationship is detected according to the following conditions: Is done.

(3−1)同種の特徴点の位置関係が所定の範囲内にあり、且つ、2つの特徴点それぞれが第1及び第2特徴点方向を有する場合には、下記に示す4つの特徴点方向の組み合わせのうち、1つが実質的に一致する場合に、2つの特徴点の間には対応関係が検出される。第1の組み合わせは、一方の第1特徴点方向と、他方の第1特徴点方向と、からなる組み合わせである。第2の組み合わせは、一方の第1特徴点方向と、他方の第2特徴点方向と、からなる組み合わせである。第3の組み合わせは、一方の第2特徴点方向と、他方の第1特徴点方向と、からなる組み合わせである。第4の組み合わせは、一方の第2特徴点方向と、他方の第2特徴点方向と、からなる組み合わせである。同種の特徴点それぞれが第1及び第2特徴点方向を有する場合には、上記第1〜第4の組み合わせのうち少なくとも1つにて、特徴点方向が実質的に一致するか否かにより、2つの特徴点間の対応関係が判定される。   (3-1) When the positional relationship of the same kind of feature points is within a predetermined range and each of the two feature points has the first and second feature point directions, the following four feature point directions When one of the combinations substantially matches, a correspondence relationship is detected between the two feature points. The first combination is a combination of one first feature point direction and the other first feature point direction. The second combination is a combination of one first feature point direction and the other second feature point direction. The third combination is a combination of one second feature point direction and the other first feature point direction. The fourth combination is a combination including one second feature point direction and the other second feature point direction. When each of the same kind of feature points has the first and second feature point directions, whether or not the feature point directions substantially coincide with each other in at least one of the first to fourth combinations. Correspondence between two feature points is determined.

(3−2)2つの特徴点の種別が異なり、且つ、2つの特徴点のうちいずれか1つの特徴点が有する2つの特徴点方向による直線からなる内角が所定の閾値(例えば、100度)以下の場合には、2つの特徴点それぞれから上記の第1照合用方向(第1特徴点方向と第2特徴点方向の内角を2分する方向)を計算し、当該第1照合用方向も考慮して、2つの特徴点間の対応関係が検出される。具体的には、2つ特徴点それぞれが有する、第1特徴点方向、第2特徴点方向及び第1照合用方向からなる9通りの組み合わせのうち、少なくとも1つにおいて2つの方向(特徴点方向、照合用方向)が実質的に一致すれば、2つの特徴点間には対応関係が検出される。   (3-2) Two feature points have different types, and an interior angle formed by straight lines in two feature point directions of any one of the two feature points is a predetermined threshold (for example, 100 degrees) In the following cases, the first matching direction (direction that divides the inner angle between the first feature point direction and the second feature point direction) is calculated from each of the two feature points, and the first matching direction is also calculated. In consideration, the correspondence between the two feature points is detected. Specifically, two directions (feature point directions) in at least one of the nine combinations of the first feature point direction, the second feature point direction, and the first matching direction that each of the two feature points has. , The matching direction) substantially matches, a correspondence relationship is detected between the two feature points.

(3−3)2つの特徴点の種別が異なり、且つ、2つの特徴点のうちいずれか1つの特徴点が有する2つの特徴点方向による直線からなる内角が所定の閾値(上記閾値;例えば、100度)を越える場合には、第1照合用方向に加え、2つの特徴点それぞれの2つの特徴点方向による直線からなる外角を2分する方向(以下、第2照合用方向;図面では一点鎖線を用いて図示する)が比較対象に追加される。即ち、2つの特徴点それぞれが有する、第1特徴点方向、第2特徴点方向、第1照合用方向及び第2照合用方向からなる16通りの組み合わせのうち、少なくとも1つにおいて2つの方向が実質的に一致すれば、2つの特徴点間には対応関係が検出される。2つの特徴点方向による直線からなる内角が所定の閾値(例えば、100度)を越える場合として、デルタ領域に特徴点が存在する場合が想定される。つまり、特徴点がデルタ領域に存在する場合には、第1及び第2特徴点方向の値によらず、2つの特徴点には一定の評価が与えられる。   (3-3) The types of two feature points are different, and an interior angle formed by a straight line by two feature point directions of any one of the two feature points is a predetermined threshold (the above threshold; In the case of exceeding 100 degrees), in addition to the first matching direction, a direction that bisects the external angle formed by a straight line formed by the two feature point directions of each of the two feature points (hereinafter referred to as the second matching direction; one point in the drawing) (Shown using a chain line) is added to the comparison target. That is, at least one of the 16 feature combinations of the first feature point direction, the second feature point direction, the first matching direction, and the second matching direction that each of the two feature points has has two directions. If they substantially match, a correspondence relationship is detected between the two feature points. As a case where an internal angle formed by a straight line in two feature point directions exceeds a predetermined threshold (for example, 100 degrees), a case where a feature point exists in the delta region is assumed. That is, when a feature point exists in the delta region, constant evaluation is given to the two feature points regardless of the values in the first and second feature point directions.

図26及び図27を参照し、上記の照合規則(3)を具体的に説明する。   With reference to FIGS. 26 and 27, the above collation rule (3) will be specifically described.

例えば、図26を参照すると、特徴点408と特徴点418は共に分岐点であり、第1及び第2特徴点方向を有する。従って、図26の例では、2つの特徴点間の対応関係の検出に上記(3−1)の規則が用いられる。図26(a)に示す場合は、特徴点408の第1及び第2特徴点方向と、特徴点418の第1及び第2特徴点方向が共に一致するので、2つの特徴点同士には対応関係が検出される。また、図26(b)に示す場合は、特徴点408の第1特徴点方向と特徴点418の第2特徴点方向、特徴点408の第2特徴点方向と特徴点418の第1特徴点方向、それぞれが一致するので、この場合にも2つの特徴点には対応関係が検出される。   For example, referring to FIG. 26, the feature point 408 and the feature point 418 are both branch points and have first and second feature point directions. Therefore, in the example of FIG. 26, the rule (3-1) is used for detecting the correspondence between two feature points. In the case shown in FIG. 26 (a), the first and second feature point directions of the feature point 408 and the first and second feature point directions of the feature point 418 coincide with each other, so that the two feature points correspond to each other. A relationship is detected. 26B, the first feature point direction of the feature point 408, the second feature point direction of the feature point 418, the second feature point direction of the feature point 408, and the first feature point of the feature point 418. Since the directions match each other, the correspondence between the two feature points is detected also in this case.

図27を参照すると、特徴点409と特徴点419は特徴点種別が異なる関係にある。従って、図27の例では、2つの特徴点間の対応関係の検出に上記(3−2)又は(3−3)の規則が用いられる。図27(a)の場合は、各特徴点が有する第1及び第2特徴点方向による直線からなる内角が閾値(例えば、100度)以下であるので、第1照合用方向も考慮にいれ、各特徴点の3つの方向からなる9通りの組み合わせのうち、1つでも2つの方向が実質的に一致する場合に、2つの特徴点に対応関係があると判定される。図27(a)の場合には、特徴点409の第2特徴点方向と、特徴点419の第1照合用方向が実質的に一致するので、2つの特徴点には対応関係が検出される。   Referring to FIG. 27, the feature point 409 and the feature point 419 have different relationship between the feature point types. Therefore, in the example of FIG. 27, the rule (3-2) or (3-3) is used to detect the correspondence between two feature points. In the case of FIG. 27A, since the interior angle formed by the straight lines in the first and second feature point directions of each feature point is equal to or less than a threshold value (for example, 100 degrees), the first matching direction is also taken into consideration. When at least one of the nine combinations of the three directions of the feature points substantially matches the two directions, it is determined that the two feature points have a correspondence relationship. In the case of FIG. 27A, since the second feature point direction of the feature point 409 substantially matches the first matching direction of the feature point 419, a correspondence relationship is detected between the two feature points. .

図27(b)に示す場合は、各特徴点が有する第1及び第2特徴点による直線からなる内角が閾値(例えば、100度)を越えるので、第1及び第2照合用方向も考慮にいれ、各特徴点の4つの方向からなる16通りの組み合わせのうち、1つでも2つの方向が実質的に一致する場合に、2つの特徴点に対応関係があると判定される。図27(b)の場合では、特徴点409の第1照合用方向と、特徴点419の第2照合用方向と、が少なくとも一致するので、2つの特徴点には対応関係があると判定される。つまり、図27(b)に示すように、2つの特徴点それぞれが有する第1及び第2特徴点方向に一致する特徴点方向が見出せない場合にも、当該特徴点がデルタ領域に存在する(内角が100度を超える)場合には、2つの特徴点には対応関係があると判定され得る。   In the case shown in FIG. 27 (b), since the internal angle formed by the straight lines of the first and second feature points of each feature point exceeds a threshold value (for example, 100 degrees), the first and second matching directions are also taken into consideration. In any case, it is determined that there is a correspondence between two feature points when at least one of the sixteen combinations including four directions of each feature point substantially matches. In the case of FIG. 27B, the first matching direction of the feature point 409 and the second matching direction of the feature point 419 are at least matched, so it is determined that there is a correspondence between the two feature points. The That is, as shown in FIG. 27B, even when a feature point direction that matches the first and second feature point directions of the two feature points cannot be found, the feature point exists in the delta region ( If the interior angle exceeds 100 degrees), it can be determined that there is a correspondence between the two feature points.

上記(1)〜(3)の照合規則を、図23(a)に示す2つの指紋画像に適用すると、5つの対特徴点が検出される。   When the matching rules (1) to (3) are applied to the two fingerprint images shown in FIG. 23A, five feature points are detected.

図23(a)を参照すると、左側の特徴点402と、右側の特徴点412は、それぞれ第2特徴点方向を有する特徴点である。図23(b)は、特徴点402を抽出した図であり、図23(c)は特徴点412を抽出した図である。図23(b)及び(c)を参照すると、特徴点402と特徴点412の間には、図26(b)の関係が認められ、対応関係が検出される。   Referring to FIG. 23A, a left feature point 402 and a right feature point 412 are feature points each having a second feature point direction. FIG. 23B is a diagram in which feature points 402 are extracted, and FIG. 23C is a diagram in which feature points 412 are extracted. Referring to FIGS. 23B and 23C, the relationship shown in FIG. 26B is recognized between the feature point 402 and the feature point 412, and the corresponding relationship is detected.

図23(b)及び(c)において、第2特徴点方向を考慮しなければ、2つの特徴点が有する第1特徴点方向は互いに異なるため、2つの特徴点に対応関係が検出されない。従って、図23(a)に示す2つの指紋画像の照合精度は悪化する。しかし、第1の実施形態に係る特徴点照合部42は、第2特徴点方向も合わせて、特徴点同士の対応関係を算出することで、両者はペアとなる特徴点であると検出可能である。   In FIGS. 23B and 23C, if the second feature point direction is not taken into consideration, the first feature point directions of the two feature points are different from each other, and thus no correspondence is detected between the two feature points. Therefore, the collation accuracy of the two fingerprint images shown in FIG. However, the feature point matching unit 42 according to the first embodiment can detect that the two feature points are paired by calculating the correspondence between the feature points together with the second feature point direction. is there.

ここで、コア領域やデルタ領域の近傍では、押捺時のプレッシャーや遺留指紋画像の汚れ等が要因となって、端点の位置が変化(伸び縮み)し易い傾向にある。コアの近傍領域において、端点位置が変化してしまうと、第1特徴点方向も変動してしまうが、第2特徴点方向を導入することで、このような端点位置の変動による影響が緩和できる。つまり、上記(3)の照合規則により、2つの特徴点が所定の範囲内にあり、且つ、それぞれの特徴点が第1及び第2特徴点方向を有する場合には、2つの特徴点には対応関係が検出されることが多くなる。あるいは、端点位置が変化することにより第1及び第2特徴点方向のいずれかが変化したとしても、2つの特徴点方向が同時に変化する事は稀であると考えられるため、第1及び第2特徴点方向のうち少なくとも一方は一致するとも考えられる。そのような場合には、照合精度の劣化は最小限に抑制される。   Here, in the vicinity of the core region and the delta region, the position of the end point tends to change (elongate / shrink) easily due to pressure at the time of printing, dirt on the left fingerprint image, and the like. If the end point position changes in the vicinity of the core, the first feature point direction also changes. However, by introducing the second feature point direction, the influence of such end point position change can be mitigated. . That is, when the two feature points are within a predetermined range and the respective feature points have the first and second feature point directions according to the matching rule of (3) above, the two feature points include Correspondence is often detected. Alternatively, even if one of the first and second feature point directions changes due to a change in the end point position, it is considered rare that the two feature point directions change at the same time. It is considered that at least one of the feature point directions matches. In such a case, the deterioration of collation accuracy is suppressed to the minimum.

また、コア領域やデルタ領域の近傍では、押捺時のプレッシャーや遺留指紋画像の汚れなどにより、特徴点種別の変化(分岐点から端点、あるいはその逆)が起きることがある。このような場合であっても、第1及び第2特徴点方向を照合に利用することで、照合精度の劣化を抑制できる。   In addition, in the vicinity of the core area or the delta area, a change in the feature point type (from a branch point to an end point or vice versa) may occur due to pressure at the time of stamping or dirt on a leftover fingerprint image. Even in such a case, degradation of matching accuracy can be suppressed by using the first and second feature point directions for matching.

例えば、図28(a)に示す指紋画像(芯線データ)が押捺指紋としてファイル側に登録され、図28(a)の指紋画像に対応する人物の遺留指紋が図28(b)〜(d)のいずれか1つであるとする。図28(b)〜(d)の場合、ノイズ等の影響により、分岐点が端点に遷移している。図28(a)に示す指紋画像からは、2つの特徴点方向が算出される。また、図28(b)、(c)の指紋画像からは第1特徴点方向が算出される。図28(a)と図28(b)に示す指紋画像の照合では、上記(2−2)の照合規則に従って特徴点の対応関係が検出される。この場合、図28(a)の第1特徴点方向と図28(b)の第1特徴点方向が実質的に一致するので、2つの特徴点には対応関係があると判定される。同様に、図28(a)と図28(c)の照合では、図28(a)の第2特徴点方向と図28(c)の第1特徴点方向が実質的に一致するので、2つの特徴点には対応関係があると判定される。   For example, the fingerprint image (core data) shown in FIG. 28 (a) is registered on the file side as an imprint fingerprint, and the person's retained fingerprint corresponding to the fingerprint image of FIG. 28 (a) is shown in FIGS. 28 (b) to (d). It is assumed that any one of In the case of FIGS. 28B to 28D, the branch point is changed to the end point due to the influence of noise or the like. Two feature point directions are calculated from the fingerprint image shown in FIG. In addition, the first feature point direction is calculated from the fingerprint images of FIGS. In the fingerprint image collation shown in FIGS. 28A and 28B, the feature point correspondence is detected in accordance with the collation rule (2-2). In this case, since the first feature point direction in FIG. 28A and the first feature point direction in FIG. 28B substantially match, it is determined that the two feature points have a correspondence relationship. Similarly, in the collation of FIG. 28A and FIG. 28C, the second feature point direction of FIG. 28A and the first feature point direction of FIG. It is determined that there is a correspondence relationship between the two feature points.

図28(a)の分岐点が図28(d)に示す端点に遷移することもある。図28(a)と図28(d)に示す指紋画像の照合では、上記(3−2)又は(3−3)の照合規則に従って、特徴点の対応関係が検出される。図28は、コア領域近傍の特徴点を図示するので、第1及び第2特徴点方向による直線からなる内角は閾値(例えば、100度)以下である。従って、図28(a)と図28(d)に示す指紋画像の照合は、上記(3−2)の照合規則に従う。この場合、図28(a)に示す第1照合用方向と、図28(d)に示す第1特徴点方向が実質的に一致するので、2つの特徴点には対応関係が検出される。   The branch point in FIG. 28A may transition to the end point shown in FIG. In the fingerprint image matching shown in FIGS. 28A and 28D, the correspondence relationship between the feature points is detected according to the matching rule of (3-2) or (3-3). Since FIG. 28 illustrates feature points in the vicinity of the core region, the interior angle formed by straight lines in the first and second feature point directions is equal to or less than a threshold value (for example, 100 degrees). Therefore, the collation of the fingerprint images shown in FIGS. 28A and 28D follows the collation rule (3-2). In this case, the first matching direction shown in FIG. 28A and the first feature point direction shown in FIG. 28D substantially coincide with each other, so a correspondence relationship is detected between the two feature points.

また、例えば、図18の例では、端点334が伸張し、交点372と端点334が結合してしまうと、図18(a)に示す指紋画像はデルタ領域の分岐点と判断されてしまう。分岐点と端点では、第1特徴点方向の算出方法が異なるため、単に第1特徴点方向だけを特徴点照合に利用したのでは、2つの特徴点の間に対応関係が算出されることは稀である(対特徴点とはならない)。しかし、端点が伸張することで分岐点に変化することがあっても、第2特徴点方向を導入することで、照合精度を向上させることができる。   Further, for example, in the example of FIG. 18, when the end point 334 expands and the intersection point 372 and the end point 334 are combined, the fingerprint image shown in FIG. 18A is determined as a branch point of the delta region. Since the calculation method of the first feature point direction differs between the branch point and the end point, if only the first feature point direction is used for the feature point matching, the correspondence between the two feature points is calculated. Rare (not a feature point). However, even if the end point is expanded to change to a branch point, the accuracy of matching can be improved by introducing the second feature point direction.

図29(a)及び(b)に示す2つの特徴点(端点、分岐点)の照合を考える。図29では、各特徴点は2つの特徴点方向を有し、且つ、デルタ領域近傍に存在するので(第1及び第2特徴点方向による内角が閾値(例えば、100度)を越えるので)、上記(3−3)の照合規則に従う。2つの特徴点から第1及び第2照合用方向が計算され、16通りの組み合わせに関し、各方向の一致・不一致を判定すると、少なくとも図29(a)の第1照合用方向と図29(b)の第1特徴点方向が実質的に一致する。従って、2つの特徴点には対応関係が検出される。このように、2つの特徴点の位置が所定の範囲内あり、第1及び第2特徴点方向を持つ2つの特徴点には、最低限、対応関係が検出され得るため、デルタ領域の2つの特徴点は対特徴点と判定されることが多い。即ち、第2特徴点方向を導入することで、照合精度が向上する。   Consider collation of two feature points (end points and branch points) shown in FIGS. 29 (a) and 29 (b). In FIG. 29, each feature point has two feature point directions and exists in the vicinity of the delta region (because the internal angle by the first and second feature point directions exceeds a threshold value (for example, 100 degrees)), Follow the collation rule (3-3) above. The first and second collating directions are calculated from the two feature points, and when the match / mismatch of each direction is determined for 16 combinations, at least the first collating direction in FIG. 29A and FIG. ) Substantially coincide with the first feature point direction. Accordingly, a correspondence relationship is detected between the two feature points. In this way, since the positions of the two feature points are within a predetermined range, and the correspondence between the two feature points having the first and second feature point directions can be detected at least, the two feature points in the delta region can be detected. The feature point is often determined as a pair feature point. That is, by introducing the second feature point direction, the matching accuracy is improved.

なお、第1の実施形態に係る特徴点照合部42は、2つの特徴点の対応関係を検出する際、第1及び第2特徴点方向の内角が所定の閾値(例えば、100度)を超える場合に、第2照合用方向を計算しているが、当該方向を計算するのは特徴量算出部13であってもよい。つまり、第1及び第2特徴点方向の内角が所定の閾値(例えば、100度)を超える場合には、特徴量算出部13は、第1及び第2特徴量とは異なる第3特徴点方向を、特徴点を特徴付ける特徴量として算出してもよい。   When the feature point matching unit 42 according to the first embodiment detects the correspondence between two feature points, the interior angle in the first and second feature point directions exceeds a predetermined threshold (for example, 100 degrees). In this case, the second matching direction is calculated, but the feature amount calculation unit 13 may calculate the direction. That is, when the internal angle of the first and second feature point directions exceeds a predetermined threshold (for example, 100 degrees), the feature amount calculation unit 13 determines the third feature point direction different from the first and second feature amounts. May be calculated as a feature amount that characterizes the feature point.

特徴点照合部42は、対応関係が検出された特徴点(図23の場合は5個)それぞれについての対応確信度と、対応関係が検出されなかった特徴点の数に基づいて照合スコアを計算する。   The feature point matching unit 42 calculates a matching score based on the correspondence certainty for each of the feature points (5 in the case of FIG. 23) for which the correspondence is detected and the number of feature points for which the correspondence is not detected. To do.

特徴点照合部42は、第2特徴点方向を有する特徴点に関する対応確信度の算出に際し、図24〜図27に示す各種の態様に応じて対応確信度を変更することで、特徴点間の対応関係を差別化してもよい。   The feature point matching unit 42 changes the correspondence certainty factor according to various modes shown in FIGS. 24 to 27 when calculating the correspondence certainty factor regarding the feature point having the second feature point direction. The correspondence relationship may be differentiated.

例えば、図26及び図27を参照すると、図26及び図27に示す対応関係のうち、図27に示す2つの特徴点間の対応関係は、図26(a)、(b)に示す特徴点間の対応関係よりも弱いと考えられる。つまり、図26(a)、(b)では少なくとも1つの特徴点方向が一致しているのに対し、図27(a)、(b)に示す2つの特徴点には特徴点方向が一致するものが存在しないためである。そこで、特徴点照合部42は、図27に示すような対応関係の2つの特徴点には低い対応確信度を与える。   For example, referring to FIGS. 26 and 27, among the correspondence relationships shown in FIGS. 26 and 27, the correspondence relationship between the two feature points shown in FIG. 27 is the feature point shown in FIGS. 26 (a) and (b). It is considered weaker than the correspondence between the two. That is, in FIGS. 26 (a) and (b), at least one feature point direction matches, whereas the two feature points shown in FIGS. 27 (a) and 27 (b) match the feature point direction. This is because there is nothing. Therefore, the feature point matching unit 42 gives a low degree of confidence to the two feature points having the correspondence relationship as shown in FIG.

一方、図26(a)では、2つの特徴点それぞれの第1及び第2特徴点方向が共に一致する。このような場合、2つの特徴点407と特徴点417の対応関係は、図26(b)に示す2つの特徴点間の対応関係よりも強いと考えられるため、特徴点照合部42は、図26(a)に示す2つの特徴点には、図26(b)に示す2つの特徴点の対応関係よりも高い対応確信度を与える。   On the other hand, in FIG. 26A, the first and second feature point directions of the two feature points coincide with each other. In such a case, the correspondence between the two feature points 407 and 417 is considered to be stronger than the correspondence between the two feature points shown in FIG. The two feature points shown in FIG. 26A are given higher correspondence certainty than the correspondence between the two feature points shown in FIG.

特徴点照合部42は、照合スコアを照合結果として照合結果出力部43に引き渡す。あるいは、特徴点照合部42は、照合スコアに加えて、対応関係が検出された特徴点のリストを対応特徴点リストとして照合結果出力部43に引き渡してもよい。なお、対応特徴点リストには、対応関係が検出されたサーチ側(遺留指紋側)の特徴点の座標と、その特徴点と対になるファイル側(押捺指紋側)の特徴点の座標とが関連付けられて記録される。   The feature point matching unit 42 delivers the matching score to the matching result output unit 43 as a matching result. Alternatively, the feature point matching unit 42 may deliver a list of feature points in which the correspondence is detected in addition to the matching score to the matching result output unit 43 as a corresponding feature point list. In the corresponding feature point list, the coordinates of the feature points on the search side (retained fingerprint side) where the correspondence relationship is detected and the coordinates of the feature points on the file side (printed fingerprint side) that are paired with the feature points are included. Recorded in association.

照合結果出力部43は、照合対象となった遺留指紋画像のID情報と、照合スコアが算出された押捺指紋画像のID情報と、照合スコアと、を対応付けて、照合結果として外部装置(図示せず)等に出力する(図30参照)。   The collation result output unit 43 associates the ID information of the residual fingerprint image that is the collation target, the ID information of the fingerprint image for which the collation score is calculated, and the collation score, and sets the collation result as an external device (FIG. (See FIG. 30).

なお、コア領域やデルタ領域において特徴点方向が安定して算出できないという問題に対処する方法として、コア領域やデルタ領域での照合基準を緩めるという対応が考えられる。つまり、コア領域やデルタ領域の特徴点を照合する際、特徴点方向の差に関する許容範囲を拡大するという対応である。しかし、このような許容範囲の拡大は、対ではない指紋(非対指紋)の照合スコアを増加させるという現象を伴うと言う新たな問題を生じさせる。一方、第1の実施形態では、上記のような許容範囲の拡大は行わないので、非対指紋の照合スコアを増加させるという問題を抑制することができる。   As a method for dealing with the problem that the feature point direction cannot be stably calculated in the core region or the delta region, it is conceivable to relax the collation criteria in the core region or the delta region. That is, when matching the feature points of the core region and the delta region, the allowable range regarding the difference in the feature point direction is expanded. However, such an increase in the allowable range causes a new problem that it involves a phenomenon of increasing the matching score of a fingerprint that is not a pair (non-fingerprint). On the other hand, in the first embodiment, since the allowable range is not expanded as described above, it is possible to suppress the problem of increasing the verification score of the non-fingerprint.

第1の実施形態に係る指紋照合システムの全体動作をまとめると、図31に示すシーケンス図のとおりとなる。   The overall operation of the fingerprint collation system according to the first embodiment is summarized as shown in the sequence diagram of FIG.

特徴量生成装置10は、指紋画像を入力し(ステップS01)、当該指紋画像から芯線画像を抽出する(ステップS02)。その後、特徴量生成装置10は、芯線画像から特徴量を算出する(ステップS03)。その際、特徴量生成装置10は、コア領域やデルタ領域等、安定して特徴点方向が算出できない領域の特徴点からは第2特徴点方向も算出する。特徴量生成装置10は、算出した特徴量をデータベース20に登録する(ステップS04)。   The feature quantity generation device 10 inputs a fingerprint image (step S01), and extracts a core line image from the fingerprint image (step S02). Thereafter, the feature quantity generation device 10 calculates a feature quantity from the core line image (step S03). At that time, the feature quantity generation device 10 also calculates the second feature point direction from the feature points of the region where the feature point direction cannot be stably calculated, such as the core region and the delta region. The feature quantity generation device 10 registers the calculated feature quantity in the database 20 (step S04).

入力装置30は、鑑識官による操作を受け付けて、指紋画像の特徴量を入力する(ステップS11)。入力装置30は、入力した特徴量を照合装置40に向けて出力する(ステップS12)。   The input device 30 accepts an operation by an inspector and inputs a feature amount of the fingerprint image (step S11). The input device 30 outputs the input feature quantity toward the collation device 40 (step S12).

照合装置40は、入力装置30が出力する特徴量と、データベース20に登録された特徴量と、を取得し(ステップS21)、入力装置30が出力する特徴量に対応した指紋画像(例えば、遺留指紋画像)の照合処理を行う(ステップS22)。その際、照合装置40は、各特徴点に付された第2特徴点方向も考慮しつつ、指紋画像の照合を行う。照合装置40は、照合結果を照合スコアとして出力する(ステップS23)。   The collation device 40 acquires the feature quantity output from the input device 30 and the feature quantity registered in the database 20 (step S21), and a fingerprint image (for example, a survivor) corresponding to the feature quantity output from the input device 30. A fingerprint image) matching process is performed (step S22). At that time, the collation device 40 performs collation of the fingerprint image in consideration of the second feature point direction attached to each feature point. The collation apparatus 40 outputs a collation result as a collation score (step S23).

以上のように、第1の実施形態に係る特徴量生成装置10は、第1特徴点方向に加え、第2特徴点方向を必要に応じて算出する。この第2特徴点方向を考慮して、2つの特徴点の対応関係の検出や照合スコアを計算することで、照合精度が向上する。第2特徴点方向を導入することで、例えば、2つの特徴点において、第1特徴点方向が異なるとしても、一方の第1特徴点方向と他方の第2特徴点方向が一致すれば、2つの特徴点は対となる特徴点と判定する等の運用が可能なためである。   As described above, the feature quantity generation device 10 according to the first embodiment calculates the second feature point direction as necessary in addition to the first feature point direction. Considering this second feature point direction, the matching accuracy is improved by detecting the correspondence between the two feature points and calculating the matching score. By introducing the second feature point direction, for example, even if the first feature point direction differs between two feature points, if the first feature point direction of one and the second feature point direction of the other match, This is because one feature point can be operated as a pair of feature points.

[第2の実施形態]
続いて、第2の実施形態について図面を参照して詳細に説明する。
[Second Embodiment]
Next, a second embodiment will be described in detail with reference to the drawings.

第1の実施形態では、コア領域やデルタ領域に特徴点が存在することを前提としたが、稀にこれらの領域に特徴点が存在しない場合がある。具体的には、コア領域が単純ループ状の中核蹄線で構成されている場合には、特徴点が存在せず、例えば、遺留指紋の主要領域がコア領域であった場合に、当該遺留指紋に対する高い照合精度が期待できない。   In the first embodiment, it is assumed that feature points exist in the core region and the delta region, but rarely feature points may not exist in these regions. Specifically, when the core region is composed of simple loop-shaped core hoof lines, there are no feature points. For example, when the main region of the retained fingerprint is the core region, the retained fingerprint High matching accuracy cannot be expected.

なお、中核蹄線とは、指紋画像において最も内側に位置するループ状(蹄状)の隆線(芯線)であって、その頂点付近(例えば、隆線間隔1本分以内)に特徴点が存在しない芯線を意味する。例えば、図32(a)を参照すると、曲線501は中核蹄線であるが、曲線502は中核蹄線ではない。曲線502は、指紋画像の最も内側に位置する隆線ではないからである。あるいは、図32(b)に示す曲線503、504も中核蹄線ではない。これらの曲線は、ループ状に形成された隆線ではないためである。   The core hoof line is a loop-like (hoof-like) ridge (core line) located on the innermost side in the fingerprint image, and has a feature point near its apex (for example, within one ridge interval). It means a core wire that does not exist. For example, referring to FIG. 32A, the curve 501 is a core hoof but the curve 502 is not a core hoof. This is because the curve 502 is not a ridge located on the innermost side of the fingerprint image. Alternatively, the curves 503 and 504 shown in FIG. 32B are not the core hoof lines. This is because these curves are not ridges formed in a loop shape.

デルタ領域においても、デルタ中心付近に特徴点が存在しない場合があり、例えば、遺留指紋の主要領域がデルタ領域である場合に、このような小領域指紋を用いた指紋照合では高い照合精度が期待できない。例えば、図33(a)を参照すると、デルタ付近に突起隆線が認められるが、この突起隆線は十分な長さ(例えば、隆線間隔1本分)を有さないので、ノイズとして除去され、芯線として扱われない。また、図33(b)を参照すると、ドット状の隆線が存在するが、この隆線も十分な長さを有さないので、ノイズとして除去され、芯線として扱われない。   Even in the delta region, there may be no feature point near the center of the delta. For example, when the main region of the residual fingerprint is the delta region, high accuracy of fingerprint verification using such a small region fingerprint is expected. Can not. For example, referring to FIG. 33 (a), a protruding ridge is recognized in the vicinity of the delta, but this protruding ridge does not have a sufficient length (for example, one ridge interval), so it is removed as noise. And is not treated as a core wire. Referring to FIG. 33 (b), there is a dot-shaped ridge, but this ridge does not have a sufficient length, so it is removed as noise and not treated as a core.

さらに、コア領域やデルタ領域に相当する指紋画像はノイズに弱く、容易に特徴点の遷移(端点が分岐点に遷移又はその逆)が生じたり、隆線が断絶することで新たな端点が生じたりする。例えば、押捺指紋側ではコア領域に特徴点が存在しないにも関わらず、ノイズ等の影響により遺留指紋側には特徴点が存在するとすれば、第2特徴点方向を考慮しても2つの指紋画像の照合精度は劣化する。そもそも押捺指紋側には特徴点が存在せず、遺留指紋側の特徴点に対応する照合対象が存在しないためである。   Furthermore, fingerprint images corresponding to the core area and delta area are vulnerable to noise, and feature point transitions easily (end points transition to branch points or vice versa), or new end points occur due to ridge breaks. Or For example, if there is no feature point in the core area on the side of the fingerprint fingerprint but there is a feature point on the left side of the fingerprint due to the influence of noise or the like, two fingerprints are considered even if the direction of the second feature point is considered. Image matching accuracy is degraded. In the first place, there is no feature point on the fingerprint side, and there is no matching target corresponding to the feature point on the left fingerprint side.

以上のような状況を鑑みて、第2の実施形態では、コア領域やデルタ領域における特徴点の有無に関わらず、指紋照合精度を向上させる指紋照合システムを説明する。   In view of the situation as described above, in the second embodiment, a fingerprint verification system that improves fingerprint verification accuracy regardless of the presence or absence of feature points in the core region or the delta region will be described.

図34は、第2の実施形態に係る特徴量生成装置10aの内部構成の一例を示す図である。第1の実施形態に係る特徴量生成装置10との相違点は、芯線追加部16が追加されている点である。そのため、芯線追加部16の詳細について説明し、特徴量算出部13等の各機能ブロックの説明を省略する。   FIG. 34 is a diagram illustrating an example of an internal configuration of the feature quantity generation device 10a according to the second embodiment. The difference from the feature value generation apparatus 10 according to the first embodiment is that a core wire adding unit 16 is added. Therefore, details of the core wire adding unit 16 will be described, and description of each functional block such as the feature amount calculating unit 13 will be omitted.

芯線追加部16は、予め定めた特徴を有する隆線又は領域を検出し、検出された隆線又は領域に芯線を追加する手段である。より具体的には、芯線追加部16は、芯線を追加する必要のある芯線又は領域を検出し、当該領域が検出された場合に、予め定めた芯線追加処理を実行する。   The core line adding unit 16 is means for detecting a ridge or area having a predetermined characteristic and adding the core line to the detected ridge or area. More specifically, the core wire adding unit 16 detects a core wire or a region where a core wire needs to be added, and executes a predetermined core wire adding process when the region is detected.

例えば、芯線追加部16は、芯線画像抽出部12が抽出した芯線画像から、中核蹄線を検出する。具体的には、芯線追加部16は、指紋画像において最も内側に位置するループ状の芯線であって、その頂点付近に特徴点が存在しない芯線を抽出する。さらに、芯線追加部16は、当該検出された中核蹄線の頂点に擬似的な突起状の芯線を付加する。   For example, the core line adding unit 16 detects the core hoof line from the core line image extracted by the core line image extracting unit 12. Specifically, the core line adding unit 16 extracts a core line that is the innermost loop-shaped core line in the fingerprint image and has no feature point near its vertex. Furthermore, the core wire adding unit 16 adds a pseudo-protruding core wire to the vertex of the detected core hoof line.

図35(a)及び(b)に示すような領域を有する指紋画像が、特徴量生成装置10aに入力されたとする。この場合、芯線画像抽出部12が抽出した芯線画像だけを抜き出すと、図35(c)となる。芯線追加部16は、図35(c)から中核蹄線601を検出し、当該中核蹄線601の頂点に短い突起状の芯線(以下、突起芯線と表記する)611を追加する(図35(d)の円で囲まれた領域内の芯線)。なお、芯線追加部16が追加する、擬似的な突起芯線の方向は、中核蹄線の方向(図35(c)の中核蹄線601の頂点から中核蹄線の中心に向かう方向)と逆向きとし、長さは隆線間隔の半分程度とすることが好ましい。   It is assumed that a fingerprint image having an area as shown in FIGS. 35A and 35B is input to the feature quantity generation device 10a. In this case, when only the core line image extracted by the core line image extracting unit 12 is extracted, FIG. 35C is obtained. The core wire adding unit 16 detects the core hoof line 601 from FIG. 35 (c) and adds a short protruding core line (hereinafter referred to as a protruding core line) 611 to the apex of the core hoof line 601 (FIG. 35 ( d) Core line in the area surrounded by a circle). The direction of the pseudo-projection core line added by the core wire addition unit 16 is opposite to the direction of the core hoof line (the direction from the apex of the core hoof line 601 to the center of the core hoof line) in FIG. And the length is preferably about half of the ridge interval.

また、芯線追加部16は、芯線画像抽出部12が抽出した芯線画像から、例えば、パターンマッチング等の手法を用いてデルタ(三角)形状を形成する3本の芯線と、当該3本の芯線を含む領域(デルタ領域)と、を検出する。さらに、芯線追加部16は、検出されたデルタの中心付近に特徴点が存在しない場合に、擬似的なドット状の芯線(以下、デルタドット芯線と表記する)を追加する。例えば、図36(a)及び(b)に示すような領域を有する指紋画像が、特徴量生成装置10aに入力されたとする。この場合、芯線追加部16は、芯線602〜604を、デルタを形成する芯線として検出する。   Further, the core wire adding unit 16 uses, for example, three core wires that form a delta (triangular) shape from the core image extracted by the core image extracting unit 12 by using a method such as pattern matching, and the three core wires. An area to be included (delta area) is detected. Furthermore, the core line adding unit 16 adds a pseudo dot-shaped core line (hereinafter referred to as a delta dot core line) when there is no feature point near the center of the detected delta. For example, it is assumed that a fingerprint image having an area as shown in FIGS. 36A and 36B is input to the feature quantity generation device 10a. In this case, the core wire adding unit 16 detects the core wires 602 to 604 as core wires forming a delta.

次に、芯線追加部16は、芯線602〜604の中心付近に、デルタドット芯線612を追加する(図36(c)の円で囲まれた領域)。なお、芯線追加部16が追加するデルタドット芯線の方向は、指頭方向(指先の方向)に対して水平とし、デルタドット芯線の長さは隆線間隔の半分程度とすることが好ましい。   Next, the core wire adding unit 16 adds a delta dot core wire 612 near the center of the core wires 602 to 604 (region surrounded by a circle in FIG. 36C). In addition, it is preferable that the direction of the delta dot core line added by the core line addition unit 16 is horizontal with respect to the fingertip direction (the direction of the fingertip), and the length of the delta dot core line is about half of the ridge interval.

芯線追加部16の処理により、コア領域及びデルタ領域ともに、2つの特徴点が生成されることになる。具体的には、図35(d)を参照すると、中核蹄線601と突起芯線611からなる分岐点と、突起芯線611の端点と、が生成される。また、図36(c)を参照すると、デルタドット芯線612の両端がそれぞれ端点として生成される。   By the processing of the core line adding unit 16, two feature points are generated for both the core region and the delta region. Specifically, referring to FIG. 35 (d), a branch point composed of the core hoof line 601 and the projection core wire 611 and an end point of the projection core wire 611 are generated. In addition, referring to FIG. 36C, both ends of the delta dot core wire 612 are generated as end points.

芯線追加部16による処理が終了すると、特徴量算出部13は、第1の実施形態にて説明した方法と同様の方法にて、特徴点の抽出と特徴量(位置、第1及び第2特徴点方向)の算出を行う。   When the processing by the core line adding unit 16 is completed, the feature amount calculating unit 13 extracts feature points and features (position, first and second features) by the same method as described in the first embodiment. (Point direction) is calculated.

ここで、第1の実施形態にて説明した入力装置30も、コア領域やデルタ領域に芯線を追加する操作(鑑識官による操作)に対応している必要がある。   Here, the input device 30 described in the first embodiment also needs to correspond to an operation (operation by an inspector) for adding a core wire to the core region or the delta region.

鑑識官が、コア領域にて突起芯線を追加する場合には、中核蹄線の頂点にてコアの方向(中核蹄線の方向)にドラッグ操作を行う。その後、第2の実施形態に係る入力装置30aは、図37に示すようなメニュー(プルダウンメニュー)を表示する。鑑識官は、表示されたプルダウンメニューから「突起芯線の追加」を選択する事で、中核蹄線に突起芯線を追加する操作を終了する。なお、中核蹄線の突起芯線追加時には、当該中核蹄線の頂点をコア(コア特異点)としてデータ入力できるように入力装置30aを構成することで、鑑識官(オペレータ)の入力工数を削減できる。   When an inspector adds a protruding core wire in the core region, the expert performs a drag operation in the core direction (the direction of the core hoof line) at the apex of the core hoof line. Thereafter, the input device 30a according to the second embodiment displays a menu (pull-down menu) as shown in FIG. The inspector selects “Add Projection Core Line” from the displayed pull-down menu to end the operation of adding the projection core line to the core hoof line. It should be noted that when the core line of the core hoof is added, the input device 30a is configured so that data can be input using the apex of the core hoof as a core (core singular point), thereby reducing the input man-hours for the inspector (operator). .

また、鑑識官は、入力装置30aを用いて、デルタドット芯線の入力も可能である。鑑識官が、デルタ領域にデルタドット芯線を追加する際には、デルタ位置(デルタの中心)より、1つ目のデルタ方向にドラッグ操作を行う。なお、デルタ方向とは、デルタから放射される3つの方向を意味する。図38(a)に、デルタ方向の例を示す。   The expert can also input the delta dot core wire using the input device 30a. When adding the delta dot core line to the delta area, the inspector performs a drag operation in the first delta direction from the delta position (delta center). The delta direction means three directions emitted from the delta. FIG. 38A shows an example in the delta direction.

鑑識官が、1つ目のデルタ方向を入力するためのドラッグ操作を終了すると、図38(b)に示すようなプルダウンメニューが入力装置30aより表示される。鑑識官が、表示されたプルダウンメニューの「デルタドット芯線の追加」を選択すると、入力装置30aは、鑑識官に対し、残り2つのデルタ方向の入力操作を指示する。なお、入力装置30aは、3つ目のデルタ方向を入力する操作の終了(3つ目のデルタ方向を入力するためのドラッグ操作の終了)を契機に、デルタドット芯線をデルタの中心に追加しても良いし、鑑識官に対してデルタドット芯線の方向を入力する指示を行っても良い。   When the inspector finishes the drag operation for inputting the first delta direction, a pull-down menu as shown in FIG. 38B is displayed from the input device 30a. When the inspector selects “Add Delta Dot Core” from the displayed pull-down menu, the input device 30a instructs the inspector to input the remaining two delta directions. The input device 30a adds the delta dot core line to the center of the delta at the end of the operation for inputting the third delta direction (end of the drag operation for inputting the third delta direction). Alternatively, an instruction to input the direction of the delta dot core line may be given to the inspector.

また、デルタドット芯線の追加時に、当該操作が行われた領域をデルタ(デルタ型特異点)としてデータ入力できるように入力装置30aを構成することで、鑑識官(オペレータ)の入力工数を削減できる。   In addition, when the delta dot core wire is added, the input device 30a is configured so that the area where the operation is performed can be input as a delta (delta type singular point), thereby reducing the input man-hours for an expert (operator). .

照合装置40は、特徴量生成装置10aが生成した特徴量と、鑑識官が入力装置30aを使って入力した特徴量と、を用いて、指紋画像の照合処理を行い、照合結果を生成し出力する。   The collation device 40 performs a fingerprint image collation process using the feature amount generated by the feature amount generation device 10a and the feature amount input by the inspector using the input device 30a, and generates and outputs a collation result. To do.

次に、コア領域に突起芯線、デルタ領域にデルタドット芯線を追加する効果について説明する。   Next, the effect of adding a protruding core wire to the core region and a delta dot core wire to the delta region will be described.

上述のように、押捺時のプレッシャー、掠れ、汚れ等の影響により、中核蹄線の頂点近傍の画像が変化し、結果的に、単純中核蹄線が断線することや、外側の隆線と接続してしまうことがある。具体的には、本来、図39(a)に示すような中核蹄線が、図39(b)に示すように途中で断線したり、図39(c)に示すように外側の隆線と接続したりすることがある。   As described above, the image near the apex of the core hoof line changes due to pressure, dripping, dirt, etc. at the time of imprinting. As a result, the simple core hoof line is disconnected or connected to the outer ridge. May end up. Specifically, the core hoof line as shown in FIG. 39 (a) is originally broken along the way as shown in FIG. 39 (b), or the outer ridge line as shown in FIG. 39 (c). Sometimes connect.

図39(b)、(c)に示すような遷移(変化)が生じると、同一方向の特徴点が2個生成されることとなる。その際、押捺指紋画像が図39(a)に示す指紋画像(芯線画像)であり、遺留指紋画像が図39(b)又は(c)に示すような指紋画像であれば、コア領域における特徴点の個数が大きく異なることになる。すると、遺留指紋のコア領域から2つの特徴点が抽出されるが、押捺指紋には当該2つの特徴点に対応する特徴点は存在せず、2つの特徴点は非対特徴点と扱われる。その結果、押捺指紋と遺留指紋に係る指紋画像における照合スコアは低下する。   When transitions (changes) as shown in FIGS. 39B and 39C occur, two feature points in the same direction are generated. In this case, if the fingerprint image is the fingerprint image (core image) shown in FIG. 39 (a) and the retained fingerprint image is a fingerprint image as shown in FIG. 39 (b) or (c), the features in the core region The number of points will vary greatly. Then, two feature points are extracted from the core area of the left fingerprint, but there are no feature points corresponding to the two feature points in the fingerprint, and the two feature points are treated as unpaired feature points. As a result, the collation score in the fingerprint image related to the imprint fingerprint and the deceased fingerprint decreases.

一方、第2の実施形態に係る特徴量生成装置10aは、中核蹄線の頂点に突起芯線を追加することで、汚れ等の影響で生じやすい2つの特徴点に対応する特徴点を作り出している。その結果、サーチ側とファイル側のいずれか一方に、他方の指紋画像に存在する特徴点が存在しないという事態が発生せず、対応する特徴点が存在しないことによる照合スコアの低下が抑制される。   On the other hand, the feature quantity generation device 10a according to the second embodiment creates feature points corresponding to two feature points that are likely to occur due to the influence of dirt or the like by adding a projection core wire to the apex of the core hoof line. . As a result, a situation in which no feature point exists in the other fingerprint image does not occur on either the search side or the file side, and a decrease in matching score due to the absence of the corresponding feature point is suppressed. .

加えて、第1の実施形態にて説明したように、コア領域では安定して特徴点方向を算出するのが困難であるため、第1特徴点方向を補完する第2特徴点方向が算出される。2つの特徴点方向を有すると共に互いの位置が近接する2つの特徴点は、対応関係が検出され得る(第1の実施形態にて説明した照合規則(3))ので、突起芯線が追加された指紋画像と汚れ等の影響により特徴点が作り出された指紋画像それぞれが有する2個の特徴点をペアリングすることが可能であり、照合精度の劣化が抑制される。   In addition, as described in the first embodiment, since it is difficult to stably calculate the feature point direction in the core region, the second feature point direction that complements the first feature point direction is calculated. The The two feature points that have two feature point directions and are close to each other can be detected in correspondence (the matching rule (3) described in the first embodiment), so that a protrusion core is added. It is possible to pair two feature points of each fingerprint image in which the feature points are created due to the influence of the fingerprint image and dirt and the like, and deterioration of collation accuracy is suppressed.

また、上述のように、デルタ領域から特徴点が抽出されないことがある。あるいは、コア領域と同様に、押捺時のプレッシャー、掠れ、汚れの影響により、デルタ近傍の画像が変化し、結果的にデルタ付近に短い隆線(ドットや突起)が抽出されることもある。つまり、デルタ領域では特徴点の抽出が不安定であり、サーチ側の指紋画像には特徴点がなく、ファイル側の指紋画像には特徴点が存在するといった事態が生じやすい。例えば、ファイル側の指紋画像には、図40(a)に示すように特徴点が抽出されず、サーチ側の指紋画像には、図40(b)に示すように短い隆線による特徴点が抽出されることがある。   In addition, as described above, feature points may not be extracted from the delta region. Alternatively, as in the core region, the image near the delta changes due to the influence of pressure, wrinkles, and dirt during printing, and as a result, a short ridge (dot or protrusion) may be extracted near the delta. In other words, feature point extraction is unstable in the delta region, and there is a tendency that a feature point does not exist in the fingerprint image on the search side and a feature point exists in the fingerprint image on the file side. For example, feature points are not extracted from the fingerprint image on the file side as shown in FIG. 40A, and feature points due to short ridges are shown in the fingerprint image on the search side as shown in FIG. May be extracted.

このような場合、2つの指紋画像の間に対応する2個の特徴点がなく、図40(b)の2つの特徴点は非対特徴点として扱われ、照合スコアの低下要因となる。しかし、第2の実施形態では、例えば、図40(a)に示す指紋画像に対し、デルタドット芯線を追加することで、2個の特徴点を作り出す。そのため、2枚の指紋画像それぞれの特徴点を容易にペアリングすることが可能であり、照合スコアが増加する。   In such a case, there are no two corresponding feature points between the two fingerprint images, and the two feature points in FIG. 40B are treated as unpaired feature points, which causes a decrease in the matching score. However, in the second embodiment, for example, two feature points are created by adding a delta dot core line to the fingerprint image shown in FIG. Therefore, the feature points of the two fingerprint images can be easily paired, and the matching score increases.

以上のように、第2の実施形態では、コア領域やデルタ領域に特徴点が存在しない場合には、これらの領域に芯線を追加する処理を施す。これらの追加された芯線により、第1の実施形態にて説明した第2特徴点方向が算出されるので、コア領域やデルタ領域に存在する特徴点の対応関係がより確実に検出される。その結果、指紋画像の照合精度が向上する。なお、第2の実施形態では、第1の実施形態にて説明した第2特徴点方向を利用する前提で説明を行ったが、第2特徴点方向を利用しなくとも良い。つまり、第2の実施形態では、コア領域やデルタ領域に特徴点が存在しなければ、これらの領域に特徴点が生成されるように突起芯線やデルタドット芯線を追加する。これらの芯線が追加されることにより、一方の指紋画像(芯線画像)のコア領域、デルタ領域には特徴点が存在せず、他方の指紋画像のコア領域、デルタ領域には特徴点が存在するという、状況を回避し、照合精度の劣化を抑制できる(照合精度が向上する)。   As described above, in the second embodiment, when there are no feature points in the core region or the delta region, a process of adding a core line to these regions is performed. Since the added feature line calculates the second feature point direction described in the first embodiment, the correspondence between the feature points existing in the core region and the delta region can be detected more reliably. As a result, fingerprint image matching accuracy is improved. In the second embodiment, the description has been made on the assumption that the second feature point direction described in the first embodiment is used. However, the second feature point direction may not be used. That is, in the second embodiment, if there are no feature points in the core region or the delta region, a protruding core wire or a delta dot core wire is added so that the feature points are generated in these regions. By adding these core lines, there are no feature points in the core region and delta region of one fingerprint image (core line image), and there are feature points in the core region and delta region of the other fingerprint image. The situation can be avoided, and the deterioration of the collation accuracy can be suppressed (the collation accuracy is improved).

なお、第1及び第2の実施形態にて説明した指紋照合システムの構成(図2)は例示であって、システムの構成を限定する趣旨ではない。例えば、特徴量生成装置10、入力装置30及び照合装置40が有する各種機能の全部又は一部が他の装置に組み込まれていてもよい。あるいは、特徴量生成装置10、入力装置30及び照合装置40の各種機能が1つの装置に組み込まれていてもよい。特徴量生成装置10等の機能を1つの装置にて実現する場合には、図41に示す画像処理装置50を使用することができる。なお、図41に示す指紋画像入力部11等の機能ブロックは、第1及び第2の実施形態にて説明した機能ブロックと同様のため説明を省略する。但し、データベース20にアクセスする手段が必要であるので、画像処理装置50はデータベースアクセス部51を備える。特徴量算出部13は、データベースアクセス部51を介して、生成した特徴量をデータベース20に登録する。特徴点照合部42は、データベースアクセス部51を介して、データベース20に登録された特徴量を取得する。なお、データベース20を記憶部15に構築しても良いことは当然である。   Note that the configuration of the fingerprint collation system described in the first and second embodiments (FIG. 2) is an example, and is not intended to limit the configuration of the system. For example, all or some of the various functions of the feature quantity generation device 10, the input device 30, and the collation device 40 may be incorporated in another device. Alternatively, various functions of the feature quantity generation device 10, the input device 30, and the collation device 40 may be incorporated in one device. When the functions of the feature quantity generation device 10 and the like are realized by one device, an image processing device 50 shown in FIG. 41 can be used. Note that functional blocks such as the fingerprint image input unit 11 shown in FIG. 41 are the same as the functional blocks described in the first and second embodiments, and thus description thereof is omitted. However, since a means for accessing the database 20 is necessary, the image processing apparatus 50 includes a database access unit 51. The feature amount calculation unit 13 registers the generated feature amount in the database 20 via the database access unit 51. The feature point matching unit 42 acquires the feature amount registered in the database 20 via the database access unit 51. Of course, the database 20 may be constructed in the storage unit 15.

上記第1及び第2の実施形態では、隆線により曲線縞模様が形成されている画像として指紋画像を用いて特徴量生成装置10等の構成及び動作を説明したが、扱う画像は指紋画像に限定されない。特徴量生成装置10は、例えば、掌紋等に係る画像から特徴量を算出しても良い。   In the first and second embodiments described above, the configuration and operation of the feature quantity generation device 10 and the like have been described using a fingerprint image as an image in which a curved stripe pattern is formed by ridges. It is not limited. For example, the feature value generation apparatus 10 may calculate a feature value from an image related to a palm print or the like.

第1及び第2の実施形態にて説明した特徴量算出処理は、第1特徴点方向に加え、第2特徴点方向を算出するものであるが、その考えを拡張し第3特徴点方向を算出することも可能である。即ち、1つの特徴点を特徴付ける特徴量として、第1〜第3特徴点方向を算出することも可能である。例えば、図14を参照すると、デルタ領域の分岐点では、3つの内角の差が小さいので、最小内角a1、第2最小内角a2による特徴点方向ではなく、内角a3(最大内角)を2分する特徴点方向が第1又は第2特徴点方向として算出されることも想定される。このような場合、照合スコアの劣化が予想されるので、最大内角a3を2分する方向を第3特徴点方向として算出し、特徴点の照合に利用することも可能である。   The feature amount calculation processing described in the first and second embodiments is to calculate the second feature point direction in addition to the first feature point direction. It is also possible to calculate. That is, it is also possible to calculate the first to third feature point directions as feature amounts that characterize one feature point. For example, referring to FIG. 14, since the difference between the three interior angles is small at the branch point in the delta region, the interior angle a3 (maximum interior angle) is bisected rather than the feature point direction by the minimum interior angle a1 and the second minimum interior angle a2. It is also assumed that the feature point direction is calculated as the first or second feature point direction. In such a case, since the collation score is expected to deteriorate, the direction that divides the maximum inner angle a3 into two can be calculated as the third feature point direction and used for the feature point collation.

但し、上記のような不都合は、照合処理時の対応によっても解消することができる。例えば、サーチ側(遺留指紋側)にて、図14に示す第1特徴点方向304、第2特徴点方向315が抽出され、ファイル側(押捺指紋側)では最大内角a3を2分する方向が第1特徴点方向として登録されている場合を考える。このような場合には、デルタ領域における特徴点では、第1特徴点方向と第2特徴点方向の差分が120度程度であることを考慮し、第1特徴点方向304と第2特徴点方向315により形成される2つの角度のうち、大きい方の角度を2分する方向をサーチ側の第3特徴点方向として算出してもよい。即ち、サーチ側の第3特徴点方向とファイル側の第1特徴点方向を比較することで、第3特徴点方向を導入しなくとも、照合精度の劣化を抑制することができる。   However, the inconvenience as described above can be solved by a response at the time of collation processing. For example, the first feature point direction 304 and the second feature point direction 315 shown in FIG. 14 are extracted on the search side (remaining fingerprint side), and the direction that divides the maximum inner angle a3 into two on the file side (imprint fingerprint side). Consider a case where the direction is registered as the first feature point direction. In such a case, in the feature points in the delta region, the first feature point direction 304 and the second feature point direction are considered in consideration that the difference between the first feature point direction and the second feature point direction is about 120 degrees. Of the two angles formed by 315, the direction that bisects the larger angle may be calculated as the third feature point direction on the search side. That is, by comparing the third feature point direction on the search side and the first feature point direction on the file side, it is possible to suppress degradation of matching accuracy without introducing the third feature point direction.

また、第1及び第2の実施形態では、第1及び第2特徴点方向の算出にあたり内角を2分する方向を特徴点方向に定めているが、角度を分割する値は他の値であってもよい。特徴点方向を算出する際の角度を分割する比率は、1:1の比率に限定されない。   In the first and second embodiments, the direction that divides the interior angle into two is determined as the feature point direction when calculating the first and second feature point directions, but the values for dividing the angle are other values. May be. The ratio of dividing the angle when calculating the feature point direction is not limited to a ratio of 1: 1.

また、特徴量生成装置10、入力装置30及び照合装置40の各部が行う処理は、これらの装置(特徴量生成装置10、入力装置30及び照合装置40)に搭載されたコンピュータに、そのハードウェアを用いて、上述した各処理を実行させるコンピュータプログラムにより実現できる。特徴量算出部13等が行う機能を何らかのハードウェア、及び/又は、ソフトウェアで実行する手段があればよい。即ち、特徴量生成装置10、入力装置30及び照合装置40の各部が行う処理は、図42〜図44に示すように、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)等の回路によって実現されても良い。回路は、一つまたは複数で良い。また、複数の回路は、同一の装置内で協働しても良いし、別の装置内に存在しても良い。特徴量生成装置10aも図42の特徴量生成装置10と同様である。   Further, the processing performed by each unit of the feature quantity generation device 10, the input device 30, and the collation device 40 is performed on the hardware mounted on the computer mounted on these devices (the feature quantity generation device 10, the input device 30, and the collation device 40). Can be realized by a computer program for executing the above-described processes. There may be a means for executing the function performed by the feature amount calculation unit 13 or the like by some kind of hardware and / or software. That is, the processing performed by each unit of the feature quantity generation device 10, the input device 30, and the collation device 40 is performed by a circuit such as a CPU (Central Processing Unit) or an ASIC (Application Specific Integrated Circuit) as shown in FIGS. It may be realized. There may be one or more circuits. The plurality of circuits may cooperate in the same device or may exist in different devices. The feature quantity generation device 10a is the same as the feature quantity generation device 10 of FIG.

さらに、コンピュータの記憶部に、上述したコンピュータプログラムをインストールすることにより、コンピュータを画像処理装置として機能させることができる。さらにまた、上述したコンピュータプログラムをコンピュータに実行させることにより、コンピュータにより特徴量算出等に係る画像処理方法を実行させることができる。また、そのプログラムは、ネットワークを介してダウンロードするか、あるいは、プログラムを記憶した記憶媒体を用いて、更新することができる。   Furthermore, by installing the above-described computer program in the storage unit of the computer, the computer can function as an image processing apparatus. Furthermore, by causing a computer to execute the above-described computer program, it is possible to cause the computer to execute an image processing method related to feature amount calculation or the like. The program can be downloaded through a network or updated using a storage medium storing the program.

また、上述の説明で用いたフローチャートでは、複数の工程(処理)が順番に記載されているが、各実施形態で実行される工程の実行順序は、その記載の順番に制限されない。各実施形態では、例えば各処理を並行して実行する等、図示される工程の順番を内容的に支障のない範囲で変更することができる。   Moreover, in the flowchart used by the above-mentioned description, although several process (process) is described in order, the execution order of the process performed by each embodiment is not restrict | limited to the description order. In each embodiment, the order of the illustrated steps can be changed within a range that does not hinder the contents, for example, the processes are executed in parallel.

上記の実施形態の一部又は全部は、以下のようにも記載され得るが、以下には限られない。
[形態1]
上述の第1の視点に係る画像処理装置のとおりである。
[形態2]
前記芯線追加部は、
前記芯線画像の最も内側に位置するループ状の隆線であって、頂点から所定の範囲内に特徴点が存在しない中核蹄線を検出し、前記中核蹄線の実質的な頂点に突起状の芯線を追加する、形態1に記載の画像処理装置。
[形態3]
前記芯線追加部は、
前記芯線画像からデルタ領域を検出し、前記検出されたデルタ領域の実質的な中心位置に芯線が存在しない場合に、前記中心位置に芯線を追加する、形態1又は2に記載の画像処理装置。
[形態4]
前記追加された芯線の両端を特徴点とし、前記特徴点を特徴付ける第1及び第2特徴点方向を算出する、特徴量算出部と、
前記算出された第1及び第2特徴点方向を、前記抽出された特徴点の特徴量として出力する特徴量出力部と、
を備える、形態1乃至3いずれか一に記載の画像処理装置。
[形態5]
ユーザの操作に供する画面を表示装置に表示し、前記ユーザによる特徴点の特徴量を入力する操作を受け付ける、データ入力部をさらに備え、
前記データ入力部は、前記第1及び第2特徴点方向を前記表示装置に表示させる場合には、前記第1及び第2特徴点方向の表示態様を互いに異なるものとする、形態1乃至4のいずれか一に記載の画像処理装置。
[形態6]
上述の第2の視点に係る画像処理方法のとおりである。
[形態7]
上述の第3の視点に係るプログラムのとおりである。
なお、形態6及び形態7は、形態1と同様に、形態2の〜形態5のように展開することが可能である。
A part or all of the above embodiments can be described as follows, but is not limited to the following.
[Form 1]
This is the same as the image processing apparatus according to the first viewpoint described above.
[Form 2]
The core wire addition part is
A loop-like ridge located on the innermost side of the core image, wherein a core hoof line having no feature point within a predetermined range from the apex is detected, and a protrusion-like shape is formed at a substantial apex of the core hoist line. The image processing apparatus according to aspect 1, wherein a core wire is added.
[Form 3]
The core wire addition part is
The image processing apparatus according to the first or second aspect, wherein a delta area is detected from the core line image, and a core line is added to the center position when a core line does not exist at a substantial center position of the detected delta area.
[Form 4]
A feature quantity calculating unit for calculating first and second feature point directions characterizing the feature points at both ends of the added core line; and
A feature amount output unit that outputs the calculated first and second feature point directions as feature amounts of the extracted feature points;
An image processing apparatus according to any one of Forms 1 to 3, further comprising:
[Form 5]
A screen for user operation is displayed on a display device, and further includes a data input unit that receives an operation of inputting a feature amount of a feature point by the user,
In the first to fourth aspects, when the data input unit displays the first and second feature point directions on the display device, the display modes of the first and second feature point directions are different from each other. The image processing apparatus according to any one of the above.
[Form 6]
This is the same as the image processing method according to the second viewpoint described above.
[Form 7]
It is as the program which concerns on the above-mentioned 3rd viewpoint.
Form 6 and form 7 can be developed like form 2 to form 5 in the same manner as form 1.

なお、引用した上記の特許文献等の各開示は、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態ないし実施例の変更・調整が可能である。また、本発明の全開示の枠内において種々の開示要素(各請求項の各要素、各実施形態ないし実施例の各要素、各図面の各要素等を含む)の多様な組み合わせ、ないし、選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。   Each disclosure of the cited patent documents and the like cited above is incorporated herein by reference. Within the scope of the entire disclosure (including claims) of the present invention, the embodiments and examples can be changed and adjusted based on the basic technical concept. In addition, various combinations or selections of various disclosed elements (including each element in each claim, each element in each embodiment or example, each element in each drawing, etc.) within the scope of the entire disclosure of the present invention. Is possible. That is, the present invention of course includes various variations and modifications that could be made by those skilled in the art according to the entire disclosure including the claims and the technical idea. In particular, with respect to the numerical ranges described in this document, any numerical value or small range included in the range should be construed as being specifically described even if there is no specific description.

10、10a 特徴量生成装置
11 指紋画像入力部
12、102 芯線画像抽出部
13 特徴量算出部
14 特徴量出力部
15、33、44 記憶部
16、103 芯線追加部
20、20a データベース
30、30a 入力装置
31 データ入力部
32 データ出力部
40 照合装置
41 特徴量入力部
42 特徴点照合部
43 照合結果出力部
50、100 画像処理装置
51 データベースアクセス部
101 画像入力部
201〜205、321 分岐点
211〜213、331〜334 端点
221〜243 特徴点方向
231〜237、341〜349 終端点
301〜304、351 第1特徴点方向
311〜315、352、353 第2特徴点方向
361、362 仮想線
371、372 交点
401〜409、411〜419 特徴点
501〜504 曲線
601 中核蹄線
602〜604 芯線
611 突起芯線
612 デルタドット芯線
701 コア領域
702 デルタ領域
703 領域
10, 10a Feature amount generation device 11 Fingerprint image input unit 12, 102 Core line image extraction unit 13 Feature amount calculation unit 14 Feature amount output unit 15, 33, 44 Storage unit 16, 103 Core line addition unit 20, 20a Database 30, 30a Input Device 31 Data input unit 32 Data output unit 40 Collation device 41 Feature amount input unit 42 Feature point collation unit 43 Collation result output unit 50, 100 Image processing unit 51 Database access unit 101 Image input units 201-205, 321 Branch point 211- 213, 331 to 334 End points 221 to 243 Feature point directions 231 to 237, 341 to 349 End points 301 to 304, 351 First feature point directions 311 to 315, 352, 353 Second feature point directions 361 and 362 Virtual lines 371, 372 Intersection points 401 to 409, 411 to 419 Characteristic points 501 to 504 Curve 60 1 Core hoof wire 602 to 604 Core wire 611 Protruding core wire 612 Delta dot core wire 701 Core region 702 Delta region 703 region

Claims (7)

隆線により曲線縞模様が形成されている画像を入力する画像入力部と、
前記画像から芯線を抽出した芯線画像を生成する、芯線画像抽出部と、
前記芯線画像から、予め定めた特徴を有する隆線又は領域を検出し、前記検出された隆線又は領域に芯線を追加する芯線追加部と、
を備える、画像処理装置。
An image input unit for inputting an image in which a curved stripe pattern is formed by ridges;
A core image extraction unit that generates a core image obtained by extracting a core from the image;
A core line adding unit for detecting a ridge or area having a predetermined characteristic from the core line image and adding a core line to the detected ridge or area;
An image processing apparatus comprising:
前記芯線追加部は、
前記芯線画像の最も内側に位置するループ状の隆線であって、頂点から所定の範囲内に特徴点が存在しない中核蹄線を検出し、前記中核蹄線の実質的な頂点に突起状の芯線を追加する、請求項1に記載の画像処理装置。
The core wire addition part is
A loop-like ridge located on the innermost side of the core image, wherein a core hoof line having no feature point within a predetermined range from the apex is detected, and a protrusion-like shape is formed at a substantial apex of the core hoist line. The image processing apparatus according to claim 1, wherein a core wire is added.
前記芯線追加部は、
前記芯線画像からデルタ領域を検出し、前記検出されたデルタ領域の実質的な中心位置に芯線が存在しない場合に、前記中心位置に芯線を追加する、請求項1又は2に記載の画像処理装置。
The core wire addition part is
The image processing apparatus according to claim 1, wherein a delta region is detected from the core line image, and a core line is added to the center position when no core line exists at a substantial center position of the detected delta region. .
前記追加された芯線の両端を特徴点とし、前記特徴点を特徴付ける第1及び第2特徴点方向を算出する、特徴量算出部と、
前記算出された第1及び第2特徴点方向を、前記抽出された特徴点の特徴量として出力する特徴量出力部と、
を備える、請求項1乃至の3いずれか一項に記載の画像処理装置。
A feature quantity calculating unit for calculating first and second feature point directions characterizing the feature points at both ends of the added core line; and
A feature amount output unit that outputs the calculated first and second feature point directions as feature amounts of the extracted feature points;
The image processing apparatus according to claim 1, further comprising:
ユーザの操作に供する画面を表示装置に表示し、前記ユーザによる特徴点の特徴量を入力する操作を受け付ける、データ入力部をさらに備え、
前記データ入力部は、前記第1及び第2特徴点方向を前記表示装置に表示させる場合には、前記第1及び第2特徴点方向の表示態様を互いに異なるものとする、請求項1乃至4のいずれか一項に記載の画像処理装置。
A screen for user operation is displayed on a display device, and further includes a data input unit that receives an operation of inputting a feature amount of a feature point by the user,
The said data input part shall mutually differ the display mode of the said 1st and 2nd feature point direction, when displaying the said 1st and 2nd feature point direction on the said display apparatus. The image processing apparatus according to any one of the above.
隆線により曲線縞模様が形成されている画像を入力するステップと、
前記画像から芯線を抽出した芯線画像を生成するステップと、
前記芯線画像から、予め定めた特徴を有する隆線又は領域を検出し、前記検出された隆線又は領域に芯線を追加するステップと、
を含む、画像処理方法。
Inputting an image in which a curved stripe pattern is formed by ridges;
Generating a core image obtained by extracting a core from the image;
Detecting a ridge or region having a predetermined characteristic from the core image, and adding a core to the detected ridge or region;
Including an image processing method.
隆線により曲線縞模様が形成されている画像を入力する処理と、
前記画像から芯線を抽出した芯線画像を生成する処理と、
前記芯線画像から、予め定めた特徴を有する隆線又は領域を検出し、前記検出された隆線又は領域に芯線を追加する処理と、
を画像処理装置に搭載されたコンピュータに実行させるプログラム。
Processing to input an image in which a curved stripe pattern is formed by ridges;
A process of generating a core image obtained by extracting a core line from the image;
Detecting a ridge or region having a predetermined characteristic from the core image, and adding a core to the detected ridge or region;
For causing a computer mounted on the image processing apparatus to execute the program.
JP2017537828A 2015-08-28 2016-08-26 Image processing apparatus, image processing method and program Active JP6729592B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020114010A JP6935832B2 (en) 2015-08-28 2020-07-01 Image processing system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015168471 2015-08-28
JP2015168471 2015-08-28
PCT/JP2016/074938 WO2017038668A1 (en) 2015-08-28 2016-08-26 Image processing device, image processing method and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020114010A Division JP6935832B2 (en) 2015-08-28 2020-07-01 Image processing system

Publications (2)

Publication Number Publication Date
JPWO2017038668A1 true JPWO2017038668A1 (en) 2018-06-14
JP6729592B2 JP6729592B2 (en) 2020-07-22

Family

ID=58187332

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2017537828A Active JP6729592B2 (en) 2015-08-28 2016-08-26 Image processing apparatus, image processing method and program
JP2020114010A Active JP6935832B2 (en) 2015-08-28 2020-07-01 Image processing system
JP2021137943A Active JP7160162B2 (en) 2015-08-28 2021-08-26 Image processing system

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2020114010A Active JP6935832B2 (en) 2015-08-28 2020-07-01 Image processing system
JP2021137943A Active JP7160162B2 (en) 2015-08-28 2021-08-26 Image processing system

Country Status (2)

Country Link
JP (3) JP6729592B2 (en)
WO (1) WO2017038668A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04306778A (en) * 1991-04-03 1992-10-29 Nippon Denki Security Syst Kk Fingerprint characteristic correction system
JP2000057342A (en) * 1998-08-13 2000-02-25 Nec Software Ltd Fingerprint collating device an method therefor
JP2001076142A (en) * 1999-09-01 2001-03-23 Nippon Telegr & Teleph Corp <Ntt> Method and device for collating fingerprint image and recording medium with this method recorded thereon
WO2015025933A1 (en) * 2013-08-21 2015-02-26 日本電気株式会社 Fingerprint core extraction device for fingerprint matching, fingerprint matching system, fingerprint core extraction method, and program therefor

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2776409B2 (en) * 1995-08-02 1998-07-16 日本電気株式会社 Classification device for skin pattern and fingerprint pattern
JP2002352246A (en) * 2001-05-24 2002-12-06 Nec Soft Ltd System, method and program for collating and confirming fingerprint
JP3597148B2 (en) 2001-06-15 2004-12-02 Necソフト株式会社 Fingerprint feature extraction device, fingerprint feature extraction method, and fingerprint extraction program
WO2010044250A1 (en) 2008-10-15 2010-04-22 日本電気株式会社 Pattern check device and pattern check method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04306778A (en) * 1991-04-03 1992-10-29 Nippon Denki Security Syst Kk Fingerprint characteristic correction system
JP2000057342A (en) * 1998-08-13 2000-02-25 Nec Software Ltd Fingerprint collating device an method therefor
JP2001076142A (en) * 1999-09-01 2001-03-23 Nippon Telegr & Teleph Corp <Ntt> Method and device for collating fingerprint image and recording medium with this method recorded thereon
WO2015025933A1 (en) * 2013-08-21 2015-02-26 日本電気株式会社 Fingerprint core extraction device for fingerprint matching, fingerprint matching system, fingerprint core extraction method, and program therefor

Also Published As

Publication number Publication date
JP7160162B2 (en) 2022-10-25
WO2017038668A1 (en) 2017-03-09
JP6935832B2 (en) 2021-09-15
JP2020161192A (en) 2020-10-01
JP6729592B2 (en) 2020-07-22
JP2021193580A (en) 2021-12-23

Similar Documents

Publication Publication Date Title
JP6569734B2 (en) Image processing apparatus, image processing method, and program
JP6593327B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
US9792484B2 (en) Biometric information registration apparatus and biometric information registration method
US11810392B2 (en) Minutia features generation apparatus, system, minutia features generation method, and program
JP6152892B2 (en) Fingerprint core extraction device for fingerprint verification, fingerprint verification system, fingerprint core extraction method, and program thereof
US9864898B2 (en) Feature point input assisting device, feature point input assisting method, and storage medium stored with program
US11783623B2 (en) Synthesizing apparatus, synthesizing method and program
US20050271260A1 (en) Device, method and program for removing pores
JP6935832B2 (en) Image processing system
KR20090050961A (en) Shape inspection apparatus, computer-readable medium having shape inspection program recorded therein and shape inspection method
CN111753723B (en) Fingerprint identification method and device based on density calibration
WO2021192315A1 (en) Stripe pattern image collating device, stripe pattern collating method, and computer-readable medium storing program thereof
CN111670458A (en) Reading system
US20150130812A1 (en) Measured Data Digitization Apparatus, Measured Data Digitization Method and Non-Transitory Computer-Readable Medium
JP2013222425A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R150 Certificate of patent or registration of utility model

Ref document number: 6729592

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150