JP2007202912A - Collating device for image including striped pattern - Google Patents

Collating device for image including striped pattern Download PDF

Info

Publication number
JP2007202912A
JP2007202912A JP2006027595A JP2006027595A JP2007202912A JP 2007202912 A JP2007202912 A JP 2007202912A JP 2006027595 A JP2006027595 A JP 2006027595A JP 2006027595 A JP2006027595 A JP 2006027595A JP 2007202912 A JP2007202912 A JP 2007202912A
Authority
JP
Japan
Prior art keywords
image
unit
frequency component
frequency
fingerprint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006027595A
Other languages
Japanese (ja)
Other versions
JP4931426B2 (en
Inventor
Naoyuki Takada
直幸 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2006027595A priority Critical patent/JP4931426B2/en
Publication of JP2007202912A publication Critical patent/JP2007202912A/en
Application granted granted Critical
Publication of JP4931426B2 publication Critical patent/JP4931426B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a collation device for collation of an image including a striped pattern, capable of achieving high collation precision by creating a noise-eliminated image for use while maintaining information of characteristic points to be used for collation. <P>SOLUTION: The collation device 1 comprises an image input part 3 to obtain an image including a striped pattern, a frequency spectrum analyzing part 120 to determine the frequency spectrum of the image, a frequency component selecting part 140 to select frequency components of which absolute value of amplitude is over a prescribed threshold value, an image evaluation part 150 to check if the selected frequency component meets the image quality suitable to collation in accordance with prescribed conditions, an image recomposing part 190 to recompose an image based on the selected frequency component in a case where it is determined that the prescribed condition is met, and a collation part 14 to carry out collation using the recomposed image. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、縞模様を含む画像の照合装置に関し、より詳しくは、指紋画像又は掌紋画像について、画質を向上させた上で照合を行う照合装置に関する。   The present invention relates to a collation device for an image including a striped pattern, and more particularly to a collation device that collates after improving the image quality of a fingerprint image or a palm print image.

近年、入退室管理、情報機器へのアクセス、預貯金の引き出しなどにおけるセキュリティについて関心が高まっている。そのような中で、従来から用いられている鍵、パスワード認証などよりも確実で、より高度なセキュリティを提供できる個人認証方法として、バイオメトリクス認証(生体認証)が特に注目を集めている。   In recent years, there has been a growing interest in security in entry / exit management, access to information equipment, withdrawal of deposits and savings, and the like. Under such circumstances, biometrics authentication (biometric authentication) has attracted particular attention as a personal authentication method that can provide higher security with more certainty than conventional key and password authentication.

そのようなバイオメトリクス認証の一つである指紋認証では、指紋センサから得られる指紋の紋様を濃淡で表す多値画像から特徴情報を抽出し、その特徴情報と、予め登録された特徴情報とを比較して一致度を求め、その一致度に基づいて個人認証を行う方法が知られている。   In fingerprint authentication, which is one of such biometric authentications, feature information is extracted from a multi-valued image representing a fingerprint pattern obtained from a fingerprint sensor in shades, and the feature information and pre-registered feature information are extracted. A method is known in which the degree of coincidence is obtained by comparison and personal authentication is performed based on the degree of coincidence.

指紋画像から特徴情報を抽出する方法の一つとして、指紋センサから得た多値画像に対してノイズ除去、ムラ補正などの処理を行って画質を補正し、その後二値化した画像から指紋の隆線の分岐点・端点を特徴点として得る方法がある。   As one of the methods for extracting feature information from a fingerprint image, the multi-valued image obtained from the fingerprint sensor is subjected to processing such as noise removal and unevenness correction to correct the image quality, and then the binarized image is used to correct the fingerprint. There is a method for obtaining branch points and end points of ridges as feature points.

しかしながら、指紋画像撮影時の様々な条件、例えば、指紋読取り装置への指の置き方と照明光源との位置関係や、乾燥等の指の状態により、指紋画像にノイズが生じる。そのため、本来隆線が連続した一本の線であるにもかかわらず、指紋画像上では途切れていたり、また隣接する2本の隆線が途中で接続しているように観察される場合がある。ノイズにより生じたこのような途切れや接続は、擬似特徴点として抽出され、指紋照合の精度を低下させる原因となる。そこで、指紋照合の精度を向上するためには、特徴点を抽出する前に、指紋画像から可能な限りノイズを除去することが重要である。   However, noise occurs in the fingerprint image due to various conditions at the time of fingerprint image shooting, for example, the positional relationship between the finger placement on the fingerprint reader and the illumination light source, and the state of the finger such as dryness. Therefore, even though the ridge line is originally a continuous line, it may be observed on the fingerprint image as if it is interrupted or two adjacent ridge lines are connected in the middle. . Such discontinuity or connection caused by noise is extracted as a pseudo feature point and causes the accuracy of fingerprint collation to be reduced. Therefore, in order to improve the accuracy of fingerprint collation, it is important to remove noise from the fingerprint image as much as possible before extracting feature points.

このような目的に対し、特許文献1に記載された画像処理装置は、入力画像を小領域に分割し、各小領域ごとにフーリエ変換を行って周波数スペクトルをもとめる。そしてその画像処理装置は、各小領域ごとに振幅が最大となる周波数成分を探索し、その最大振幅となる周波数成分を中心として、その周波数成分から離れるにつれて振幅を減弱させるようなフィルタ処理を行う。その後、その画像処理装置は、フィルタ処理を行った画像を小領域ごとに逆フーリエ変換して合成することにより、指紋の隆線のピッチに相当する周波数成分だけをそのまま残し、ノイズを減弱させた画像を得ることができる。   For this purpose, the image processing apparatus described in Patent Document 1 divides an input image into small regions and performs a Fourier transform for each small region to obtain a frequency spectrum. Then, the image processing apparatus searches for a frequency component having the maximum amplitude for each small region, and performs a filter process that decreases the amplitude as the frequency component is separated from the frequency component having the maximum amplitude as a center. . Thereafter, the image processing apparatus attenuates noise by leaving only the frequency component corresponding to the pitch of the ridges of the fingerprint as it is by performing inverse Fourier transform for each small region and synthesizing the filtered image. An image can be obtained.

しかし、小領域中に隆線の端点や分岐点が含まれている場合、その端点や分岐点に起因する周波数成分は、最大振幅となる周波数成分とは通常異なる成分であるため、上記のように最大振幅となる周波数成分から離れるにつれて一律に減弱させるフィルタ処理を行うと、隆線の端点や分岐点の情報も消失してしまう可能性があった。   However, if the ridge end point or branch point is included in the small area, the frequency component due to the end point or branch point is usually different from the frequency component having the maximum amplitude. If the filter processing is performed to uniformly reduce the frequency component with the maximum amplitude, the information on the end points and branch points of the ridges may be lost.

特開2005−115548号公報JP 2005-115548 A

上記の問題点に鑑み、本発明の目的は、縞模様を含む画像について、照合に使用する特徴点の情報を維持しつつ、ノイズを除去した画像を生成して用いるこにより、高い照合精度を得られる照合装置を提供することにある。   In view of the above problems, the object of the present invention is to generate and use an image from which noise has been removed while maintaining information on feature points used for matching for an image including a striped pattern, thereby achieving high matching accuracy. It is in providing the collation apparatus obtained.

また本発明の別の目的は、指紋画像や掌紋画像について、指紋の隆線の端点や分岐点のような、照合に使用する特徴点の情報を正確に抽出することが可能で、且つ高い照合精度を得られる指紋又は掌紋画像の照合装置を提供することにある。   Another object of the present invention is to accurately extract information on feature points used for matching, such as fingerprint ridge end points and branch points, for fingerprint images and palmprint images, and high matching. An object of the present invention is to provide a fingerprint or palmprint image collation device capable of obtaining accuracy.

上記の問題に鑑み、本発明に係る縞模様を含む画像を照合する画像の照合装置は、画像を取得する画像入力部と、画像を周波数変換して周波数スペクトルを求める周波数スペクトル解析部と、周波数スペクトルから、振幅の絶対値が所定の閾値以上である周波数成分を選択する周波数成分選択部と、周波数成分選択部によって選択された周波数成分が所定の条件により照合に適する画像の質を満たすか否かを調べる画質評価部と、画質評価部が所定の条件を満たすと判断した場合、選択された周波数成分に基づいて、周波数変換の逆変換を行って画像を再構成する画像再構成部と、再構成された画像を用いて照合する照合部と、を有することを特徴とする。係る構成により、画像にノイズが含まれている場合であっても、その画像から適切なノイズ除去を行ったうえで照合を行うことができ、高い照合精度を達成することができる。
なお、本発明に置いて縞模様とは、一定の方向に対して周期的に画素値が変動する模様をいう。ただしその周期自体が変動するかしないかは問わない。
In view of the above problems, an image collation apparatus for collating an image including a striped pattern according to the present invention includes an image input unit that acquires an image, a frequency spectrum analysis unit that obtains a frequency spectrum by performing frequency conversion on the image, and a frequency A frequency component selection unit that selects a frequency component having an amplitude whose absolute value is equal to or greater than a predetermined threshold from the spectrum, and whether or not the frequency component selected by the frequency component selection unit satisfies image quality suitable for collation according to a predetermined condition. An image reconstructing unit for reconstructing an image by performing an inverse transform of the frequency transform based on the selected frequency component when it is determined that the image quality evaluating unit satisfies a predetermined condition, And a collation unit that collates using the reconstructed image. With such a configuration, even when noise is included in an image, matching can be performed after appropriate noise removal from the image, and high matching accuracy can be achieved.
In the present invention, a striped pattern refers to a pattern in which pixel values fluctuate periodically in a certain direction. However, it does not matter whether the cycle itself fluctuates or not.

また本発明に係る照合装置は、さらに所定の閾値を調整する周波数成分選択制御部を有し、画質評価部が所定の条件を満たさないと判断した場合、周波数成分選択制御部は所定の閾値を変更し、周波数成分選択部はその変更された所定の閾値を用いて再度周波数成分の選択を行うことが好ましい。周波数成分の選択が不適切と判断した場合には再度条件を変更して周波数成分の選択をやり直すことにより、適切な周波数成分の選択が可能となる。
なお本発明に係る照合装置において、所定の条件を満たさない場合、周波数成分選択制御部は、所定の閾値を変更する前よりも大きな値にすることが好ましい。
The collation device according to the present invention further includes a frequency component selection control unit that adjusts the predetermined threshold value. When the image quality evaluation unit determines that the predetermined condition is not satisfied, the frequency component selection control unit sets the predetermined threshold value. It is preferable that the frequency component selection unit performs selection of the frequency component again using the changed predetermined threshold. When it is determined that the selection of the frequency component is inappropriate, it is possible to select an appropriate frequency component by changing the conditions again and reselecting the frequency component.
In the verification device according to the present invention, when the predetermined condition is not satisfied, the frequency component selection control unit preferably sets a larger value than before changing the predetermined threshold.

また本発明に係る照合装置において、画質評価部は、選択された周波数成分の分布に基づいて、画像に含まれる縞模様の縞方向を特定する方向線算出手段と、選択された周波数成分が縞方向に集中している程度を表す指標を算出する集中度算出手段を有し、その指標が、所定以上の集中を示している場合、所定の条件を満たし、所定未満の集中を示している場合、所定の条件を満たしていないと評価する評価手段を有することが好ましい。なお、縞模様の縞方向とは、縞模様に対して直交する方向、すなわち画像の濃淡変化が最も短い周期となる方向をいう。また、選択された周波数成分が縞方向に集中している程度を表す指標を、各周波数成分と縞方向に対応する周波数平面上の直線との平均距離、その直線近傍に存在する周波数成分の個数とその直線から離れた位置に存在する周波数成分の個数の比、又はそれらの組み合わせに基づいて求めることができる。係る構成により、縞模様を含む画像では、縞方向に対して強い周波数成分が存在するということに基づいて画質評価を行うため、周波数成分の選択が適切か否かの判断を正確に行うことができる。   Further, in the collation device according to the present invention, the image quality evaluation unit includes a direction line calculation unit that specifies the stripe direction of the stripe pattern included in the image based on the distribution of the selected frequency component, and the selected frequency component is a stripe. When there is a concentration degree calculation means for calculating an index indicating the degree of concentration in the direction, and the index indicates a concentration that is greater than or equal to a predetermined value, satisfies a predetermined condition, and indicates a concentration that is less than a predetermined value It is preferable to have an evaluation means for evaluating that the predetermined condition is not satisfied. The striped direction of the striped pattern means a direction orthogonal to the striped pattern, that is, a direction in which the change in shade of the image is the shortest cycle. In addition, an index indicating the degree of concentration of the selected frequency component in the fringe direction is used as an average distance between each frequency component and a straight line on the frequency plane corresponding to the fringe direction, and the number of frequency components existing in the vicinity of the straight line. And the ratio of the number of frequency components existing at positions away from the straight line, or a combination thereof. With such a configuration, an image including a stripe pattern is subjected to image quality evaluation based on the presence of a strong frequency component in the stripe direction, and therefore it is possible to accurately determine whether or not the frequency component is appropriately selected. it can.

また本発明に係る照合装置は、さらに、画質評価部が所定の条件を満たすと判断した周波数成分に対し、縞方向に対応する周波数平面上の直線から所定の周波数以内の範囲に含まれない周波数成分を減弱させるバンドパスフィルタ処理を行う周波数フィルタ部を有し、画像再構成部は、バンドパスフィルタ処理を行った周波数成分に基づいて画像を再構成することが好ましい。
バンドパスフィルタ処理を行うことにより、画像に含まれる対象物とは関係のない周波数成分を除去することができ、画像から効率的にノイズを除去することができる。なお、所定の周波数範囲を、画像に含まれる対象物の構造に基づいて縞模様の縞方向が変化する角度に相当する周波数の変動量を含むように設定することが好ましい。縞方向の変動を考慮して画素値の変動成分を残せるため、誤ってその対象物の情報を失う危険性を低下させることができる。
The collation device according to the present invention further includes frequencies that are not included in a range within a predetermined frequency from a straight line on a frequency plane corresponding to the fringe direction with respect to a frequency component determined by the image quality evaluation unit to satisfy a predetermined condition. It is preferable to have a frequency filter unit that performs band-pass filter processing that attenuates components, and the image reconstruction unit reconstructs an image based on the frequency components that have undergone band-pass filter processing.
By performing the bandpass filter process, it is possible to remove frequency components that are not related to the object included in the image, and to efficiently remove noise from the image. The predetermined frequency range is preferably set so as to include a frequency fluctuation amount corresponding to an angle at which the stripe direction of the stripe pattern changes based on the structure of the object included in the image. Since the fluctuation component of the pixel value can be left in consideration of the fluctuation in the fringe direction, the risk of losing information on the object by mistake can be reduced.

さらに本発明に係る照合装置において、画像を複数の領域に分割する画像分割部と、複数の領域に分割された画像を一つの画像に合成する画像合成部とを有し、画像分割部は、画像入力部に入力された画像を縞模様が略平行な複数の直線とみなすことが可能な程度の複数領域に分割し、周波数スペクトル解析部は、複数領域それぞれについて周波数スペクトルを求め、周波数成分選択部は、複数領域それぞれについて、振幅の絶対値が所定の閾値以上である周波数成分を選択し、画質評価部は、複数領域それぞれについて、選択された周波数成分が所定の条件を満たすか否かを調べ、画像再構成部は、複数領域それぞれについて、選択された周波数成分が所定の条件を満たすと判断した場合、その選択された周波数成分に基づいて画像を再構成し、画像合成部は、再構成された画像を一つに合成することが好ましい。係る構成により、画像中に含まれる縞模様の縞方向が場所によって変わるような場合であっても、縞方向が同一の方向を向いている範囲を各領域とし、それぞれの領域を縞方向の変化が含まれない画像として扱うことができる。そのため、画像から適切にノイズを除去することができる。   Furthermore, the collation device according to the present invention includes an image dividing unit that divides an image into a plurality of regions, and an image combining unit that combines the images divided into the plurality of regions into one image, The image input to the image input unit is divided into multiple regions that can be regarded as a plurality of straight lines with stripe patterns substantially parallel, and the frequency spectrum analysis unit obtains the frequency spectrum for each of the multiple regions and selects the frequency component The unit selects a frequency component whose absolute value of the amplitude is equal to or greater than a predetermined threshold for each of the plurality of regions, and the image quality evaluation unit determines whether the selected frequency component satisfies a predetermined condition for each of the plurality of regions. If the image reconstruction unit determines that the selected frequency component satisfies the predetermined condition for each of the plurality of regions, the image reconstruction unit reconstructs the image based on the selected frequency component. And image combining unit, it is preferable to synthesize the reconstructed image into one. With such a configuration, even if the stripe direction of the stripe pattern included in the image changes depending on the location, the range in which the stripe direction faces the same direction is defined as each region, and each region changes in the stripe direction. Can be treated as an image that does not contain. Therefore, noise can be appropriately removed from the image.

本発明によれば、縞模様を含む画像について、照合に使用する特徴点の情報を維持しつつ、ノイズを除去した画像を生成して用いるこにより、高い照合精度を得られる照合装置を提供することが可能となった。   According to the present invention, it is possible to provide a collation device that can obtain high collation accuracy by generating and using an image from which noise is removed while maintaining information on feature points used for collation for an image including a striped pattern. It became possible.

また本発明によれば、指紋画像や掌紋画像について、指紋の隆線の端点や分岐点のような、照合に使用する特徴点の情報を正確に抽出することが可能で、且つ高い照合精度を得られる指紋又は掌紋画像の照合装置を提供することが可能となった。   Further, according to the present invention, it is possible to accurately extract feature point information used for matching, such as fingerprint ridge end points and branch points, for fingerprint images and palmprint images, and to achieve high matching accuracy. It has become possible to provide a fingerprint or palmprint image collation device obtained.

以下、本発明に係る照合装置の一例である指紋認証装置について、図を参照しつつ説明する。
本発明に係る照合装置の一例である指紋認証装置は、取得した指紋画像から、指紋の隆線の端点及び分岐点を特徴点として抽出した特徴点リストを作成し、予め記憶されている被照合者の指紋の特徴点リストと照合することにより認証を行う装置である。
Hereinafter, a fingerprint authentication apparatus which is an example of a collation apparatus according to the present invention will be described with reference to the drawings.
The fingerprint authentication device, which is an example of the collation device according to the present invention, creates a feature point list obtained by extracting the end points and branch points of the fingerprint ridges as feature points from the acquired fingerprint image, and is stored in advance. It is an apparatus that performs authentication by collating with a feature point list of a person's fingerprint.

図1は、本発明に係る照合装置の一例である指紋認証装置1の機能ブロック図である。図1に示すように、指紋認証装置1は、操作・表示部2、指紋入力部3、記憶部4、画像照合部5及び出力部6を有する。そして、指紋認証装置1は、操作・表示部2において指紋認証を行う操作者(被照合者)に対する操作ガイダンス及び情報の表示を行い、そのガイダンスにしたがって指紋入力部3に置かれた指から多値指紋画像Mを読み取る。そして、読み取った多値指紋画像Mは画像照合部5に送られる。画像照合部5は、受け取った多値指紋画像Mに対してノイズ除去、二値化などを行った後に特徴点を抽出し、特徴点リスト(以下、入力特徴点リストという)Fを作成する。そして画像照合部5は、入力特徴点リストFと操作者について記憶部4に予め登録された特徴点リスト(以下、登録特徴点リストという)Fを照合する。その照合結果は、出力部6を通じて外部の機器に出力される。出力部6には、例えば電気錠の施解錠制御装置が接続される。そして、電気錠の施解錠制御装置は、出力部6から受信した照合結果が認証に成功したことを示す信号であれば、電気錠の解錠を行い、逆に認証に失敗したことを示す信号であれば、電気錠の施錠を維持する。 FIG. 1 is a functional block diagram of a fingerprint authentication device 1 which is an example of a collation device according to the present invention. As shown in FIG. 1, the fingerprint authentication device 1 includes an operation / display unit 2, a fingerprint input unit 3, a storage unit 4, an image collation unit 5, and an output unit 6. Then, the fingerprint authentication device 1 displays operation guidance and information for an operator (a person to be verified) who performs fingerprint authentication in the operation / display unit 2, and from the fingers placed on the fingerprint input unit 3 according to the guidance. The value fingerprint image M is read. Then, the read multi-value fingerprint image M is sent to the image matching unit 5. The image matching unit 5 performs noise removal and binarization on the received multi-value fingerprint image M, extracts feature points, and creates a feature point list (hereinafter referred to as input feature point list) F i . . Then, the image collation unit 5 collates the input feature point list F i with a feature point list (hereinafter referred to as a registered feature point list) F r registered in advance in the storage unit 4 for the operator. The collation result is output to an external device through the output unit 6. For example, an electric lock locking / unlocking control device is connected to the output unit 6. Then, if the collation result received from the output unit 6 is a signal indicating that the authentication is successful, the electric lock locking / unlocking control device unlocks the electric lock, and conversely, a signal indicating that the authentication has failed. If so, keep the electric lock locked.

指紋認証装置1は、読み取った多値指紋画像Mに対して、隆線が略平行な複数の直線とみなせるような小領域ごとに分けてその周波数成分を解析し、隆線の縞を表す周波数成分及びその周波数成分に近い周波数成分だけを取り出して画像を再構成することにより、隆線の端点や分岐点の情報を維持しつつ、ノイズを除去する。そして指紋認証装置1は、ノイズを除去した多値指紋画像M’に基づいて特徴点を抽出して照合に使用することにより、擬似特徴点の抽出及び特徴点の抽出失敗を抑制して高い照合精度を達成することができる。   The fingerprint authentication device 1 analyzes the frequency component of the read multi-value fingerprint image M for each small region such that the ridges can be regarded as a plurality of straight lines that are substantially parallel to each other, and the frequency representing the ridge stripes By extracting only the component and the frequency component close to the frequency component and reconstructing the image, noise is removed while maintaining the information on the end points and branch points of the ridges. The fingerprint authentication device 1 extracts feature points based on the multi-value fingerprint image M ′ from which noise has been removed and uses it for matching, thereby suppressing the extraction of pseudo feature points and feature point extraction failures and high matching. Accuracy can be achieved.

以下、各部について詳細に説明する。
操作・表示部2は、指紋認証装置1の操作者、すなわち被照合者が、識別番号INの入力、行いたい動作の選択(例えば、特定の部屋への入室)などの操作を行うものである。また操作・表示部2は、操作のガイダンスを表示又は音声指示するものであり、タッチパネルディスプレイとスピーカで構成される。また、タッチパネルの代わりに、キーボード又はマウスのような入力デバイスと液晶ディスプレイのような単純な表示デバイスで構成してもよい。なお、ガイダンスの音声指示を行わない場合には、スピーカを省略してもよい。
操作・表示部2で入力された識別番号INなどのデータは、画像照合部5で呼び出す登録特徴点リストFのような登録指紋データの特定などに使用される。
Hereinafter, each part will be described in detail.
The operation / display unit 2 is used by an operator of the fingerprint authentication apparatus 1, that is, a person to be verified, to input an identification number IN and select an operation to be performed (for example, entering a specific room). . The operation / display unit 2 displays an operation guidance or gives a voice instruction, and includes a touch panel display and a speaker. Further, instead of the touch panel, an input device such as a keyboard or a mouse and a simple display device such as a liquid crystal display may be used. Note that the speaker may be omitted when the guidance voice instruction is not performed.
Data such as the identification number IN input by the operation / display unit 2 is used for specifying registered fingerprint data such as the registered feature point list Fr to be called by the image matching unit 5.

指紋入力部3は、画像入力部として機能し、照合処理に使用する指紋画像を取得する。そして指紋入力部3は、載置された指を撮像してデジタル信号に変換するCCDカメラをモジュール化した指紋センサ、指紋センサへの指の載置を検出する載置センサ、撮像時に指を照明するLED、操作者に指の載置位置を正しく認識させるための指ガイド部材を有する。本実施形態では、指紋センサとして指内部特性検出型光学式のものを使用した。しかし、本発明で使用可能な指紋センサはこれに限られない。例えば、指紋センサとして、全反射法光学式、光路分離法光学式、表面突起不規則反射式などの光学式センサ、静電容量式、電界式、感圧式、超音波方式などの非光学式センサを使用してもよい。   The fingerprint input unit 3 functions as an image input unit, and acquires a fingerprint image used for collation processing. The fingerprint input unit 3 includes a fingerprint sensor in which a CCD camera that images a placed finger and converts it into a digital signal is modularized, a placement sensor that detects placement of the finger on the fingerprint sensor, and illuminates the finger during imaging LED having a finger guide member for causing the operator to correctly recognize the placement position of the finger. In the present embodiment, a finger internal characteristic detection type optical sensor is used as the fingerprint sensor. However, the fingerprint sensor that can be used in the present invention is not limited to this. For example, as a fingerprint sensor, an optical sensor such as a total reflection optical type, an optical path separation optical type, a surface projection irregular reflection type, a non-optical sensor such as a capacitance type, an electric field type, a pressure sensitive type, an ultrasonic type, etc. May be used.

指紋入力部3では、指紋センサ上に指が載置されたことを載置センサが検出すると、指紋センサがその指を撮像し、多値指紋画像Mを生成する。本実施形態では、多値指紋画像Mの各画素は0−255の256階調で表され、指紋の隆線領域は画素値が低く(若しくは黒く)、指紋の谷線領域は画素値が高く(若しくは白く)表現される。ここでいう画素値とは、画像上の各画素における輝度値に相当し、画素値が低い画素は低輝度、画素値が高い画素は高輝度で表される。また、多値指紋画像Mを解像度500dpiで取得するようにした。しかし本発明で使用可能な多値指紋画像は上記のものに限られない。隆線の縞構造、特に分岐点や端点を画像上で確認できるものであれば異なる解像度であってもよく、また階調数も256階調に限られない。   In the fingerprint input unit 3, when the placement sensor detects that a finger is placed on the fingerprint sensor, the fingerprint sensor images the finger and generates a multi-value fingerprint image M. In the present embodiment, each pixel of the multi-value fingerprint image M is represented by 256 gradations of 0-255, the fingerprint ridge region has a low pixel value (or black), and the fingerprint valley region has a high pixel value. (Or white) is expressed. The pixel value here corresponds to a luminance value in each pixel on the image, and a pixel with a low pixel value is expressed with low luminance and a pixel with a high pixel value is expressed with high luminance. Further, the multi-value fingerprint image M is acquired with a resolution of 500 dpi. However, the multi-value fingerprint image usable in the present invention is not limited to the above. The resolution may be different as long as the ridge stripe structure, particularly the branch point and end point can be confirmed on the image, and the number of gradations is not limited to 256.

記憶部4は、予め登録された操作者の識別番号INと登録特徴点リストFを関連付けて記憶するものであり、フラッシュメモリなどの不揮発性メモリ、ハードディスクなどの磁気記録媒体、CD−ROM、DVD−R/Wなどの光記録媒体を有する。
登録特徴点リストFは、予め登録された被照合者の指紋画像から作成した特徴点リストであり、隆線の分岐点、端点などの各特徴点の位置をリスト形式にしたものである。登録特徴点リストFは、後述する画像照合部5による入力特徴点リストFの作成と同じ方法で作成される。特徴点リストの詳細及び作成方法については、後述する。
また記憶部4は、画像照合部5が使用するプログラム、各種設定ファイル、パラメータなども記憶する。これらは、指紋認証装置1の起動時など、所定のタイミングで必要に応じて画像照合部5により読み出される。
The storage unit 4 stores an operator identification number IN registered in advance and a registered feature point list Fr in association with each other, and includes a nonvolatile memory such as a flash memory, a magnetic recording medium such as a hard disk, a CD-ROM, An optical recording medium such as a DVD-R / W is included.
The registered feature point list F r is a feature point list created from a fingerprint image of a person to be registered that has been registered in advance, and is a list of the positions of feature points such as ridge branch points and end points. The registered feature point list F r is created by the same method as the creation of the input feature point list F i by the image matching unit 5 described later. Details of the feature point list and the creation method will be described later.
The storage unit 4 also stores programs used by the image matching unit 5, various setting files, parameters, and the like. These are read by the image collation unit 5 as necessary at a predetermined timing, such as when the fingerprint authentication device 1 is activated.

画像照合部5は、指紋入力部3から取得した多値指紋画像Mと記憶部4から取得した登録特徴点リストFに基づいて指紋の照合を行うものであり、中央演算装置(CPU)、数値演算プロセッサ、ROM又はRAMのような半導体メモリなどで構成される。また画像照合部5は、記憶部4から読み込まれたプログラムにしたがって、所定の動作を実行する。さらに画像照合部5は、操作・表示部2、指紋入力部3、記憶部4、及び出力部6と接続されており、それら各部に所定の制御信号を出力して制御を行う。そのため、画像照合部5は、画像修正部10、二値化部11、細線化部12、特徴抽出部13、照合部14、及び各部の制御を行う制御部15を有する。 The image collation unit 5 performs fingerprint collation based on the multi-valued fingerprint image M acquired from the fingerprint input unit 3 and the registered feature point list F r acquired from the storage unit 4, and includes a central processing unit (CPU), It is composed of a numerical processor, a semiconductor memory such as ROM or RAM, and the like. The image collation unit 5 executes a predetermined operation according to the program read from the storage unit 4. Furthermore, the image collation unit 5 is connected to the operation / display unit 2, the fingerprint input unit 3, the storage unit 4, and the output unit 6, and performs control by outputting predetermined control signals to these units. Therefore, the image collation unit 5 includes an image correction unit 10, a binarization unit 11, a thinning unit 12, a feature extraction unit 13, a collation unit 14, and a control unit 15 that controls each unit.

画像照合部5は、操作・表示部2から操作者の識別番号INが入力されると、その識別番号IN(以下入力識別番号という)が記憶部4に登録されているか否か検索する。そして画像照合部5は、一致する識別番号INが登録されていれば、その入力識別番号INと関連付けられた登録特徴点リストFを記憶部4から読み出す。また画像修正部10は、指紋入力部3から取得した多値指紋画像Mに対してノイズ除去処理を行う。二値化部11は、そのノイズ除去処理を行った多値指紋画像M’に基づいて隆線領域と谷線領域に二値化した二値指紋画像Bを生成する。さらに細線化部12は二値指紋画像Bに対して隆線領域の細線化を行い、細線化二値指紋画像Bを生成する。そして特徴抽出部13は、細線化二値指紋画像Bから隆線の分岐点、端点などに基づいて特徴点を抽出し、入力特徴点リストFを作成する。入力特徴点リストFが作成されると、照合部14は、入力特徴点リストFと登録特徴点リストFとに基づいて照合を行う。また照合部14は、両方の特徴点リストを比較して類似度Sを算出する。その類似度Sが所定の閾値Thdよりも大きい場合、照合部14は認証に成功したと判定し、類似度Sが閾値Thd以下であれば認証に失敗したと判定する。最後に画像照合部5は、認証に成功したか否かに関する照合結果を操作・表示部2に表示させ、また照合結果を示す信号を出力部6を介して電気錠制御装置など外部の機器へ出力する。 When the operator identification number IN is input from the operation / display unit 2, the image collation unit 5 searches whether or not the identification number IN (hereinafter referred to as an input identification number) is registered in the storage unit 4. If the matching identification number IN is registered, the image matching unit 5 reads the registered feature point list F r associated with the input identification number IN from the storage unit 4. Further, the image correction unit 10 performs noise removal processing on the multi-value fingerprint image M acquired from the fingerprint input unit 3. The binarization unit 11 generates a binary fingerprint image B binarized into a ridge region and a valley region based on the multi-value fingerprint image M ′ subjected to the noise removal processing. Further thinning unit 12 performs the thinning of the ridge region with respect to the binary fingerprint image B, and generates a thinned binary fingerprint image B T. The feature extraction unit 13, the branch point of the ridge from thinning the binary fingerprint image B T, such as the feature point extracted based on the endpoint, create an input feature point list F i. When the input feature point list F i is created, the matching unit 14 performs matching based on the input feature point list F i and the registered feature point list F r . The collation unit 14 compares both feature point lists and calculates the similarity S i . If the similarity S i is greater than a predetermined threshold Thd v , the collation unit 14 determines that the authentication has succeeded, and determines that the authentication has failed if the similarity S i is equal to or less than the threshold Thd v . Finally, the image collation unit 5 displays a collation result on whether or not the authentication is successful on the operation / display unit 2, and sends a signal indicating the collation result to an external device such as an electric lock control device via the output unit 6. Output.

以下、画像照合部5の各部について詳細に説明する。
制御部15は、記憶部4から読み込まれたプログラム及び操作・表示部2からの入力信号にしたがって、操作・表示部2、指紋入力部3、記憶部4及び出力部6の各部の制御、指紋画像など各種データの受け渡しなどを行う。また、制御部15は、画像照合部5内の画像修正部10、二値化部11、細線化部12、特徴抽出部13及び照合部14による処理を制御する。
Hereinafter, each part of the image collation part 5 is demonstrated in detail.
The control unit 15 controls each part of the operation / display unit 2, the fingerprint input unit 3, the storage unit 4, and the output unit 6 according to the program read from the storage unit 4 and the input signal from the operation / display unit 2. Deliver various data such as images. The control unit 15 also controls processing by the image correction unit 10, the binarization unit 11, the thinning unit 12, the feature extraction unit 13, and the verification unit 14 in the image verification unit 5.

画像修正部10は、多値指紋画像Mに対してノイズ除去処理を行う。そのために、画像修正部10は、多値指紋画像Mについて、隆線が略平行な複数の直線とみなせるような小領域ごとに分けてその周波数成分を解析し、隆線の縞方向(隆線に直交する方向をいう。以下同じ)を特定する。そして画像修正部10はその縞方向に沿って隆線の縞を表す周波数成分及びその周波数成分に近い特定の周波数成分だけを抽出して画像を再構成することにより、隆線の端点や分岐点の情報を維持しつつ、ノイズを除去する。   The image correction unit 10 performs noise removal processing on the multi-value fingerprint image M. For this purpose, the image correction unit 10 analyzes the frequency component of the multi-value fingerprint image M by dividing the multi-value fingerprint image M into small regions that can be regarded as a plurality of straight lines that are substantially parallel to each other. The direction is orthogonal to the same. Then, the image correcting unit 10 extracts only the frequency component representing the ridge stripe along the stripe direction and a specific frequency component close to the frequency component, and reconstructs the image, whereby the ridge end points and branch points are obtained. The noise is removed while maintaining the information.

図2に、画像修正部10の機能ブロック図を示す。
画像修正部10は、画像分割部110、周波数スペクトル解析部120、スペクトル記憶部130、周波数成分選択部140、画質評価部150、周波数成分選択制御部160、選択パラメータ記憶部170、周波数フィルタ部180、画像再構成部190及び指紋画像合成部200を有する。そして画像分割部110は、多値指紋画像Mを複数の小領域に分割する。周波数スペクトル解析部120は、各小領域ごとにフーリエ変換を行って多値指紋画像Mの小領域ごとの周波数スペクトル画像を算出する。スペクトル記憶部130は、算出された各小領域ごとの周波数スペクトル画像を一時的に記憶する。周波数成分選択部140は、各周波数スペクトル画像について、ある程度以上の振幅を有する周波数成分のみを選択し、選択スペクトル画像を生成する。画質評価部150は、選択スペクトル画像に基づいて、隆線の縞方向を特定する。そして画質評価部150は、その縞方向に対する選択された周波数成分の集中度を表す指標に基づいて、周波数成分選択部140における周波数成分の選択が適切か否か評価する。周波数成分選択制御部160は、画質評価部150が周波数成分の選択を不適切と判断した場合、周波数成分選択基準を調整し、周波数成分選択部140において再度選択スペクトル画像を生成させる。また周波数成分選択基準を、再度の調整に利用するために選択パラメータ記憶部170に記憶させる。一方、画質評価部150が周波数成分の選択を適切と判断した場合、周波数フィルタ部180は、各選択スペクトル画像ごとに、隆線の縞方向に基づいて、隆線の端点及び分岐点の周波数特性を考慮して決定した所定の周波数帯域の周波数成分を残し、他を減弱させるようなバンドパスフィルタ処理を行う。画像再構成部190は、周波数フィルタ部180でバンドパスフィルタ処理された各選択スペクトル画像を逆フーリエ変換して各小領域ごとの指紋画像を再構成する。最後に指紋画像合成部200は、画像再構成部190で復元された各小領域ごとの指紋画像を合成してノイズ除去された多値指紋画像M’を得る。
FIG. 2 shows a functional block diagram of the image correction unit 10.
The image correction unit 10 includes an image division unit 110, a frequency spectrum analysis unit 120, a spectrum storage unit 130, a frequency component selection unit 140, an image quality evaluation unit 150, a frequency component selection control unit 160, a selection parameter storage unit 170, and a frequency filter unit 180. The image reconstruction unit 190 and the fingerprint image composition unit 200 are included. Then, the image dividing unit 110 divides the multi-value fingerprint image M into a plurality of small areas. The frequency spectrum analysis unit 120 calculates a frequency spectrum image for each small region of the multi-value fingerprint image M by performing Fourier transform for each small region. The spectrum storage unit 130 temporarily stores the calculated frequency spectrum image for each small region. The frequency component selection unit 140 selects only frequency components having an amplitude of a certain level or more for each frequency spectrum image, and generates a selected spectrum image. The image quality evaluation unit 150 identifies the ridge stripe direction based on the selected spectrum image. Then, the image quality evaluation unit 150 evaluates whether or not the frequency component selection unit 140 is appropriately selected based on an index representing the degree of concentration of the selected frequency component with respect to the stripe direction. When the image quality evaluation unit 150 determines that the selection of the frequency component is inappropriate, the frequency component selection control unit 160 adjusts the frequency component selection criterion and causes the frequency component selection unit 140 to generate the selected spectrum image again. Further, the frequency component selection criterion is stored in the selection parameter storage unit 170 to be used for re-adjustment. On the other hand, when the image quality evaluation unit 150 determines that the selection of the frequency component is appropriate, the frequency filter unit 180 determines the frequency characteristics of the ridge end points and branch points for each selected spectrum image based on the ridge stripe direction. A band-pass filter process is performed so as to leave a frequency component in a predetermined frequency band determined in consideration of the above and attenuate others. The image reconstruction unit 190 reconstructs a fingerprint image for each small region by performing inverse Fourier transform on each selected spectrum image that has been bandpass filtered by the frequency filter unit 180. Finally, the fingerprint image synthesizing unit 200 synthesizes the fingerprint images for each small area restored by the image reconstruction unit 190 to obtain a multi-value fingerprint image M ′ from which noise has been removed.

上記のように、画像修正部10は、各周波数スペクトル画像に対して、周波数成分選択部140である程度以上の振幅を有する周波数成分を選択し、その選択した周波数成分についてさらに周波数フィルタ部180で隆線の縞方向を中心とした所定の周波数帯域に含まれる周波数成分を残すことで、隆線の端点や分岐点の情報を維持しつつ、ノイズを適切に除去することができる。さらに画像修正部10は、指紋画像の隆線が、小領域では略平行な複数の直線が並ぶ縞模様となることから、所定の方向にのみ周波数成分が集中するはずであるという事実に基づいて、一度選択した周波数成分が適切か否か評価し、その評価結果によっては選択の基準を調整して再度周波数成分を選択することにより、適切な周波数成分の選択を行うことができる。   As described above, the image correction unit 10 selects a frequency component having an amplitude of a certain level or more for each frequency spectrum image by the frequency component selection unit 140, and further increases the frequency filter unit 180 for the selected frequency component. By leaving the frequency components included in the predetermined frequency band centered on the stripe direction of the line, it is possible to appropriately remove noise while maintaining information on the end points and branch points of the ridges. Furthermore, the image correction unit 10 is based on the fact that the frequency components should concentrate only in a predetermined direction because the ridge of the fingerprint image is a striped pattern in which a plurality of substantially parallel straight lines are arranged in a small area. It is possible to select an appropriate frequency component by evaluating whether or not the frequency component once selected is appropriate and adjusting the selection criteria and selecting the frequency component again depending on the evaluation result.

以下、画像修正部10の各部について詳細に説明する。
画像分割部110は、指紋入力部3から取得した多値指紋画像Mを横p個、縦q個の複数の小領域L(i=1,2,・・・,m)(ただし、m=p×q)に分割する。各小領域Lは、例えばそれぞれ矩形領域とすることができ、多値指紋画像Mを碁盤目状に分割する。また各小領域Lは、以後の処理で隆線の縞方向の周波数成分の特定を容易にするために、隆線が略平行な複数の直線状として観察されるような大きさとする。
Hereinafter, each part of the image correction unit 10 will be described in detail.
The image dividing unit 110 has a plurality of small regions L i (i = 1, 2,..., M) (where m = 1, 2, and p) of the multi-value fingerprint image M acquired from the fingerprint input unit 3. = P × q). Each small area L i, for example each be a rectangular region, dividing the multivalued fingerprint image M in a grid pattern. Each small region Li is sized so that the ridges can be observed as a plurality of substantially parallel straight lines in order to facilitate the identification of frequency components in the ridge stripe direction in the subsequent processing.

図3に、多値指紋画像M上に小領域Lを設定した様子を示す。図3において示される画像300は、多値指紋画像Mの一例である。また図3において、相対的に黒く見える部分が隆線である。そして多値指紋画像M上に示された矩形領域310、320、330が各小領域Li−1、L、Li+1に相当する。なお図3では、説明の明瞭化のために、多値指紋画像Mの一部の領域にのみ小領域を図示しているが、多値指紋画像Mは、その任意の部分が何れかの小領域に含まれるように全体が分割される。本実施形態では、解像度が500dpiの多値指紋画像Mに対して、各小領域Lを32画素×32画素とした。また図3に示すように、各小領域Lは、隣接する小領域と重なる領域を有するように設定してもよい。そのような重なり領域を設けることにより、後述する指紋画像合成部200において各小領域の画像を合成する際に、隣接する小領域との境界で不連続な部分を生じるような不自然な合成を避けることができる。例えば、そのような重なり領域を5画素幅とすることができる。
なお、以下の説明において、各小領域内Lの画像をf(x,y)と表記する。ここでxは水平方向の座標値であり、yは垂直方向の座標値である。またf(x,y)の出力値は、座標(x,y)の画素の画素値を表す。
FIG. 3 shows a state in which a small area Li is set on the multi-value fingerprint image M. An image 300 shown in FIG. 3 is an example of the multi-value fingerprint image M. In FIG. 3, the portion that appears relatively black is a ridge. The rectangular areas 310, 320, and 330 shown on the multi-value fingerprint image M correspond to the small areas L i−1 , L i , and L i + 1 . In FIG. 3, for the sake of clarity of explanation, a small region is illustrated only in a partial region of the multi-value fingerprint image M. However, the multi-value fingerprint image M is an arbitrary portion of any small region. The whole is divided so as to be included in the region. In the present embodiment, the resolution with respect to the multi-level fingerprint image M of 500 dpi, and the respective small areas L i and 32 × 32 pixels. Also as shown in FIG. 3, each small area L i may be set to have a region overlapping with adjacent small regions. By providing such an overlapping area, when the image of each small area is combined in the fingerprint image combining unit 200 described later, an unnatural combination that generates a discontinuous portion at the boundary with the adjacent small area is performed. Can be avoided. For example, such an overlapping region can be 5 pixels wide.
In the following description, an image of L i in each small area is denoted as f i (x, y). Here, x is a coordinate value in the horizontal direction, and y is a coordinate value in the vertical direction. The output value of f i (x, y) represents the pixel value of the pixel at coordinates (x, y).

周波数スペクトル解析部120は、画像分割部110から受け取った多値指紋画像Mの各小領域Lの画像f(x,y)に対して周波数変換を行い、周波数スペクトル画像F(u,v)(i=1,2,・・・,m)を算出する。ここでuは、水平方向の周波数を表し、vは垂直方向の周波数を表す。そしてF(u,v)の出力値は、周波数(u,v)の周波数成分の振幅を表す。周波数スペクトル解析部120は、周波数スペクトル画像F(u,v)を算出するために、例えば以下の式(1)に示すN×N点の二次元離散フーリエ変換を使用することができる。

Figure 2007202912
なお、周波数スペクトル解析部120では、式(1)にしたがった周波数スペクトル画像F(u,v)の算出を、高速フーリエ変換(FFT)アルゴリズムを用いたソフトウェアで実行することができる。また、周波数スペクトル解析部120は、周波数スペクトル画像F(u,v)を算出するために、フーリエ変換以外の周波数変換関数を使用することができる。周波数スペクトル解析部120は、そのような周波数変換関数として、例えば離散コサイン変換、離散ウェーブレット変換、アダマール変換などを使用することができる。
本実施形態では、各小領域Lの周波数スペクトル画像F(u,v)を32×32画素の画像として算出した。また算出された各周波数スペクトル画像F(u,v)は、スペクトル記憶部130及び周波数成分選択部140に送られる。 The frequency spectrum analysis unit 120 performs frequency conversion on the image f i (x, y) of each small region L i of the multi-value fingerprint image M received from the image division unit 110, and the frequency spectrum image F i (u, v) Calculate (i = 1, 2,..., m). Here, u represents a frequency in the horizontal direction, and v represents a frequency in the vertical direction. The output value of F i (u, v) represents the amplitude of the frequency component of the frequency (u, v). In order to calculate the frequency spectrum image F i (u, v), the frequency spectrum analysis unit 120 can use, for example, an N × N point two-dimensional discrete Fourier transform represented by the following formula (1).
Figure 2007202912
In the frequency spectrum analysis unit 120, the calculation of the frequency spectrum image F i (u, v) according to the equation (1) can be executed by software using a fast Fourier transform (FFT) algorithm. In addition, the frequency spectrum analysis unit 120 can use a frequency conversion function other than the Fourier transform in order to calculate the frequency spectrum image F i (u, v). The frequency spectrum analysis unit 120 can use, for example, a discrete cosine transform, a discrete wavelet transform, a Hadamard transform, or the like as such a frequency transform function.
In the present embodiment, the frequency spectrum image F i (u, v) of each small region L i is calculated as an image of 32 × 32 pixels. Each calculated frequency spectrum image F i (u, v) is sent to the spectrum storage unit 130 and the frequency component selection unit 140.

スペクトル記憶部130は、画像照合部5のRAM内に確保されたメモリ領域であり、周波数スペクトル解析部120で算出した各周波数スペクトル画像F(u,v)を記憶する。そして、必要に応じてそれら周波数スペクトル画像F(u,v)を周波数成分選択部140へ出力する。また後述するように、各周波数スペクトル画像F(u,v)から所定の振幅以上の周波数成分を選択した選択スペクトル画像Fsi(u,v)も記憶する。
なお、スペクトル記憶部130の代わりに記憶部4を使用し、スペクトル記憶部130を省略することもできる。
The spectrum storage unit 130 is a memory area secured in the RAM of the image matching unit 5 and stores each frequency spectrum image F i (u, v) calculated by the frequency spectrum analysis unit 120. Then, the frequency spectrum images F i (u, v) are output to the frequency component selection unit 140 as necessary. Further, as will be described later, a selected spectrum image F si (u, v) in which a frequency component having a predetermined amplitude or more is selected from each frequency spectrum image F i (u, v) is also stored.
Note that the storage unit 4 may be used instead of the spectrum storage unit 130 and the spectrum storage unit 130 may be omitted.

周波数成分選択部140は、スペクトル記憶部130から取得した各周波数スペクトル画像F(u,v)ごとに、振幅の絶対値が所定以上の周波数成分のみを選択して残した選択スペクトル画像Fsi(u,v)を生成する。周波数成分選択部140は、選択基準を算出するために、各周波数スペクトル画像F(u,v)ごとに、スペクトルの最大振幅成分Fimax(u,v)を求める。そして、その最大振幅成分Fimax(u,v)に所定の係数α(i=1,2,・・・,m)を乗じた値をその周波数スペクトル画像F(u,v)における選択閾値Thdαiとする。なお周波数成分選択部140は、係数αを周波数成分選択制御部160から取得する。そして周波数成分選択部140は、各周波数スペクトル画像F(u,v)から振幅の絶対値が選択閾値Thdαi以上の周波数成分をそのまま残し、選択閾値Thdαi未満の周波数成分を、実数成分、虚数成分とも0とする。 For each frequency spectrum image F i (u, v) acquired from the spectrum storage unit 130, the frequency component selection unit 140 selects only the frequency component whose amplitude has an absolute value greater than or equal to a predetermined value, and selects the selected spectrum image F si. (U, v) is generated. The frequency component selection unit 140 calculates a maximum amplitude component F imax (u, v) of the spectrum for each frequency spectrum image F i (u, v) in order to calculate a selection criterion. A value obtained by multiplying the maximum amplitude component F imax (u, v) by a predetermined coefficient α i (i = 1, 2,..., M) is selected in the frequency spectrum image F i (u, v). The threshold value is Thd αi . The frequency component selection unit 140 acquires the coefficient α i from the frequency component selection control unit 160. Then, the frequency component selection unit 140 leaves the frequency component having the absolute value of the amplitude equal to or larger than the selection threshold Thd αi from each frequency spectrum image F i (u, v) as it is, and converts the frequency component less than the selection threshold Thd αi to a real component, Both imaginary components are 0.

選択閾値Thdαiが適切であれば、振幅の絶対値が所定値以上の周波数成分のみを選択することにより、多値指紋画像Mに印加されたノイズに起因する周波数成分を除去し、各小領域Lにおいて支配的な隆線の構造(特に縞方向へのピッチ)に基づく周波数成分を選択することができる。そこで周波数成分選択部140は、後述する画質評価部150での画質評価結果が所定の基準を満たすまで、周波数成分選択制御部160で調整された係数αを用いて周波数成分の選択を繰り返す。 If the selection threshold Thd αi is appropriate, by selecting only frequency components whose absolute value of amplitude is equal to or greater than a predetermined value, frequency components caused by noise applied to the multi-value fingerprint image M are removed, and each small region is selected. in L i predominant ridge structure can be (in particular the pitch of the fringe direction) selecting a frequency component based on. Therefore, the frequency component selection unit 140 repeats the selection of the frequency component using the coefficient α i adjusted by the frequency component selection control unit 160 until the image quality evaluation result in the image quality evaluation unit 150 described later satisfies a predetermined standard.

なお、選択閾値Thdαiの算出において、各周波数スペクトル画像F(u,v)の最大振幅成分Fimax(u,v)を直流成分(u=0,v=0)以外の最大振幅成分としてもよい。直流成分を除いて選択閾値Thdαiを決定することにより、各周波数スペクトル画像F(u,v)の周波数特性をより反映した選択閾値Thdαiを決定することができる。
生成された各選択スペクトル画像Fsi(u,v)は、スペクトル記憶部130及び画質評価部150へ送られる。
In the calculation of the selection threshold Thd αi , the maximum amplitude component F imax (u, v) of each frequency spectrum image F i (u, v) is used as the maximum amplitude component other than the DC component (u = 0, v = 0). Also good. By determining the selection threshold Thd αi excluding the DC component, it is possible to determine the selection threshold Thd αi that more reflects the frequency characteristics of each frequency spectrum image F i (u, v).
Each generated selected spectrum image F si (u, v) is sent to the spectrum storage unit 130 and the image quality evaluation unit 150.

画質評価部150は、各選択スペクトル画像Fsi(u,v)について、周波数成分選択部140で選択された周波数成分が隆線の構造に基づく周波数成分を適切に表せているか否かを評価する。多値指紋画像Mの各小領域Lでは、上記のように、隆線が略平行な複数の直線となっているため、隆線と直交する縞方向に沿って周波数成分が多数存在すると考えられる。他方、隆線と平行な方向に対しては、隆線の構造に起因する強い周波数成分は少ないと考えられる。したがって、ある特定の方向に沿って多数の周波数成分が集中していれば、周波数成分の選択は適切であると判断される。そこで画質評価部150は、周波数成分が最も集中する方向線dlを方向線算出手段151で求め、その方向線dlの近傍にどれだけ周波数成分が集中しているかの指標である複雑度Cを集中度算出手段152で求める。そして画質評価部150は、評価手段153で複雑度Cを評価して周波数成分の選択が適切か否かを評価する。また画質評価部150は、各選択スペクトル画像Fsi(u,v)ごとに上記の方向線算出、複雑度算出及び評価を行い、各選択スペクトル画像Fsi(u,v)ごとに周波数成分の選択が適切か否かを評価する。 The image quality evaluation unit 150 evaluates, for each selected spectrum image F si (u, v), whether the frequency component selected by the frequency component selection unit 140 appropriately represents a frequency component based on the ridge structure. . In each small area L i of the multi-level fingerprint image M, as described above, since the ridges are substantially parallel to a plurality of straight lines, the frequency components are present many along a stripe direction perpendicular to the ridge considered It is done. On the other hand, it is thought that there are few strong frequency components resulting from the structure of a ridge with respect to the direction parallel to a ridge. Therefore, if a large number of frequency components are concentrated along a specific direction, it is determined that the selection of the frequency components is appropriate. Therefore, the image quality evaluation unit 150 obtains the direction line dl where the frequency component is most concentrated by the direction line calculation means 151, and concentrates the complexity C which is an index of how much the frequency component is concentrated in the vicinity of the direction line dl. The degree is calculated by the degree calculation means 152. Then, the image quality evaluation unit 150 evaluates the complexity C by the evaluation unit 153 and evaluates whether or not the selection of the frequency component is appropriate. The image quality evaluation unit 150, the selected spectral image F si (u, v) above direction line calculated for each performs complexity calculation and evaluation, each selected spectral image F si (u, v) of the frequency components for each Evaluate whether the selection is appropriate.

方向線算出手段151は、周波数成分選択部140で選択された周波数成分の分布から、隆線の縞方向を推定する直線(以下、方向線dlという)を算出する。ある小領域Lにおいて、隆線が完全な直線であり、ノイズも全く含まれない場合、対応する選択スペクトル画像Fsk(u,v)に存在する周波数成分は、隆線の縞方向に沿ってスペクトル平面の原点を通る直線状に存在することになる。そこで方向線算出手段151は、方向線dlをスペクトル平面の原点を通る直線として算出する。 The direction line calculation means 151 calculates a straight line (hereinafter referred to as a direction line dl) for estimating the ridge stripe direction from the distribution of frequency components selected by the frequency component selection unit 140. In a certain small region L k , when the ridge is a complete straight line and does not include any noise, the frequency component present in the corresponding selected spectrum image F sk (u, v) is along the stripe direction of the ridge. Therefore, it exists in a straight line passing through the origin of the spectrum plane. Therefore, the direction line calculation means 151 calculates the direction line dl as a straight line passing through the origin of the spectrum plane.

図4は、周波数成分の分布に対する方向線dlの算出の様子を示す。図4において、400は着目する選択スペクトル画像Fsk(u,v)であり、選択スペクトル画像Fsk(u,v)400上の各点410は、周波数成分選択部140で選択された周波数成分である。また、直線420は、算出する方向線dlである。図4に示すように、方向線算出手段151は、各周波数成分から方向線dlまでの距離dの和が最小となるように、最小二乗法を用いて方向線dlを算出する。この場合、着目する選択スペクトル画像Fsk(u,v)の方向線dlの傾きaは、以下の式(2)で算出される。

Figure 2007202912
ここでnは、周波数成分選択部140で選択された周波数成分の個数(すなわち、選択スペクトル画像Fsk(u,v)で画素値が0でない画素の数)であり、u、vはそれぞれある周波数成分の水平方向座標値及び垂直方向座標値を表す。あるいは、方向線算出手段151は、各周波数成分の振幅の大きさを考慮して、以下の式(3)で方向線dlの傾きaを算出することもできる。
Figure 2007202912
ただしFsk(0,0)は、周波数成分のうちの直流成分を表し、Fsk(u,v)は座標(u,v)の周波数成分の振幅を表す。
得られた方向線dl(傾きa)は、集中度算出手段152に送られる。 FIG. 4 shows how the direction line dl is calculated for the frequency component distribution. In FIG. 4, 400 is a selected spectrum image F sk (u, v) of interest , and each point 410 on the selected spectrum image F sk (u, v) 400 is a frequency component selected by the frequency component selection unit 140. It is. A straight line 420 is a direction line dl to be calculated. As shown in FIG. 4, the direction line calculation means 151, such that the sum of the distance d j from the frequency components up direction line dl is minimum, and calculates the direction line dl using the least squares method. In this case, the inclination a of the direction line dl of the selected spectrum image F sk (u, v) of interest is calculated by the following equation (2).
Figure 2007202912
Here, n is the number of frequency components selected by the frequency component selection unit 140 (that is, the number of pixels whose pixel values are not 0 in the selected spectrum image F sk (u, v)), and u j and v j are Each represents a horizontal coordinate value and a vertical coordinate value of a certain frequency component. Alternatively, the direction line calculation unit 151 can calculate the inclination a of the direction line dl by the following equation (3) in consideration of the amplitude of each frequency component.
Figure 2007202912
Here, F sk (0,0) represents a direct current component of the frequency components, and F sk (u j , v j ) represents the amplitude of the frequency component at coordinates (u j , v j ).
The obtained direction line dl (inclination a) is sent to the concentration degree calculation means 152.

集中度算出手段152は、方向線算出手段151で求められた方向線dlへの周波数成分の集中度合いを示す指標(複雑度C)を求める。求めた指標は、後述する評価手段153において画質の評価値として使用される。   The degree-of-concentration calculating unit 152 obtains an index (complexity C) indicating the degree of concentration of the frequency component in the direction line dl obtained by the direction line calculating unit 151. The obtained index is used as an image quality evaluation value in an evaluation unit 153 described later.

集中度算出手段152は、方向線dlの法線nl(すなわち、隆線方向の周波数変化を表す線)から、ある一定の距離βを境界とした二つの領域R、Rごとに、複雑度Cの算出に用いる指標D、Dなどを算出する。ここで領域Rは、法線nlから距離β以上離れた領域であり、方向線dlとは無関係に広がる周波数成分がどの程度存在するかを示す指標Dなどの算出に使用される。一方領域Rは、方向線dlと直交する方向の周期的な成分がどの程度存在するかを示す指標Dなどの算出に使用される。 The degree-of-concentration calculation means 152 is complex for each of two regions R 1 and R 2 bounded by a certain distance β from the normal line nl of the direction line dl (that is, a line representing a frequency change in the ridge direction). Indexes D 1 and D 2 used for calculating the degree C are calculated. Here, the region R 1 is a region separated from the normal line nl by a distance β or more, and is used for calculating an index D 1 or the like that indicates how much frequency components spread regardless of the direction line dl. On the other hand, the region R 2 is used for calculating an index D 2 or the like that indicates how much a periodic component exists in a direction orthogonal to the direction line dl.

図5(a)は、設定される領域R、Rの概略を示す。図5(a)において、500は着目する選択スペクトル画像Fsk(u,v)であり、選択スペクトル画像Fsk(u,v)500上の各点510は、周波数成分選択部140で選択された周波数成分である。また、直線520は方向線dlであり、直線530は法線nlである。ここでβは、約1.2lp/mm〜1.9lp/mmに相当する程度の値とすることが好ましい。この場合、本実施形態では、多値指紋画像Mの解像度が500dpiであり、選択スペクトル画像Fsk(u,v)を32×32画素で構成しているため、選択スペクトル画像Fsk(u,v)に対するβの値は2.0〜3.0程度となる。 FIG. 5A shows an outline of the regions R 1 and R 2 to be set. In FIG. 5A, reference numeral 500 denotes a selected spectrum image F sk (u, v) of interest. Each point 510 on the selected spectrum image F sk (u, v) 500 is selected by the frequency component selection unit 140. Frequency component. The straight line 520 is a direction line dl, and the straight line 530 is a normal line nl. Here, β is preferably set to a value corresponding to about 1.2 lp / mm to 1.9 lp / mm. In this case, in the present embodiment, the resolution of the multi-value fingerprint image M is 500 dpi, and the selected spectrum image F sk (u, v) is composed of 32 × 32 pixels. Therefore, the selected spectrum image F sk (u, The value of β for v) is about 2.0 to 3.0.

領域Rでは、周波数成分選択部140で選択された各周波数成分510から方向線dlまでの距離dの距離の和Dを指標として算出する。すなわちDは、以下の式(4)で表される。

Figure 2007202912
ただしNは、領域Rに存在する選択された周波数成分510の数である。Nが大きいほど、選択された周波数成分510が表す構造は単純な周期構造から乖離する。またDが大きいほど、着目する選択スペクトル画像Fsk(u,v)に対応する小領域Lの画像中に方向線dlと大きく異なる方向に沿った画素値の変動が含まれることを示すため、、方向線dlは隆線の縞方向を表していない可能性が高くなる。 In the region R 1, it is calculated as an indicator the sum D 1 of the distance of the distance d j from each frequency component 510 selected by the frequency component selector 140 to direction line dl. That D 1 is expressed by the following equation (4).
Figure 2007202912
Where N 1 is the number of selected frequency components 510 present in region R 1 . As N 1 increases, the structure represented by the selected frequency component 510 deviates from a simple periodic structure. Further, the larger D 1 is, the more the variation of the pixel value along the direction significantly different from the direction line dl is included in the image of the small region L k corresponding to the selected spectrum image F sk (u, v) of interest. Therefore, there is a high possibility that the direction line dl does not represent the stripe direction of the ridge.

一方、領域Rにおいても、周波数成分選択部140で選択された各周波数成分510から方向線までの距離dの距離の和Dを指標として算出する。すなわちDは、以下の式(5)で表される。

Figure 2007202912
ただしNは、領域Rに存在する選択された周波数成分510の数である。D、Nが大きいほど、着目する選択スペクトル画像Fsk(u,v)に対応する小領域Lの画像中に、方向線dlの方向とは略直交する方向に高周波の画素値の変動が含まれることになる。そのため、D、Nが大きくなるほど、方向線dlは隆線の縞方向を表していない可能性が高くなる。 On the other hand, even in a region R 2, it is calculated as an indicator of the sum D 2 of the distance of the distance d i from each frequency component 510 selected by the frequency component selector 140 to the direction line. That D 2 is represented by the following formula (5).
Figure 2007202912
Where N 2 is the number of selected frequency components 510 present in region R 2 . The larger the D 2 and N 2 are, the higher the pixel value of the high-frequency pixel value in the direction substantially perpendicular to the direction of the direction line dl in the image of the small region L k corresponding to the selected spectrum image F sk (u, v) of interest . Variations will be included. Therefore, as D 2 and N 2 increase, there is a higher possibility that the direction line dl does not represent the stripe direction of the ridge.

なお、集中度算出手段152は、D、D、N、Nを求めるために、領域R、Rを図5(b)に示すように区分してもよい。なお、図5(b)において付された番号は、図5(a)と同じものを示す。図5(b)において、領域RとRの境界は、周波数平面の原点を通り、方向線dlの法線nlとなす角φの2本の直線である。そして領域Rは、法線nlを中心として、それら2本の直線で挟まれた領域であり、一方領域Rは、領域R以外の領域である。この場合、角φは約15°〜30°に設定することができる。 The degree-of-concentration calculation means 152 may classify the regions R 1 and R 2 as shown in FIG. 5B in order to obtain D 1 , D 2 , N 1 , and N 2 . In addition, the number attached | subjected in FIG.5 (b) shows the same thing as Fig.5 (a). In FIG. 5B, the boundary between the regions R 1 and R 2 is two straight lines having an angle φ that passes through the origin of the frequency plane and forms a normal line nl of the direction line dl. The region R 2 is a region sandwiched between these two straight lines with the normal line nl as the center, while the region R 1 is a region other than the region R 2 . In this case, the angle φ can be set to about 15 ° to 30 °.

集中度算出手段152は、D、D、N、Nを求めると、それらを用いて複雑度Cを算出する。複雑度Cは以下の式(6)で算出される。

Figure 2007202912
ここでκ、λは定数であり、多値指紋画像Mの解像度、選択スペクトル画像画像Fsk(u,v)の大きさに応じて最適化される。また、周波数成分選択部140の係数αの値が大きくなるにつれて、κ、λも大きくなるように変更してもよい。係数αが大きくなるほど選択される周波数成分の数が減少するため、単なる周波数成分数の減少だけで複雑度Cが低下することを防止するためである。本実施形態では、多値指紋画像Mの解像度が500dpiであり、選択スペクトル画像Fsk(u,v)が32×32画素であるのに対して、係数αが0.1〜0.2程度の値であれば、κ=0.10〜0.50、λ=0.5〜1.5程度に設定することが好ましい。 When the degree-of-concentration calculating unit 152 obtains D 1 , D 2 , N 1 , and N 2 , the degree of complexity C is calculated using them. The complexity C is calculated by the following equation (6).
Figure 2007202912
Here, κ and λ are constants, and are optimized according to the resolution of the multi-value fingerprint image M and the size of the selected spectrum image image F sk (u, v). Further, κ and λ may be changed so as to increase as the value of the coefficient α k of the frequency component selection unit 140 increases. This is because the number of frequency components to be selected decreases as the coefficient α k increases, so that the complexity C is prevented from being reduced only by the decrease in the number of frequency components. In the present embodiment, the resolution of the multi-value fingerprint image M is 500 dpi, the selected spectrum image F sk (u, v) is 32 × 32 pixels, and the coefficient α k is 0.1 to 0.2. If it is a value of about, it is preferable to set κ = 0.10 to 0.50 and λ = about 0.5 to 1.5.

複雑度Cは、選択された周波数成分がどれだけ方向線dlに集中しているかを表す指標である。そして複雑度Cは、その値が低い程、選択された周波数成分が方向線dlの近傍に集中していることを表す。
なお複雑度Cを求める式は上記に限られない。代わりに、以下の式を用いてもよい。

Figure 2007202912
式(7)におけるκ、λは、式(6)と同様の値である。また集中度算出手段152は、複雑度Cの代わりに、別の値を方向線dlへの集中度を表す指標とすることもできる。簡単な例としては、所定の値Qmaxから複雑度Cを引いた値Q(=Qmax−C)を指標することもできる。このQ値では、選択された周波数成分が方向線dlの近傍に集中するほど大きな値を示す。さらに、集中度算出手段152は、上記のように領域を二つに分けて指標を求めることなく、単純に各周波数成分と方向線dlの距離の平均二乗誤差を求めて方向線dlへの集中度を表す指標として用いてもよい。またさらに、集中度算出手段152は、方向線dlから所定の距離以内にある周波数成分の個数と、方向線dlからその所定の距離より離れたところにある周波数成分の個数との比を、方向線dlへの集中度を表す指標として用いてもよい。この場合、所定の距離を、例えば上記のβに設定することができる。
集中度算出手段152は、算出した指標(複雑度C)を評価手段153へ送る。 The complexity C is an index representing how much the selected frequency component is concentrated on the direction line dl. The complexity C indicates that the lower the value, the more the selected frequency component is concentrated in the vicinity of the direction line dl.
The formula for obtaining the complexity C is not limited to the above. Instead, the following formula may be used.
Figure 2007202912
In Equation (7), κ and λ are the same values as in Equation (6). Further, the concentration degree calculating means 152 can use another value as an index representing the degree of concentration on the direction line dl instead of the complexity C. As a simple example, a value Q (= Q max −C) obtained by subtracting the complexity C from a predetermined value Q max may be used as an index. This Q value shows a larger value as the selected frequency components are concentrated in the vicinity of the direction line dl. Further, the concentration degree calculation means 152 simply calculates the mean square error of the distance between each frequency component and the direction line dl without dividing the region into two areas as described above, and concentrates on the direction line dl. You may use as a parameter | index showing a degree. Furthermore, the concentration degree calculation means 152 calculates the ratio of the number of frequency components within a predetermined distance from the direction line dl and the number of frequency components located away from the direction line dl from the predetermined distance. It may be used as an index representing the degree of concentration on the line dl. In this case, the predetermined distance can be set to the above β, for example.
The concentration degree calculation unit 152 sends the calculated index (complexity C) to the evaluation unit 153.

評価手段153は、選択スペクトル画像Fsk(u,v)に基づいて再構成される小領域Lの画像f’(x,y)が、特徴点の抽出を行うために十分な画質を有するか否かを評価する。その評価のために、評価手段153は、集中度算出手段152から取得した複雑度Cを所定の閾値Thdconfと比較する。そして評価手段153は、複雑度Cが閾値Thdconf未満の場合、選択された周波数成分が方向線dlの近傍に一定の基準を満たす程度に集中していると考えられるため、その選択スペクトル画像Fsk(u,v)については、十分な画質の画像を再構成できると判断する。そして、その選択スペクトル画像Fsk(u,v)をスペクトル記憶部130に記憶させる。一方、複雑度Cが閾値Thdconf以上の場合、評価手段153は、その選択スペクトル画像Fsk(u,v)について、十分な画質の画像を再構成できないと判断する。この場合、評価手段153は、周波数成分選択制御部160へ判断結果を報知し、係数αの再調整を行わせる。
なお画質評価部150は、上記の画質評価を、全ての選択スペクトル画像Fsi(u,v)(i=1,2,・・・,m)に対して行う。
The evaluation unit 153 has sufficient image quality for the image f k ′ (x, y) of the small region L k reconstructed based on the selected spectrum image F sk (u, v) to extract feature points. Evaluate whether or not it has. For the evaluation, the evaluation unit 153 compares the complexity C acquired from the concentration degree calculation unit 152 with a predetermined threshold Thd conf . When the complexity C is less than the threshold Thd conf , the evaluation unit 153 is considered to concentrate the selected frequency components in the vicinity of the direction line dl so as to satisfy a certain standard. For sk (u, v), it is determined that an image with sufficient image quality can be reconstructed. Then, the selected spectrum image F sk (u, v) is stored in the spectrum storage unit 130. On the other hand, when the complexity C is equal to or greater than the threshold Thd conf , the evaluation unit 153 determines that an image with sufficient image quality cannot be reconstructed for the selected spectrum image F sk (u, v). In this case, the evaluation unit 153 notifies the frequency component selection control unit 160 of the determination result, and causes the coefficient α k to be readjusted.
The image quality evaluation unit 150 performs the above image quality evaluation on all the selected spectrum images F si (u, v) (i = 1, 2,..., M).

周波数成分選択制御部160は、周波数成分選択部140で周波数成分の選択基準となる係数αを設定する。また周波数成分選択制御部160は、画質評価部150が選択された周波数成分に基づいては、十分な画質の画像を再構成しないと判断した(すなわち、それら周波数成分は不適切と判断した)場合、係数αの値を適宜調整する。また周波数成分選択制御部160は、係数αの調整を、各周波数スペクトル画像F(u,v)ごとに行う。以下では、説明の簡単化のために着目する周波数スペクトル画像F(u,v)を例に周波数成分選択制御部160の動作を説明する。 In the frequency component selection control unit 160, the frequency component selection unit 140 sets a coefficient α i that is a selection criterion for the frequency component. When the frequency component selection control unit 160 determines that the image quality evaluation unit 150 does not reconstruct an image with sufficient image quality based on the selected frequency component (that is, determines that these frequency components are inappropriate). The value of the coefficient α i is appropriately adjusted. In addition, the frequency component selection control unit 160 adjusts the coefficient α i for each frequency spectrum image F i (u, v). In the following, the operation of the frequency component selection control unit 160 will be described taking the frequency spectrum image F k (u, v) of interest as an example for the sake of simplification.

周波数成分選択制御部160は、最初の周波数成分の選択では、多くの周波数成分が選択されるように係数αを低い値に設定する。また係数αは、選択パラメータ記憶部170に記憶しておく。そして、選択された周波数成分が画質評価部150において不適切と判断される度に、選択される周波数成分の数を徐々に減少させるように、選択パラメータ記憶部170から係数αを取得し、係数αを所定の比率だけ大きな値に変更する。そして変更された係数αを選択パラメータ記憶部170に送り、記憶されている係数αの値を更新する。一方、周波数成分選択制御部160は、係数αを周波数成分選択部140に送り、上記のように係数αに基づいて定められる閾値Thdαk以上の振幅の絶対値を有する周波数成分の選択を行わせる。周波数成分選択制御部160は、画質評価部150が選択された周波数成分は適切と判断するか、所定の繰り返し回数に到達するまで係数αの調整を繰り返す。 In the selection of the first frequency component, the frequency component selection control unit 160 sets the coefficient α k to a low value so that many frequency components are selected. The coefficient α k is stored in the selection parameter storage unit 170. Then, every time the selected frequency component is determined to be inappropriate by the image quality evaluation unit 150, the coefficient α k is acquired from the selection parameter storage unit 170 so as to gradually decrease the number of selected frequency components, The coefficient α k is changed to a large value by a predetermined ratio. Then, the changed coefficient α k is sent to the selection parameter storage unit 170, and the stored value of the coefficient α k is updated. On the other hand, the frequency component selection control unit 160 sends the coefficient α k to the frequency component selection unit 140, and selects a frequency component having an absolute value greater than or equal to the threshold Thd αk determined based on the coefficient α k as described above. Let it be done. The frequency component selection control unit 160 repeats the adjustment of the coefficient α k until the image quality evaluation unit 150 determines that the selected frequency component is appropriate or reaches a predetermined number of repetitions.

本実施形態では、αの初期値を0.1とした。そして、周波数成分選択制御部160は、1回調整する度に、係数αを1.2倍させることとした。しかし係数αの初期値は0.1に限られず、0.1よりも小さい値若しくは大きい値を初期値としてもよい。また係数αを増加させる比率も、1.2に限られず、例えば1.1〜1.3程度の値を用いることができる。また周波数成分選択制御部160は、調整の度に、係数αに一定の増分、例えば0.05などの値を加えるようにしたり、繰り返し回数に応じて予め定めた値を有するようにしてもよい。さらに周波数成分選択制御部160は、係数αが所定の上限値、例えば0.3に到達した時点で係数αの調整を終了するようにしてもよい。 In the present embodiment, the initial value of α k is set to 0.1. The frequency component selection control unit 160 increases the coefficient α k by 1.2 each time it is adjusted once. However, the initial value of the coefficient α k is not limited to 0.1, and a value smaller or larger than 0.1 may be set as the initial value. Further, the ratio for increasing the coefficient α k is not limited to 1.2, and for example, a value of about 1.1 to 1.3 can be used. In addition, the frequency component selection control unit 160 may add a constant increment, for example, a value such as 0.05 to the coefficient α k each time adjustment is performed, or may have a predetermined value according to the number of repetitions. Good. Further the frequency component selection control unit 160, the coefficient alpha k is a predetermined upper limit value, may be terminated to adjust the coefficient alpha k when it reaches the example 0.3.

さらに、上記では、αを増加させる方向にのみ変化させたが、所定の場合には、αを減少させる方向に変化させるように構成してもよい。例えば、上記の画質評価部150の評価手段153において、複雑度Cに対する閾値Thdconfよりも小さい値を有する第2の閾値Thdconf2を設定しておく。そして集中度算出手段152において算出された複雑度Cが、第2の閾値Thdconf2以下の場合には、αを上記と逆に0.8倍して減少させる。このように構成することで、選択される周波数成分の数を過度に制限して、隆線の構造を表す情報を過剰に削除してしまう可能性を低下させることができる。 Furthermore, in the above description, α k is changed only in the increasing direction. However, in a predetermined case, α k may be changed in the decreasing direction. For example, the evaluation unit 153 of the image quality evaluation unit 150 sets the second threshold Thd conf2 having a value smaller than the threshold Thd conf for the complexity C. When the complexity C calculated by the concentration calculation unit 152 is equal to or less than the second threshold Thd conf2 , α k is decreased by 0.8, conversely to the above. By configuring in this way, it is possible to excessively limit the number of frequency components to be selected, and to reduce the possibility of excessively deleting information representing the ridge structure.

選択パラメータ記憶部170は、画像照合部5のRAM内に確保されたメモリ領域であり、各周波数スペクトル画像F(u,v)についての係数αを記憶する。そして周波数成分選択制御部160からの取得要求に応じて係数αを出力し、周波数成分選択制御部160からの更新要求に応じて係数αの値を更新する。
なお、選択パラメータ記憶部170の代わりに記憶部4を使用し、選択パラメータ記憶部170を省略することもできる。
The selection parameter storage unit 170 is a memory area secured in the RAM of the image matching unit 5, and stores the coefficient α i for each frequency spectrum image F i (u, v). The coefficient α i is output in response to the acquisition request from the frequency component selection control unit 160, and the value of the coefficient α i is updated in response to the update request from the frequency component selection control unit 160.
Note that the storage unit 4 may be used instead of the selection parameter storage unit 170, and the selection parameter storage unit 170 may be omitted.

周波数フィルタ部180は、各選択スペクトル画像Fsi(u,v)について周波数成分選択部140で選択された周波数成分に対し、さらに特定の周波数帯域に含まれる周波数成分を残すようにバンドパスフィルタ処理を行う。このバンドパスフィルタ処理を行うことにより、隆線の分岐点及び端点の情報を消去することなく、ノイズ成分を除去することができる。 The frequency filter unit 180 performs band-pass filter processing so as to leave a frequency component included in a specific frequency band for the frequency component selected by the frequency component selection unit 140 for each selected spectrum image F si (u, v). I do. By performing this band-pass filter processing, it is possible to remove noise components without erasing information on ridge branch points and end points.

ここで、隆線の分岐点及び端点についてどのような周波数成分が生じるかを説明する。図6に、隆線の分岐点及び端点を含む小領域の画像の概略図を示す。図6に示すように、隆線が数本含まれる程度の小領域600内では、一般に各隆線610はほぼ同じ太さを有する。そしてそれら隆線610は、ほぼ同じ間隔で平行線状に並んでいる。さらに隆線610の太さは、隆線の分岐点620の近傍であっても殆ど変化しない。また分岐された隆線610も、他の隆線610と略平行な直線となる。したがって、隆線の縞方向(隆線と直交する方向)の周波数成分は、隆線の分岐点620を含む場合と含まない場合とで、大きな差異は生じない。しかし、隆線610の分岐点620近傍では、分岐された隆線610は他の隆線610とわずかに異なる方向を向く。したがって、小領域600中に隆線の分岐点620が含まれる場合、隆線の縞方向と若干異なる方向の周波数成分が含まれることになる。同様に、隆線の端点630が存在すると、その端点630の近傍では隣接する隆線610同士の間隔が変わるため、隆線610の方向が若干変化する。そのため、隆線の縞方向と若干異なる方向の周波数成分が含まれることになる。   Here, what frequency components are generated at the branch points and end points of the ridge will be described. FIG. 6 shows a schematic diagram of an image of a small area including branch points and end points of ridges. As shown in FIG. 6, generally, each ridge 610 has substantially the same thickness within a small region 600 in which several ridges are included. These ridges 610 are arranged in parallel lines at substantially the same interval. Further, the thickness of the ridge 610 hardly changes even in the vicinity of the branch point 620 of the ridge. The branched ridge 610 is also a straight line substantially parallel to the other ridges 610. Therefore, the frequency component in the ridge stripe direction (direction perpendicular to the ridge) does not significantly differ between the case where the ridge branch point 620 is included and the case where it is not included. However, near the branch point 620 of the ridge 610, the branched ridge 610 faces a slightly different direction from the other ridges 610. Therefore, when the ridge branch point 620 is included in the small region 600, a frequency component in a direction slightly different from the stripe direction of the ridge is included. Similarly, when the end point 630 of the ridge exists, the distance between the adjacent ridges 610 changes in the vicinity of the end point 630, so that the direction of the ridge 610 changes slightly. Therefore, a frequency component in a direction slightly different from the ridge stripe direction is included.

そこで周波数フィルタ部180は、画質評価部150で求めた方向線dlに基づいて、その方向線dlを中心とした一定の拡がりを有する領域Rを周波数成分を残す周波数帯域として設定する。そして周波数フィルタ部180は、直流成分(Fsk(0,0))を除いて、領域Rに含まれない周波数成分について、実数成分、虚数成分とも0にする。なお、直流成分を減弱させずに残すのは、各小領域Lの指紋画像を再構成した場合に、隆線のエッジだけが強調された画像となることを防止して、後述する二値化処理によって隆線のエッジ部分だけが隆線領域となることを防ぐためである。以下に領域Rについて説明する。 Therefore the frequency filter unit 180, based on the direction line dl obtained in image quality evaluation unit 150 sets an R 3 having a certain spread around the that direction line dl as a frequency band to leave the frequency component. Then, the frequency filter unit 180 sets the real component and the imaginary component to 0 for the frequency components not included in the region R 3 except for the DC component (F sk (0, 0)). Incidentally, leave without reducing weakness the DC component, when reconstructing a fingerprint image of each small area L i, it is possible to prevent the image edges only of the ridge is enhanced, which will be described later binary This is to prevent only the edge portion of the ridge from becoming the ridge region by the conversion process. It will be described region R 3 below.

図7に、周波数フィルタリングを行うためのフィルタ領域の一例を示す。図7において、画像700は、選択スペクトル画像Fsk(u,v)の一例である。また画像上の各点710は、選択された周波数成分である。さらに、直線720、730はそれぞれ方向線dl、方向線dlの法線nlである。そして、領域Rは周波数成分を残す領域である。領域Rは、方向線dlから距離γ以下であり(両側で2γの幅)、周波数平面の原点から距離δ以上離れ、且つ周波数スペクトルの原点から距離ε以下の範囲である。 FIG. 7 shows an example of a filter region for performing frequency filtering. In FIG. 7, an image 700 is an example of the selected spectrum image F sk (u, v). Each point 710 on the image is a selected frequency component. Furthermore, the straight lines 720 and 730 are the normal line nl of the direction line dl and the direction line dl, respectively. A region R 3 is an area to leave frequency components. Region R 3 is no more than the distance γ from direction line dl (width 2γ on both sides), spaced above the distance δ from the origin of the frequency plane, and a range from the origin distance below ε of the frequency spectrum.

これら、γ、δ、εの値は、実際の多値指紋画像Mにおける隆線のピッチ、分岐点された隆線が分岐元の隆線となす角などに基づいて経験的に最適化される。本実施形態では、それぞれγを1.9lp/mm、δを1.2lp/mm、εを4.9lp/mmに対応する値とした。すなわち、本実施形態では、多値指紋画像Mの解像度が500dpiであり、各選択スペクトル画像Fsi(u,v)を32×32画素で構成しているため、それぞれγ=3.0、δ=2.0、ε=8.0となる。なお、γ、δ、εは、上記の値に限られない。指紋入力部3で使用される指紋センサの特性などに応じて最適化することができる。例えばγは約1.2lp/mm〜2.4lp/mmに相当する範囲で設定することができる。さらにδは、約0.6lp/mm〜1.9lp/mmに相当する範囲で設定することができる。同様にεは、約3.7lp/mm〜6.1lp/mmに相当する範囲で設定することができる。γ、δ、εの値を上記範囲よりも領域Rが狭くなるような値に設定すると、隆線の分岐点及び端点の情報まで減弱させてしまい、後述する特徴抽出部13で正確に特徴点を抽出することができなくなる。一方、γ、δ、εの値を上記範囲よりも領域Rが広くなるような値に設定すると、ノイズに起因する周波数成分を除去しきれず、特徴抽出部13で擬似特徴点を抽出してしまう可能性が高くなる。 The values of γ, δ, and ε are optimized empirically based on the pitch of the ridges in the actual multi-value fingerprint image M, the angle formed by the branching ridge and the branching ridge. . In the present embodiment, γ is a value corresponding to 1.9 lp / mm, δ is a value corresponding to 1.2 lp / mm, and ε is a value corresponding to 4.9 lp / mm. That is, in the present embodiment, the resolution of the multi-value fingerprint image M is 500 dpi, and each selected spectrum image F si (u, v) is composed of 32 × 32 pixels, so that γ = 3.0 and δ, respectively. = 2.0 and ε = 8.0. Note that γ, δ, and ε are not limited to the above values. It can be optimized according to the characteristics of the fingerprint sensor used in the fingerprint input unit 3. For example, γ can be set in a range corresponding to about 1.2 lp / mm to 2.4 lp / mm. Furthermore, δ can be set in a range corresponding to about 0.6 lp / mm to 1.9 lp / mm. Similarly, ε can be set in a range corresponding to about 3.7 lp / mm to 6.1 lp / mm. If the values of γ, δ, and ε are set to values that make the region R 3 narrower than the above range, the information on the branch points and end points of the ridges is attenuated, and the feature extraction unit 13 (to be described later) accurately features. It becomes impossible to extract points. On the other hand, if the values of γ, δ, and ε are set to values that make the region R 3 wider than the above range, the frequency component due to noise cannot be removed, and the feature extraction unit 13 extracts pseudo feature points. There is a high possibility that it will end.

また、これらγ、δ、εを、他の画質情報に基づいて変化させるようにしてもよい。例えば、隆線の幅を別途算出し、その幅に応じて変化させるようにしてもよい。隆線の幅は、例えば以下のように求めることができる。まず、後述する二値化部11における処理を多値指紋画像Mに対して行って仮の二値指紋画像を取得する。そして、その二値指紋画像を各小領域Lに分割して、各小領域L内において隆線に相当する画素値の平均連続数を複数の方向について求める。それら複数の方向について求めた平均連続数のうち、最小となるものを隆線の幅とすることができる。隆線の幅が太い場合、隆線の構造に起因する周波数成分は、比較的低周波側に存在するため、隆線の幅が太いほど、上記γ、δ、εを小さな値に設定する。 These γ, δ, and ε may be changed based on other image quality information. For example, the width of the ridge may be calculated separately and changed according to the width. The width of the ridge can be determined as follows, for example. First, a process in the binarization unit 11 described later is performed on the multi-value fingerprint image M to obtain a temporary binary fingerprint image. Then, by dividing the binary fingerprint image in the small area L i, determining a plurality of directions an average number of consecutive pixel values corresponding to the ridges in each small region L i. Among the average continuous numbers obtained for the plurality of directions, the smallest one can be set as the width of the ridge. When the width of the ridge is thick, the frequency component due to the structure of the ridge exists on the relatively low frequency side. Therefore, the larger the width of the ridge, the smaller the γ, δ, and ε are set.

また図8に、周波数フィルタリングを行うためのフィルタ領域の別の一例を示す。図8において、画像800は、選択スペクトル画像Fsk(u,v)の一例である。また画像上の各点810は、選択された周波数成分である。さらに直線820は、方向線dlである。そして領域Rは周波数成分を残す領域である。領域Rは、周波数平面の原点を中心とした半径δの円周と、周波数スペクトルの原点を中心とした半径εの二つの同心円に挟まれた範囲に存在し、且つ方向線dlとのなす角がψの2本の直線に挟まれた範囲である。この場合、ψは約15°〜30°に設定することができる。 FIG. 8 shows another example of a filter region for performing frequency filtering. In FIG. 8, an image 800 is an example of a selected spectrum image F sk (u, v). Each point 810 on the image is a selected frequency component. Further, the straight line 820 is a direction line dl. The region R 3 is an area to leave frequency components. Region R 3 is formed of a circumference of radius δ centered at the origin of the frequency plane, it exists in the range between the two concentric circles of radius ε about the origin of the frequency spectrum, a and direction line dl It is a range sandwiched between two straight lines having an angle ψ. In this case, ψ can be set to about 15 ° to 30 °.

画像再構成部190は、周波数フィルタ部180でフィルタ処理された各小領域Lの選択スペクトル画像に対し、周波数スペクトル解析部120で行った周波数変換の逆変換を行う。そして画像再構成部190は、ノイズ除去された各小領域Lの画像を再構成する。再構成された各小領域の画像は、指紋画像合成部200に送られる。 The image reconstruction unit 190, for each small area L i of the selected spectral images filtered by the frequency filter unit 180, performs inverse transformation of the frequency conversion performed in the frequency spectrum analyzer 120. The image reconstruction unit 190 reconstructs an image of each small area L i from which noise is removed. The reconstructed image of each small area is sent to the fingerprint image composition unit 200.

指紋画像合成部200は、再構成された各小領域Lの画像を合成し、1枚の多値指紋画像M’を生成する。この多値指紋画像M’は、ノイズが除去され、隆線の端点や分岐点を明瞭に観察することができるものとなる。なお、指紋画像合成部200は、各小領域Lの画像を合成する際、隣接小領域との重なり部分に含まれる画素については、重なった全ての小領域の対応する画素の画素値を平均化することにより、画素値を算出する。このような平均化を行うことにより、隣接する小領域との境界部で、隆線が不連続となることを防止することができる。
多値指紋画像M’の生成が終了すると、画像修正部10は、その多値指紋画像M’を二値化部10へ送る。
Fingerprint image synthesis section 200 synthesizes the image of each small area L i reconstructed, generating one multi-level fingerprint image M '. This multi-valued fingerprint image M ′ has noise removed, and can clearly observe end points and branch points of ridges. Note that the fingerprint image synthesizing unit 200, when synthesizing the image of each small region L i, adjacent for the pixels included in the overlapping portion of the small region, the average values of pixels of overlapping all the small areas corresponding By calculating the pixel value, the pixel value is calculated. By performing such averaging, it is possible to prevent ridges from becoming discontinuous at the boundary between adjacent small regions.
When the generation of the multi-value fingerprint image M ′ is completed, the image correction unit 10 sends the multi-value fingerprint image M ′ to the binarization unit 10.

二値化部11は、画像修正部10でノイズ除去処理が行われた多値指紋画像M’に基づいて、隆線領域と谷線領域に二値化した二値指紋画像Bを生成する。
二値化部11は、多値指紋画像M’の着目画素Cの画素値Icを所定の二値化閾値ThdBINと比較する。そして二値化部11は、多値指紋画像M’の着目画素Cに対応する二値指紋画像Bの画素の値Bを以下のように設定する。
≧ThdBINの場合、B=‘255’
<ThdBINの場合、B=‘0’
ここで、二値指紋画像Bにおいては、画素値‘255’を谷線画素値とし、‘0’を隆線画素値とする。つまり、Bの値が‘255’であることは、その画素が谷線画素であることを示す。一方、Bの値が‘0’であることは、その画素が隆線画素であることを示す。
なお、Bの値は、‘0’と‘255’の組み合わせに限られず、二値指紋画像Bを表現するデータ形式で扱うことが可能な任意の二つの異なる値、例えば‘0’と‘1’を使用することができる。
The binarization unit 11 generates a binary fingerprint image B binarized into a ridge region and a valley line region based on the multi-value fingerprint image M ′ subjected to noise removal processing by the image correction unit 10.
The binarization unit 11 compares the pixel value Ic of the pixel of interest C of the multi-value fingerprint image M ′ with a predetermined binarization threshold Thd BIN . Then, the binarizing unit 11 sets the pixel value B C of the binary fingerprint image B corresponding to the target pixel C of the multi-value fingerprint image M ′ as follows.
If I C ≧ Thd BIN , B C = '255'
If I C <Thd BIN , B C = '0'
Here, in the binary fingerprint image B, the pixel value “255” is a valley pixel value, and “0” is a ridge pixel value. In other words, the value of B C is '255' indicates that the pixel is valley pixel. On the other hand, the value of B C is '0' indicates that the pixel is ridge pixel.
The value of B C is' 0 'and is not limited to the combination of' 255 ', any two different values that can be handled in a data format that represents a binary fingerprint image B, for example,' 0 'and' 1 'can be used.

また、二値化閾値ThdBINは、例えば多値指紋画像M’の平均画素値Iに設定することができる。また二値化閾値ThdBINは、多値指紋画像M’を複数の小領域L(i=1,2,・・・,m)に分割し、各小領域Lごとの平均画素値ILiに設定してもよい。さらに二値化閾値ThdBINは、多値指紋画像M’の平均画素値Iに、その平均画素値Iと各小領域Lごとの平均画素値ILiの差I(=I−ILi)を加えた値としてもよい。なおこの場合の各小領域は、上記の画像分割部110によって分割した小領域と同じ大きさ、形状に設定してもよく、別個の大きさ、形状に設定してもよい。 Moreover, the binarization threshold value Thd BIN can be set to, for example, average pixel value I A of the multi-level fingerprint image M '. The binarization threshold Thd BIN divides the multi-value fingerprint image M ′ into a plurality of small areas L i (i = 1, 2,..., M), and the average pixel value I for each small area L i. You may set to Li . Further binarization threshold Thd BIN is the average pixel value I A of the multi-level fingerprint image M ', the difference I D (= I A of the average pixel value I A and the average pixel value I Li for each small area L i It is good also as a value which added -ILi ). In this case, each small region may be set to the same size and shape as the small region divided by the image dividing unit 110, or may be set to a separate size and shape.

二値化部11は、多値指紋画像M’の全ての画素について上記の比較を行うことにより、二値指紋画像Bを生成することができる。生成された二値指紋画像Bは、細線化部12へ送られる。
なお以下では、説明の便宜上、二値指紋画像B及び細線化二値指紋画像Bにおける隆線画素の値を‘0’、谷線画素の値を‘255’で表す。
The binarization unit 11 can generate the binary fingerprint image B by performing the above comparison for all the pixels of the multi-value fingerprint image M ′. The generated binary fingerprint image B is sent to the thinning unit 12.
In the following, for convenience of explanation, represented by the value of the ridge pixels in the binary fingerprint image B and the thinned binary fingerprint image B T '0', the value of the valley pixel '255'.

細線化部12は、二値化部11で生成された二値指紋画像Bに対して、隆線領域を細線化するように細線化処理を行う。そして隆線領域が1画素の幅で連続する線となる細線化二値指紋画像Bを生成する。細線化部12は、例えば、隣接する複数の画素が‘0’の値を有する所定のマスクパターンを複数準備し、それらマスクパターンを順次適用して、何れかのマスクパターンに当てはまれば、その画素の画素値を‘0’から‘255’へ変換する方法を使用することができる。しかし、細線化部12は、上記の細線化方法に限られず、公知の種々の方法を使用することができる。 The thinning unit 12 performs a thinning process on the binary fingerprint image B generated by the binarizing unit 11 so that the ridge region is thinned. The ridge region to generate a thinned binary fingerprint image B T to be a continuous line with a width of 1 pixel. For example, the thinning unit 12 prepares a plurality of predetermined mask patterns in which a plurality of adjacent pixels have a value of “0”, sequentially applies the mask patterns, and applies to any one of the mask patterns. A method of converting the pixel value of “0” to “255” can be used. However, the thinning unit 12 is not limited to the thinning method described above, and various known methods can be used.

特徴抽出部13は、細線化部12において生成された細線化二値指紋画像Bに基づいて特徴点を抽出し、入力特徴点リストFを作成する。ここで特徴点とは、隆線領域の端点、分岐点などである。 The feature extraction unit 13 extracts feature points based on the thinned binary fingerprint image B T generated by the thinning unit 12, and creates an input feature point list F i . Here, the feature points are end points, branch points, and the like of the ridge region.

図9は、細線化された指紋画像における特徴点の概略を示す。
図9において、黒く示された部分は細線化された隆線領域を表す。また、図9において、隆線領域の終端となっている部分900及び910が、隆線の端点であり、隆線が1本から2本に分岐している部分920が分岐点である。これらの特徴点の位置、数は、個人毎に異なるため、指紋の照合を行うための非常に有益な情報となる。
FIG. 9 shows an outline of feature points in a thinned fingerprint image.
In FIG. 9, the portion shown in black represents a thinned ridge region. Further, in FIG. 9, portions 900 and 910 that are the end of the ridge region are end points of the ridge, and a portion 920 where the ridge is branched from one to two is a branch point. Since the position and number of these feature points are different for each individual, it is very useful information for collating fingerprints.

特徴点を表す情報は、特徴点の種類(端点か分岐点か)、位置、方向、信頼度の各要素を有する。ここで端点Pは、例えば、隆線画素(すなわち、画素値‘0’)のうちで、且つ隣接する8近傍画素のうち、1画素だけが隆線画素である画素とすることができる。また分岐点Pは、隆線画素のうちで、隣接する8近傍画素のうち、3画素が隆線画素であり、且つそれら8近傍画素中の隆線画素同士が隣接していない画素とすることができる。また特徴点の位置は、端点P又は分岐点Pの細線化二値指紋画像B上の座標値(X,Y)で表される。ただしXは細線化二値指紋画像B上の水平方向座標値、Yは細線化二値指紋画像B上の垂直方向座標値である。 The information representing the feature point includes each element of the type of feature point (end point or branch point), position, direction, and reliability. Here endpoints P e, for example, among the ridge pixel (i.e., pixel value '0'), and among the eight neighboring pixels adjacent, can only 1 pixel is a pixel which is ridge pixel. The branch point P b are among the ridge pixels, of the adjacent eight neighboring pixels, 3 pixels is ridge pixel, and the ridge pixels to their 8 in neighboring pixels to the pixel not adjacent be able to. The position of the feature point is represented by coordinate values (X t , Y t ) on the thinned binary fingerprint image B T of the end point Pe or the branch point P b . However X t is the horizontal coordinate values on thinning the binary fingerprint image B T, Y t is the vertical coordinate value of the thinned binary fingerprint image B T.

特徴点の方向θは、その特徴点における隆線の方向を表す。また特徴点の方向θは、図9に示すように、例えば細線化二値指紋画像Bの水平方向軸と時計回りの方向になす角で表される。特徴点が端点Pの場合、特徴点の方向θは、その端点Pと隣接する隆線画素を結んだ直線と、細線化二値指紋画像Bの水平方向軸とのなす角として求めることができる。また特徴点が分岐点Pの場合、分岐点Pと、分岐点Pから2画素の距離にある隆線画素との線分を求める(そのような線分は3本あるはずである)。次に、それぞれの線分同士のなす角を求める。そして、最もなす角が狭い2本の線分の2等分線を求める。その2等分線と細線化二値指紋画像Bの水平方向軸とのなす角を特徴点の方向θとすることができる。なお、特徴点の方向θの求め方は、上記に限られるものではなく、他の公知の方法を用いてもよい。 The direction θ t of the feature point represents the direction of the ridge at the feature point. The direction theta t of feature points, as shown in FIG. 9, represented by the angle formed, for example, in the horizontal axis and the clockwise direction of thinning the binary fingerprint image B T. If the feature point is the end point P e, the direction theta t of feature points, a straight line connecting the ridge pixels adjacent to its end point P e, as the angle between the horizontal axis of the thinning binary fingerprint image B T Can be sought. In the case the feature point is a branch point P b, and the branch point P b, the line segment determined (such segment with the ridge pixels at a distance of two pixels from the branch point P b should there three ). Next, the angle formed by each line segment is obtained. Then, a bisector of two line segments having the narrowest angle is obtained. The angle between the horizontal axis of the bisector and thinning the binary fingerprint image B T can be a direction theta t of the feature point. The method of obtaining the feature point direction θ t is not limited to the above, and other known methods may be used.

特徴点の信頼度Tは、その特徴点の存在、位置、方向の信頼性を示す値である。例えば、指紋画像では、局所的に見ると複数の隆線が略平行に並んでいる。そのため、複数の特徴点が含まれる局所的な領域を考えると、その領域内では、それぞれの特徴点の方向θは、ほぼ同じ方向となる。そこで、以下のように信頼度Tを設定することができる。まず、着目する特徴点を中心とした局所的な領域(例えば、32×32画素程度)を設定する。次に、その局所的な領域中に含まれる各特徴点の方向θの平均値θavを算出する。そして、その平均値θavと、着目特徴点の方向θとの差の絶対値を信頼度とする。
なお、抽出する特徴点は、上記のものに限られない。例えば、各特徴点間の位置関係、隣接する特徴点間の間に存在する隆線又は谷線の本数などを特徴点として抽出してもよい。
The feature point reliability T is a value indicating the reliability of the existence, position, and direction of the feature point. For example, in a fingerprint image, a plurality of ridges are arranged substantially in parallel when viewed locally. Therefore, when considering a local region including a plurality of feature points, the direction θ t of each feature point is substantially the same in that region. Therefore, the reliability T can be set as follows. First, a local region (for example, about 32 × 32 pixels) around the feature point of interest is set. Next, an average value θ av of the direction θ t of each feature point included in the local region is calculated. Then, the absolute value of the difference between the average value θ av and the direction of the feature point of interest θ t is defined as the reliability.
Note that the feature points to be extracted are not limited to those described above. For example, the positional relationship between feature points, the number of ridges or valleys existing between adjacent feature points, and the like may be extracted as feature points.

特徴抽出部13は、上記のように一つの細線化二値指紋画像Bから抽出した特徴点のそれぞれについて、その特徴点の情報を予め定められた形式にしたがってリストとして作成する。 Feature extraction unit 13, for each of the feature points extracted from one thinned binary fingerprint image B T as described above, to create a list in accordance with a predetermined format information of the feature point.

照合部14は、操作者の指紋画像から特徴抽出部13において抽出した入力特徴点リストFと、記憶部4から読み出した登録特徴点リストFとを照合する。照合の具体的な方法として、特徴量の類似度を算出する公知の方法、例えばマニューシャ・マッチング法を使用することができる。具体的には、まず、入力特徴点リストFに含まれている幾つかの特徴点について、登録特徴点リストFに含まれている特徴点のいずれかとの位置の差の平均が最小となるような、座標値の平行移動量Δd及び回転補正角Δθを求める。そして、入力特徴点リストFに含まれる各特徴点に対して、その平行移動量Δd及び回転補正角Δθを加えて、入力特徴点リストFと登録特徴点リストFとを位置合わせする。 The collation unit 14 collates the input feature point list F i extracted by the feature extraction unit 13 from the fingerprint image of the operator and the registered feature point list F r read from the storage unit 4. As a specific method of collation, a known method for calculating the similarity between feature quantities, for example, a minutia matching method can be used. Specifically, first, for some feature points included in the input feature point list F i , the average position difference with any one of the feature points included in the registered feature point list F r is the smallest. Thus, the coordinate value parallel movement amount Δd and rotation correction angle Δθ are obtained. Then, for each feature point included in the input feature point list F i, by adding the translation amount Δd and the rotational correction angle [Delta] [theta], to align the input feature point list F i and the registered feature point list F r .

次に、入力特徴点リストFに含まれる各特徴点について、登録特徴点リストFに含まれる各特徴点のうち、特徴点の種類が同じで、位置が最も近いものとの距離、方向の差の絶対値、信頼度に基づいて得点を算出する。この得点は、距離が近いほど高くなるように設定する。同様に、方向の差の絶対値が小さいほど、また信頼度が高いほど得点は高くなるように設定する。 Next, for each feature point included in the input feature point list F i , among the feature points included in the registered feature point list F r , the distance and direction from the feature point of the same type and the closest position The score is calculated based on the absolute value and the reliability of the difference. This score is set to be higher as the distance is shorter. Similarly, the score is set higher as the absolute value of the direction difference is smaller and the reliability is higher.

各特徴点についての得点が算出されると、照合部14は、その得点の合計を類似度Sとして算出する。そして、照合部14は、算出された類似度Sが予め定められた照合閾値Thdを超えていれば、認証に成功したと判定し(すなわち、操作者の指紋は、登録されている指紋と一致する)、逆に算出された類似度Sが予め定められた照合閾値Thd以下であれば、認証に失敗したと判定する(すなわち、操作者の指紋は、登録されている指紋と一致しない)。 When the score for each feature point is calculated, the collation unit 14 calculates the sum of the scores as the similarity S i . The collation unit 14 determines that the authentication is successful if the calculated similarity S i exceeds a predetermined collation threshold Thd V (that is, the operator's fingerprint is a registered fingerprint). In contrast, if the calculated similarity S i is equal to or smaller than a predetermined matching threshold Thd V , it is determined that the authentication has failed (that is, the operator's fingerprint is a registered fingerprint). It does not match).

出力部6は、指紋認証装置1と外部の機器(例えば、電気錠の施解錠制御装置)を接続し、信号の入出力を行うインターフェースであり、イーサネット(登録商標)、USB、SCSI、RS−232Cなどの規格に準拠した通信ポート、電子回路及びドライバソフトウェアなどで構成される。
出力部6は、画像照合部5の照合結果を示す信号などを外部機器に出力する。
The output unit 6 is an interface for connecting the fingerprint authentication device 1 to an external device (for example, an electric lock locking / unlocking control device) and inputting / outputting signals, and includes Ethernet (registered trademark), USB, SCSI, RS- It is composed of communication ports, electronic circuits, driver software, and the like that comply with standards such as 232C.
The output unit 6 outputs a signal indicating the collation result of the image collation unit 5 to an external device.

次に、本発明に係る照合装置の一例である指紋認証装置1の動作を説明する。
図10は、指紋認証装置1における、指紋認証の動作を示すフローチャートである。なお、以下に説明する指紋認証装置1の動作は、画像照合部5に読み込まれたプログラムにしたがって、画像照合部5の制御部15により実行される。
Next, the operation of the fingerprint authentication device 1 which is an example of the collation device according to the present invention will be described.
FIG. 10 is a flowchart showing the fingerprint authentication operation in the fingerprint authentication apparatus 1. The operation of the fingerprint authentication device 1 described below is executed by the control unit 15 of the image matching unit 5 in accordance with a program read by the image matching unit 5.

まず、指紋認証装置1は、例えば図示しない近赤外線センサなどにより、操作者の接近を検知すると、所定のガイダンスを操作・表示部2に表示し、操作者にそのガイダンスにしたがって指紋認証作業を行うよう促すとともに、指紋認証動作を開始する。   First, when the fingerprint authentication apparatus 1 detects the approach of the operator by using a near infrared sensor (not shown), for example, a predetermined guidance is displayed on the operation / display unit 2, and the fingerprint authentication work is performed on the operator according to the guidance. At the same time, the fingerprint authentication operation is started.

最初に、指紋認証装置1は、操作・表示部2から操作者の入力識別番号INを取得する(ステップS101)。なお、操作者が識別番号INを入力する前に、指紋入力部3の載置センサが指を検知した場合には、指紋認証装置1は、操作・表示部2を通じて識別番号の入力を促すメッセージを表示する。次に、指紋認証装置1は、取得した入力識別番号INが記憶部4に登録されているか否か検索する(ステップS102)。入力識別番号INが記憶部4に登録されている場合、指紋認証装置1は、操作者の指紋画像を取得するために、指を指紋入力部3の所定位置に置くように操作・表示部2を通じて操作者に対するガイダンスを行う(ステップS103)。一方、ステップS102において、取得した入力識別番号INが登録されていなければ、指紋認証装置1は、操作・表示部2を通じて識別番号未登録のエラーメッセージを表示する(ステップS104)。そして、制御を最初に戻す。   First, the fingerprint authentication device 1 acquires the operator's input identification number IN from the operation / display unit 2 (step S101). If the placement sensor of the fingerprint input unit 3 detects a finger before the operator inputs the identification number IN, the fingerprint authentication device 1 prompts the input of the identification number through the operation / display unit 2. Is displayed. Next, the fingerprint authentication device 1 searches whether or not the acquired input identification number IN is registered in the storage unit 4 (step S102). When the input identification number IN is registered in the storage unit 4, the fingerprint authentication device 1 operates the operation / display unit 2 so that the finger is placed at a predetermined position of the fingerprint input unit 3 in order to obtain a fingerprint image of the operator. Guidance to the operator is performed through (step S103). On the other hand, if the acquired input identification number IN is not registered in step S102, the fingerprint authentication device 1 displays an error message in which the identification number is not registered through the operation / display unit 2 (step S104). Then, control is returned to the beginning.

ステップS103の後、指紋入力部3の載置センサが指を検知すると指紋入力部3は操作者の多値指紋画像Mを取得する(ステップS105)。取得した多値指紋画像Mは、画像照合部5に送られる。画像照合部5が多値指紋画像Mを取得すると、画像照合部5の画像修正部10は、その多値指紋画像Mに対するノイズ除去処理を行う(ステップS106)。なお、ノイズ除去処理の実行手順については、後述する。その後、画像照合部5の二値化部11は、ノイズ除去された多値指紋画像M’に基づいて、二値指紋画像Bを生成する(ステップS107)。二値化部11は、多値指紋画像M’中の隆線領域と谷線領域を区別するように二値化する。二値指紋画像Bが生成されると、画像照合部5の細線化部12は、隆線領域が細線化された細線化二値指紋画像Bを生成する(ステップS108)。 After step S103, when the placement sensor of the fingerprint input unit 3 detects a finger, the fingerprint input unit 3 acquires a multi-value fingerprint image M of the operator (step S105). The acquired multi-value fingerprint image M is sent to the image matching unit 5. When the image collation unit 5 acquires the multi-value fingerprint image M, the image correction unit 10 of the image collation unit 5 performs a noise removal process on the multi-value fingerprint image M (step S106). The procedure for executing the noise removal process will be described later. Thereafter, the binarization unit 11 of the image collation unit 5 generates a binary fingerprint image B based on the noise-removed multi-value fingerprint image M ′ (step S107). The binarization unit 11 binarizes the ridge region and the valley region in the multi-value fingerprint image M ′. When the binary fingerprint image B is generated, thinning unit 12 of the image matching unit 5, ridge region to generate thinned thinned binary fingerprint image B T (step S108).

ステップS108において、細線化二値指紋画像Bが生成されると、画像照合部5の特徴抽出部13は、その細線化二値指紋画像Bから隆線領域の端点P、分岐点Pなどの特徴点を抽出し、入力特徴点リストFを作成する(ステップS109)。そして、入力特徴点リストFが作成されると、画像照合部5は、記憶部4から入力識別番号INに関連付けられた登録特徴点リストFを読み出し、照合部14で入力特徴点リストFと登録特徴点リストFの類似度Sを算出する(ステップS110)。
そして照合部14は、ステップS110において算出された類似度Sと所定の照合閾値Thdを比較する(ステップS111)。ステップS111において、類似度Sが照合閾値Thd以下の場合、画像照合部5は、認証に失敗したと判定する。そして指紋認証装置1は、操作・表示部2に認証に失敗したことを示すメッセージを表示する(ステップS112)。そして、再度操作者の指紋画像を取得するために、制御をステップS103の前に戻す。
In step S108, the thinning the binary fingerprint image B T is generated, feature extraction unit 13 of the image matching unit 5, the end point P e of ridge region from the thinning binary fingerprint image B T, the branch point P Feature points such as b are extracted to create an input feature point list F i (step S109). When the input feature point list F i is created, the image matching unit 5 reads the registered feature point list F r associated with the input identification number IN from the storage unit 4, and the matching unit 14 uses the input feature point list F r. The similarity S i between i and the registered feature point list F r is calculated (step S110).
Then, the collation unit 14 compares the similarity S i calculated in step S110 with a predetermined collation threshold Thd V (step S111). In step S111, when the similarity S i is equal to or smaller than the verification threshold Thd V , the image verification unit 5 determines that the authentication has failed. Then, the fingerprint authentication device 1 displays a message indicating that the authentication has failed on the operation / display unit 2 (step S112). Then, in order to acquire the operator's fingerprint image again, the control is returned to before step S103.

一方、類似度Sが照合閾値Thdよりも大きい場合、画像照合部5の照合部14は、認証に成功したと判定する。そして指紋認証装置1は、操作・表示部2に認証に成功したことを示すメッセージを表示するとともに、必要に応じて照合結果を示す信号を出力部6を通じて外部機器に送信する(ステップS113)。そして指紋認証装置1は、動作を終了する。 On the other hand, when the similarity S i is larger than the matching threshold value Thd V , the matching unit 14 of the image matching unit 5 determines that the authentication is successful. Then, the fingerprint authentication device 1 displays a message indicating that the authentication has been successful on the operation / display unit 2 and transmits a signal indicating the verification result to the external device through the output unit 6 as necessary (step S113). Then, the fingerprint authentication device 1 ends the operation.

なお、所定回数連続して認証に失敗した場合、指紋認証装置1は、操作・表示部2を通じて操作者に警告メッセージを表示するようにしてもよい。さらに指紋認証装置1は、そのような場合、出力部6を通じて、監視センタ(図示せず)などに指紋認証装置1自身の識別情報及び警告情報を通知するようにしてもよい。   If the authentication fails for a predetermined number of times, the fingerprint authentication device 1 may display a warning message to the operator through the operation / display unit 2. Further, in such a case, the fingerprint authentication device 1 may notify the monitoring center (not shown) or the like of the identification information and warning information of the fingerprint authentication device 1 through the output unit 6.

次に、本発明に係る照合装置の一例である指紋認証装置1における、ノイズ除去処理の動作について、図11及び図12に示したフローチャートを参照しつつ説明する。なお、ノイズ除去処理は、専ら指紋認証装置1の画像修正部10で実行される。   Next, the operation of noise removal processing in the fingerprint authentication device 1 which is an example of the collation device according to the present invention will be described with reference to the flowcharts shown in FIGS. Note that the noise removal process is executed exclusively by the image correction unit 10 of the fingerprint authentication device 1.

図11に示すように、まず、多値指紋画像Mが画像修正部10に送られ、ノイズ除去処理が開始される。ノイズ除去処理が開始されると、画像分割部110は、多値指紋画像Mを複数の小領域L(i=1,2,・・・,m)に分割する(ステップS201)。次に、周波数スペクトル解析部120は、各小領域Lについて周波数変換を行い、各小領域Lの周波数スペクトル画像F(u,v)を作成する(ステップS202)。そして、作成した各周波数スペクトル画像F(u,v)をスペクトル記憶部130に記憶するとともに、周波数成分選択部140に送る。 As shown in FIG. 11, first, the multi-value fingerprint image M is sent to the image correction unit 10, and the noise removal process is started. When the noise removal process is started, the image dividing unit 110 divides the multi-value fingerprint image M into a plurality of small regions L i (i = 1, 2,..., M) (step S201). Next, the frequency spectrum analysis unit 120 performs frequency transformation on each of the small areas L i, the frequency spectral images F i (u, v) of each small area L i to create a (step S202). Then, each created frequency spectrum image F i (u, v) is stored in the spectrum storage unit 130 and sent to the frequency component selection unit 140.

次に、周波数成分選択部140は、まず各周波数スペクトル画像F(u,v)のうちの一つの周波数スペクトル画像Fk(u,v)(k=1,2,・・・,m)に着目する(ステップS203)。そして周波数成分選択部140は、着目した周波数スペクトル画像Fk(u,v)に対し、選択する周波数成分を決定する基準となる振幅の係数α(k=1,2,・・・,m)を周波数成分選択制御部160から取得し、閾値Thdαkを算出する。そして周波数スペクトル画像F(u,v)について閾値Thdαk以上の振幅の絶対値を有する周波数成分のみを選択した選択スペクトル画像Fs(u,v)を作成する(ステップS204)。 Next, the frequency component selection unit 140 firstly selects one frequency spectrum image F k (u, v) (k = 1, 2,..., M) from among the frequency spectrum images F i (u, v). (Step S203). The frequency component selection unit 140 then uses the amplitude coefficient α k (k = 1, 2,..., M) as a reference for determining the frequency component to be selected for the focused frequency spectrum image F k (u, v). ) Is acquired from the frequency component selection control unit 160, and a threshold Thd αk is calculated. Then, a selected spectrum image Fs k (u, v) is created by selecting only frequency components having an absolute value greater than or equal to the threshold Thd αk for the frequency spectrum image F k (u, v) (step S204).

選択スペクトル画像Fs(u,v)が作成されると、画質評価部150は、その周波数成分の選択が適切か否か判断する。そのために、画質評価部150の方向線算出手段151は、選択スペクトル画像Fsk(u,v)について、選択された周波数成分に基づいて方向線dlを算出する(ステップS205)。次に画質評価部150の集中度算出手段152は、選択された周波数成分が方向線dlに対してどれだけ集中しているかの指標である複雑度Cを算出する(ステップS206)。そして画質評価部150の評価手段153は、複雑度Cと所定の閾値Thdconfを比較して、選択された周波数成分が適切か否か判断する(ステップS207)。複雑度Cが閾値Thdconf以上であれば、選択された周波数成分は不適切であると判断され、周波数成分選択制御部160が周波数成分選択の基準となる係数αを調整する(ステップS208)。なお、調整された係数αは、選択パラメータ記憶部170に記憶され、再度の調整の際に参照される。そして、ステップS204の前に制御を移行し、ステップS204〜ステップS207の処理を繰り返す。一方、ステップS207において、複雑度Cが閾値Thdconf未満であれば、選択された周波数成分は適切であると判断され、その選択スペクトル画像Fsk(u,v)はスペクトル記憶部130に一時的に記憶される(ステップS209)。 When the selected spectrum image Fs k (u, v) is created, the image quality evaluation unit 150 determines whether or not the selection of the frequency component is appropriate. For this purpose, the direction line calculation unit 151 of the image quality evaluation unit 150 calculates the direction line dl based on the selected frequency component for the selected spectrum image Fs k (u, v) (step S205). Next, the concentration degree calculation unit 152 of the image quality evaluation unit 150 calculates the complexity C, which is an index of how much the selected frequency component is concentrated with respect to the direction line dl (step S206). Then, the evaluation unit 153 of the image quality evaluation unit 150 compares the complexity C with a predetermined threshold value Thd conf and determines whether or not the selected frequency component is appropriate (step S207). If the complexity C is equal to or greater than the threshold Thd conf, it is determined that the selected frequency component is inappropriate, and the frequency component selection control unit 160 adjusts the coefficient α k serving as a reference for frequency component selection (step S208). . The adjusted coefficient α k is stored in the selection parameter storage unit 170 and is referred to when the adjustment is performed again. Then, control is transferred before step S204, and the processing of step S204 to step S207 is repeated. On the other hand, if the complexity C is less than the threshold Thd conf in step S207, it is determined that the selected frequency component is appropriate, and the selected spectrum image Fs k (u, v) is temporarily stored in the spectrum storage unit 130. (Step S209).

図12に示すように、ステップS209の後、画像修正部10は、全ての周波数スペクトル画像について、ステップS204〜S209の処理が終了したか否か判定する(ステップS210)。そして画像修正部10は、何れかの周波数スペクトル画像(例えばFi+1(u,v))について上記のステップS204〜S209の処理がなされていないと判断した場合、その周波数スペクトル画像を次に着目する周波数スペクトル画像F(u,v)に設定する(S211)。そして、ステップS204の前に制御を移行し、ステップS204〜ステップS210の処理を繰り返す。一方、ステップS210において、画像修正部10は、全ての周波数スペクトル画像についてステップS204〜S209の処理が終了し、各周波数スペクトル画像F(u,v)に対応する選択スペクトル画像Fs(u,v)が作成されていることを確認すると、それら選択スペクトル画像Fs(u,v)を周波数フィルタ部180へ送る。そして周波数フィルタ部180は、各選択スペクトル画像Fs(u,v)に対して所定の周波数帯域の周波数成分だけを残すようなバンドパスフィルタ処理を行う(ステップS212)。そして、そのバンドパスフィルタ処理が行われた各選択スペクトル画像Fs(u,v)に対し、画像再構成部190は、周波数スペクトル解析部120の周波数変換処理の逆変換処理を行い、各小領域Lの画像f’(x,y)を再構成する(ステップS213)。最後に、指紋画像合成部200は、再構成された各小領域Lの画像f’(x,y)を合成し、ノイズ処理が施された多値指紋画像M’を生成する(ステップS214)。そして画像修正部10は、スペクトル記憶部130に記憶されている各周波数スペクトル画像F(u,v)及び各選択スペクトル画像Fs(u,v)を消去するとともに、生成された多値指紋画像M’を出力して処理を終了する。 As shown in FIG. 12, after step S209, the image correction unit 10 determines whether or not the processing of steps S204 to S209 has been completed for all frequency spectrum images (step S210). When the image correction unit 10 determines that any of the frequency spectrum images (for example, F i + 1 (u, v)) has not been subjected to the processes in steps S204 to S209, the image correction unit 10 pays attention to the frequency spectrum image next. The frequency spectrum image F k (u, v) is set (S211). And control is transferred before step S204 and the process of step S204-step S210 is repeated. On the other hand, in step S210, the image correction unit 10 finishes the processes of steps S204 to S209 for all the frequency spectrum images, and selects the selected spectrum image Fs i (u, v) corresponding to each frequency spectrum image F i (u, v). If it is confirmed that v) is created, the selected spectrum images Fs i (u, v) are sent to the frequency filter unit 180. Then, the frequency filter unit 180 performs a band-pass filter process that leaves only frequency components in a predetermined frequency band for each selected spectrum image Fs i (u, v) (step S212). Then, the image reconstruction unit 190 performs the inverse transform process of the frequency transform process of the frequency spectrum analysis unit 120 on each selected spectrum image Fs i (u, v) on which the bandpass filter process has been performed. The image f i ′ (x, y) in the region L i is reconstructed (step S213). Finally, the fingerprint image synthesizing unit 200 synthesizes the reconstructed images f i ′ (x, y) of the small regions L i to generate a multi-value fingerprint image M ′ subjected to noise processing (step S1). S214). Then, the image correction unit 10 erases each frequency spectrum image F i (u, v) and each selected spectrum image Fs i (u, v) stored in the spectrum storage unit 130 and generates the generated multi-value fingerprint. The image M ′ is output and the process ends.

上記のように、画像修正部10は、各周波数スペクトル画像F(u,v)に対して、周波数成分選択部140である程度以上の振幅を有する周波数成分を選択し、その選択した周波数成分についてさらに周波数フィルタ部180で隆線の縞方向を中心とした所定の周波数帯域に含まれる周波数成分を残すことで、隆線の端点や分岐点の情報を残しつつ、ノイズを適切に除去することができる。さらに画像修正部10は、指紋画像の隆線が小領域では略平行な複数の直線が並ぶ縞模様となることから、所定の方向にのみ周波数成分が集中するはずであるという事実に基づいて、一度選択した周波数成分が適切か否か評価し、その評価結果によっては選択する基準を調整して再度周波数成分を選択することにより、適切な周波数成分の選択を行うことができる。 As described above, the image correction unit 10 selects a frequency component having an amplitude of a certain level or more for each frequency spectrum image F i (u, v), and the selected frequency component. Furthermore, by leaving the frequency component included in a predetermined frequency band centered on the ridge stripe direction in the frequency filter unit 180, it is possible to appropriately remove noise while leaving information on the end points and branch points of the ridges. it can. Furthermore, the image correction unit 10 is based on the fact that the frequency components should be concentrated only in a predetermined direction because the ridges of the fingerprint image become a striped pattern in which a plurality of substantially parallel straight lines are arranged in a small region. It is possible to select an appropriate frequency component by evaluating whether or not the frequency component once selected is appropriate, and by selecting the frequency component again after adjusting the selection criterion depending on the evaluation result.

以上説明してきたように、本発明に係る照合装置の一例である指紋認証装置1は、隆線の分岐点や端点の情報を残しつつノイズを除去した多値指紋画像M’を作成する。そして指紋認証装置1は、その多値指紋画像M’から作成された細線化二値指紋画像Bから特徴点を抽出して照合を行うことにより、特徴点の抽出失敗や擬似特徴点の抽出を抑制できるため、高い照合精度を達成することができる。 As described above, the fingerprint authentication device 1 which is an example of a collation device according to the present invention creates a multi-value fingerprint image M ′ from which noise has been removed while leaving information on ridge branch points and end points. The fingerprint authentication device 1, extracted from the multi-level fingerprint image M 'is created from a thinned binary fingerprint image B T by performing the matching by extracting feature points of the extracted failure or pseudo feature points of the feature point Therefore, high collation accuracy can be achieved.

なお、上記の実施形態では、指紋の隆線領域は画素値が低く(若しくは黒く)、指紋の谷線領域は画素値が高く(若しくは白く)表現されることとしたが、指紋センサとして光路分離法光学式を使用した場合のように、指紋の隆線領域は画素値が高く(若しくは白く)、指紋の谷線領域は画素値が低く(若しくは黒く)表現される場合でも本発明を適用することができる。この場合、上記の説明において画素値の大小を逆にする(例えば、〜以上という表現は〜以下と置き換える)ことで同様に取り扱うことができる。   In the above-described embodiment, the ridge region of the fingerprint has a low pixel value (or black) and the valley region of the fingerprint has a high (or white) pixel value. The present invention is applied even when the fingerprint ridge region has a high pixel value (or white) and the fingerprint valley region has a low pixel value (or black), as in the case of using the optical method. be able to. In this case, in the above description, the pixel values can be handled in the same manner by reversing the magnitude of the pixel values (for example, the expression “˜” is replaced with “˜”).

また、上記の実施形態では、指紋の照合を特徴点ベースの類似度に基づいて判定したが、本発明の照合装置は、別の方法で指紋の照合を行う場合にも適用することができる。例えば、指紋の照合を指紋画像同士のパターンマッチングに基づいて行う場合に適用することもできる。この場合、特徴情報として、上記の特徴点リストの代わりに被照合者の二値指紋画像を予め登録しておく。そして多値指紋画像M’から隆線と谷線に分離した二値指紋画像を生成し、生成した二値指紋画像を、予め登録された被照合者の二値指紋画像とパターンマッチングを行う。そして一致度が所定の閾値を超えれば認証に成功したと判定するように構成することができる。あるいは、二値指紋画像の代わりに、多値指紋画像M’そのものをパターンマッチングに使用してもよい。   Further, in the above-described embodiment, the fingerprint collation is determined based on the feature point-based similarity, but the collation apparatus of the present invention can also be applied when fingerprint collation is performed by another method. For example, the present invention can be applied when fingerprint matching is performed based on pattern matching between fingerprint images. In this case, a binary fingerprint image of the person to be verified is registered in advance as feature information instead of the feature point list. Then, a binary fingerprint image separated into ridges and valleys from the multi-value fingerprint image M ′ is generated, and the generated binary fingerprint image is subjected to pattern matching with the previously registered binary fingerprint image of the person to be verified. If the degree of coincidence exceeds a predetermined threshold value, the authentication can be determined to be successful. Alternatively, the multi-value fingerprint image M ′ itself may be used for pattern matching instead of the binary fingerprint image.

またさらに、画像修正部10では、ノイズ除去処理を行う前に、指を指紋入力部3に載置する際における、指の中央部の押圧力と周辺部の押圧力の差異などにより生じる多値指紋画像Mの濃度ムラを補正し、指紋画像全体の濃度を均一化するようにしてもよい。
例えば、ムラ補正は、多値指紋画像Mを32×32画素程度の部分領域に分割し、各部分領域について平均画素値及び画素値の分散を算出する。そして、その平均画素値及び画素値の分散が、多値指紋画像M全体の平均画素値及び画素値の分散と略等しくなるように画素値を変換する(画像解析ハンドブックp.478、高木幹雄、東京大学出版を参照)ことにより、ムラ補正を行うことができる。
Furthermore, in the image correction unit 10, multiple values generated due to the difference between the pressing force at the center of the finger and the pressing force at the peripheral part when the finger is placed on the fingerprint input unit 3 before performing the noise removal processing. The density unevenness of the fingerprint image M may be corrected to make the density of the entire fingerprint image uniform.
For example, in the unevenness correction, the multi-value fingerprint image M is divided into partial areas of about 32 × 32 pixels, and the average pixel value and the variance of the pixel values are calculated for each partial area. Then, the pixel values are converted so that the average pixel value and the variance of the pixel values are substantially equal to the average pixel value and the variance of the pixel values of the entire multi-value fingerprint image M (Image Analysis Handbook p.478, Mikio Takagi, (See Tokyo University Press).

また、上記では本発明に係る照合装置を指紋画像認証装置として説明してきたが、本発明は、指紋画像以外の縞模様を含む画像の照合装置にも適用できる。例えば、本発明は、掌紋画像の照合装置に適用することができる。さらに、指紋画像と異なり、画像全体が略平行な直線状の縞模様を含む場合には、上記のように画像を小領域に分割することなく、画像全体を1枚の画像として周波数解析・周波数成分抽出・画質評価・バンドパスフィルタの各処理を行うようにしてもよい。このように小領域に分割を行わない場合には、周波数変換を行う際に、ハニング窓やハミング窓などの窓関数を用いて、画像中の特定部分に着目した処理を行うようにしてもよい。   In the above description, the collation apparatus according to the present invention has been described as a fingerprint image authentication apparatus. However, the present invention can also be applied to an image collation apparatus that includes a stripe pattern other than a fingerprint image. For example, the present invention can be applied to a palmprint image collation device. Further, unlike the fingerprint image, when the entire image includes a substantially parallel linear stripe pattern, the entire image is divided into small areas as described above, and the frequency analysis / frequency is performed. You may make it perform each process of a component extraction, image quality evaluation, and a band pass filter. When division into small regions is not performed in this way, when performing frequency conversion, processing focusing on a specific portion in an image may be performed using a window function such as a Hanning window or a Hamming window. .

以上のように、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。   As described above, various modifications can be made within the scope of the present invention according to the embodiment to be implemented.

本発明に係る照合装置の一例である指紋認証装置の機能ブロック図である。It is a functional block diagram of a fingerprint authentication device which is an example of a collation device according to the present invention. 指紋認証装置の画像修正部の機能ブロック図である。It is a functional block diagram of the image correction part of a fingerprint authentication device. 多値指紋画像に対する小領域の設定の概略を示す図である。It is a figure which shows the outline of the setting of the small area | region with respect to a multi-value fingerprint image. 周波数成分の分布に対する方向線dlの算出の様子を示す図である。It is a figure which shows the mode of calculation of the direction line dl with respect to distribution of a frequency component. (a)は複雑度Cの二つの指標を算出する領域の一例を示す図であり、(b)は複雑度Cの二つの指標を算出する領域の別の一例を示す図である。(A) is a figure which shows an example of the area | region which calculates the 2 parameter | index of complexity C, (b) is a figure which shows another example of the area | region which calculates the 2 parameter | index of complexity C. 隆線の分岐点を含む小領域の画像の概略図である。It is the schematic of the image of the small area | region containing the branch point of a ridgeline. 周波数フィルタリングを行うためのフィルタ領域の一例を示す概略図である。It is the schematic which shows an example of the filter area | region for performing frequency filtering. 周波数フィルタリングを行うためのフィルタ領域の別の一例を示す概略図である。It is the schematic which shows another example of the filter area | region for performing frequency filtering. 細線化された指紋画像における特徴点の概略を示す図である。It is a figure which shows the outline of the feature point in the thinned fingerprint image. 本発明に係る照合装置の一例である指紋認証装置における、指紋認証処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a fingerprint authentication process in the fingerprint authentication apparatus which is an example of the collation apparatus which concerns on this invention. 本発明に係る照合装置の一例である指紋認証装置における、ノイズ除去処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a noise removal process in the fingerprint authentication apparatus which is an example of the collation apparatus which concerns on this invention. 本発明に係る照合装置の一例である指紋認証装置における、ノイズ除去処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a noise removal process in the fingerprint authentication apparatus which is an example of the collation apparatus which concerns on this invention.

符号の説明Explanation of symbols

1 指紋認証装置
2 操作・表示部
3 指紋入力部(画像入力部)
4 記憶部
5 画像照合部
6 出力部
10 画像修正部
11 二値化部
12 細線化部
13 特徴抽出部
14 照合部
15 制御部
110 画像分割部
120 周波数スペクトル解析部
130 スペクトル記憶部
140 周波数成分選択部
150 画質評価部
151 方向線算出手段
152 集中度算出手段
153 評価手段
160 周波数成分選択制御部
170 選択パラメータ記憶部
180 周波数フィルタ部
190 画像再構成部
200 指紋画像合成部
300 多値指紋画像
310、320、330 多値指紋画像の小領域
400、500、700、800 選択スペクトル画像
410、510、710、810 周波数成分
420、520、720、820 方向線
530、730 方向線の法線
600 多値指紋画像の小領域
610 隆線
620 分岐点
630 端点
900、910 特徴点(端点)
920 特徴点(分岐点)
1 Fingerprint Authentication Device 2 Operation / Display Unit 3 Fingerprint Input Unit (Image Input Unit)
DESCRIPTION OF SYMBOLS 4 Storage part 5 Image collation part 6 Output part 10 Image correction part 11 Binarization part 12 Thinning part 13 Feature extraction part 14 Collation part 15 Control part 110 Image division part 120 Frequency spectrum analysis part 130 Spectrum storage part 140 Frequency component selection Unit 150 image quality evaluation unit 151 direction line calculation unit 152 concentration degree calculation unit 153 evaluation unit 160 frequency component selection control unit 170 selection parameter storage unit 180 frequency filter unit 190 image reconstruction unit 200 fingerprint image synthesis unit 300 multi-value fingerprint image 310, 320, 330 Small region of multi-value fingerprint image 400, 500, 700, 800 Selected spectral image 410, 510, 710, 810 Frequency component 420, 520, 720, 820 Direction line 530, 730 Normal of direction line 600 Multi-value fingerprint Small area of image 610 Ridge 620 Branch Point 630 End point 900, 910 Feature point (end point)
920 feature point (branch point)

Claims (6)

縞模様を含む画像を照合する画像の照合装置であって、
前記画像を取得する画像入力部と、
前記画像を周波数変換して周波数スペクトルを求める周波数スペクトル解析部と、
前記周波数スペクトルから、振幅の絶対値が所定の閾値以上である周波数成分を選択する周波数成分選択部と、
前記周波数成分選択部によって選択された周波数成分が所定の条件により照合に適する画像の質を満たすか否かを調べる画質評価部と、
前記画質評価部が前記所定の条件を満たすと判断した場合、前記選択された周波数成分に基づいて、前記周波数変換の逆変換を行って前記画像を再構成する画像再構成部と、
前記再構成された画像を用いて照合する照合部と、
を有することを特徴とする照合装置。
An image matching device for matching an image including a stripe pattern,
An image input unit for acquiring the image;
A frequency spectrum analysis unit that obtains a frequency spectrum by converting the frequency of the image;
From the frequency spectrum, a frequency component selection unit that selects a frequency component whose absolute value of amplitude is a predetermined threshold value or more,
An image quality evaluation unit that examines whether the frequency component selected by the frequency component selection unit satisfies a quality of an image suitable for collation according to a predetermined condition;
If the image quality evaluation unit determines that the predetermined condition is satisfied, an image reconstructing unit that reconstructs the image by performing an inverse transform of the frequency transform based on the selected frequency component;
A matching unit for matching using the reconstructed image;
The collation apparatus characterized by having.
さらに前記所定の閾値を調整する周波数成分選択制御部を有し、
前記画質評価部が前記所定の条件を満たさないと判断した場合、前記周波数成分選択制御部は前記所定の閾値を変更し、前記周波数成分選択部は該変更された所定の閾値を用いて再度周波数成分の選択を行う、請求項1に記載の照合装置。
A frequency component selection control unit for adjusting the predetermined threshold;
When the image quality evaluation unit determines that the predetermined condition is not satisfied, the frequency component selection control unit changes the predetermined threshold value, and the frequency component selection unit uses the changed predetermined threshold value to perform frequency again. The collation apparatus according to claim 1, wherein a component is selected.
前記所定の条件を満たさない場合、前記周波数成分選択制御部は、前記所定の閾値を変更する前よりも大きな値にする、請求項2に記載の照合装置。   The collation apparatus according to claim 2, wherein when the predetermined condition is not satisfied, the frequency component selection control unit sets the predetermined threshold value to a larger value than before the change. 前記画質評価部は、
前記選択された周波数成分の分布に基づいて、前記画像に含まれる縞模様の縞方向を特定する方向線算出手段と、
前記選択された周波数成分が前記縞方向に集中している程度を表す指標を算出する集中度算出手段を有し、
前記指標が、所定以上の集中を示している場合、前記所定の条件を満たし、所定未満の集中を示している場合、前記所定の条件を満たしていないと評価する評価手段を有する、請求項1〜3の何れか一項に記載の照合装置。
The image quality evaluation unit
Direction line calculation means for specifying a stripe direction of a stripe pattern included in the image based on the distribution of the selected frequency components;
Concentration calculating means for calculating an index representing the degree to which the selected frequency component is concentrated in the fringe direction,
2. An evaluation unit that evaluates that the predetermined condition is satisfied when the index indicates a concentration greater than or equal to a predetermined value, and that the predetermined condition is not satisfied when the index indicates a concentration less than a predetermined value. The collation apparatus as described in any one of -3.
さらに、前記画質評価部が前記所定の条件を満たすと判断した周波数成分に対し、前記縞方向に対応する周波数平面上の直線から所定の周波数以内の範囲に含まれない周波数成分を減弱させるバンドパスフィルタ処理を行う周波数フィルタ部を有し、
前記画像再構成部は、前記バンドパスフィルタ処理を行った周波数成分に基づいて画像を再構成する、請求項1〜4の何れか一項に記載の照合装置。
Further, a bandpass that attenuates a frequency component that is not included in a range within a predetermined frequency from a straight line on a frequency plane corresponding to the fringe direction with respect to the frequency component that the image quality evaluation unit determines to satisfy the predetermined condition. A frequency filter unit for performing a filtering process;
The collation apparatus according to any one of claims 1 to 4, wherein the image reconstruction unit reconstructs an image based on a frequency component subjected to the bandpass filter processing.
さらに、画像を複数の領域に分割する画像分割部と、該複数の領域に分割された画像を一つの画像に合成する画像合成部とを有し、
前記画像分割部は、前記画像入力部に入力された画像を縞模様が略平行な複数の直線とみなすことが可能な程度の複数領域に分割し、
前記周波数スペクトル解析部は、前記複数領域それぞれについて周波数スペクトルを求め、
前記周波数成分選択部は、前記複数領域それぞれについて、振幅の絶対値が所定の閾値以上である周波数成分を選択し、
前記画質評価部は、前記複数領域それぞれについて、選択された周波数成分が所定の条件を満たすか否かを調べ、
前記画像再構成部は、前記複数領域それぞれについて、選択された周波数成分が前記所定の条件を満たすと判断した場合、該選択された周波数成分に基づいて画像を再構成し、
前記画像合成部は、前記再構成された画像を一つに合成する、請求項1〜5の何れか一項に記載の照合装置。
And an image dividing unit that divides the image into a plurality of regions, and an image combining unit that combines the images divided into the plurality of regions into one image,
The image dividing unit divides the image input to the image input unit into a plurality of regions that can be regarded as a plurality of straight lines with stripe patterns substantially parallel,
The frequency spectrum analysis unit obtains a frequency spectrum for each of the plurality of regions,
The frequency component selection unit selects, for each of the plurality of regions, a frequency component whose absolute value of amplitude is a predetermined threshold or more,
The image quality evaluation unit examines whether or not the selected frequency component satisfies a predetermined condition for each of the plurality of regions,
When the image reconstruction unit determines that the selected frequency component satisfies the predetermined condition for each of the plurality of regions, the image reconstruction unit reconstructs an image based on the selected frequency component,
The collation apparatus according to any one of claims 1 to 5, wherein the image synthesis unit synthesizes the reconstructed images into one.
JP2006027595A 2006-02-03 2006-02-03 Image collation device including striped pattern Expired - Fee Related JP4931426B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006027595A JP4931426B2 (en) 2006-02-03 2006-02-03 Image collation device including striped pattern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006027595A JP4931426B2 (en) 2006-02-03 2006-02-03 Image collation device including striped pattern

Publications (2)

Publication Number Publication Date
JP2007202912A true JP2007202912A (en) 2007-08-16
JP4931426B2 JP4931426B2 (en) 2012-05-16

Family

ID=38482909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006027595A Expired - Fee Related JP4931426B2 (en) 2006-02-03 2006-02-03 Image collation device including striped pattern

Country Status (1)

Country Link
JP (1) JP4931426B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009060546A1 (en) * 2007-11-09 2009-05-14 Fujitsu Limited Biological information acquiring device, biological information accruing method, biological information acquiring program, and biometric authentication device
JP2009535687A (en) * 2006-04-26 2009-10-01 アウェア, インコーポレイテッド Fingerprint preview quality and subdivision
WO2011092827A1 (en) * 2010-01-28 2011-08-04 富士通株式会社 Biological-information processing device, biological-information processing method, and biological-information processing program
WO2013172311A1 (en) * 2012-05-14 2013-11-21 日立アロカメディカル株式会社 Ultrasound diagnostic device and image evaluation display method
EP2733642A2 (en) 2012-11-14 2014-05-21 Fujitsu Limited Biometric information correction apparatus, biometric information correction method and a computer-readable recording medium for biometric information correction
JP2014142881A (en) * 2013-01-25 2014-08-07 Fujitsu Ltd Image conversion device, image conversion method, biometric authentication device and biometric authentication method, and computer program for image conversion
EP2830003A2 (en) 2013-07-26 2015-01-28 Fujitsu Limited Image processing apparatus and method
CN103622692B (en) * 2013-11-13 2015-04-29 杭州电子科技大学 Palm impedance frequency spectrum measurement instrument based on resonant frequency
WO2017022548A1 (en) * 2015-07-31 2017-02-09 株式会社ディー・ディー・エス Information processing program and information processing device
EP3142044A1 (en) 2015-09-10 2017-03-15 Fujitsu Limited Biometric authentication device and biometric authentication method
JP2020095644A (en) * 2018-12-14 2020-06-18 日本電気株式会社 Fingerprint collation device, image processing device, fingerprint collation system and program
CN113838139A (en) * 2021-08-13 2021-12-24 北京极豪科技有限公司 Parameter detection method and device of image sensor, electronic equipment and storage medium
CN116336934A (en) * 2023-05-31 2023-06-27 北京航空航天大学 Method and device for improving laser interferometry precision

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106709396B (en) * 2015-07-27 2020-04-24 联想(北京)有限公司 Fingerprint image registration method and fingerprint image registration device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288672A (en) * 2001-03-26 2002-10-04 Nec Corp Device and method for processing finger print and palm print image
JP2005010842A (en) * 2003-06-16 2005-01-13 Mitsubishi Electric Corp Banded pattern extraction system and line pattern extraction method
JP2005115548A (en) * 2003-10-06 2005-04-28 Nippon Telegr & Teleph Corp <Ntt> Image processor, image processing method, image processing program, and recording medium recorded with it program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002288672A (en) * 2001-03-26 2002-10-04 Nec Corp Device and method for processing finger print and palm print image
JP2005010842A (en) * 2003-06-16 2005-01-13 Mitsubishi Electric Corp Banded pattern extraction system and line pattern extraction method
JP2005115548A (en) * 2003-10-06 2005-04-28 Nippon Telegr & Teleph Corp <Ntt> Image processor, image processing method, image processing program, and recording medium recorded with it program

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9405957B2 (en) 2006-04-26 2016-08-02 Aware, Inc. Fingerprint preview quality and segmentation
US9152843B2 (en) 2006-04-26 2015-10-06 Aware, Inc. Fingerprint preview quality and segmentation
US9792483B2 (en) 2006-04-26 2017-10-17 Aware, Inc. Fingerprint preview quality and segmentation
US10325137B2 (en) 2006-04-26 2019-06-18 Aware, Inc. Fingerprint preview quality and segmentation
US8452060B2 (en) 2006-04-26 2013-05-28 Aware, Inc. Fingerprint preview quality and segmentation
JP2009535687A (en) * 2006-04-26 2009-10-01 アウェア, インコーポレイテッド Fingerprint preview quality and subdivision
US9031291B2 (en) 2006-04-26 2015-05-12 Aware, Inc. Fingerprint preview quality and segmentation
US11250239B2 (en) 2006-04-26 2022-02-15 Aware, Inc. Fingerprint preview quality and segmentation
US9626548B2 (en) 2006-04-26 2017-04-18 Aware, Inc. Fingerprint preview quality and segmentation
US10083339B2 (en) 2006-04-26 2018-09-25 Aware, Inc. Fingerprint preview quality and segmentation
US10776604B2 (en) 2006-04-26 2020-09-15 Aware, Inc. Fingerprint preview quality and segmentation
US8295560B2 (en) 2007-11-09 2012-10-23 Fujitsu Limited Biometric information obtainment apparatus, biometric information obtainment method, computer-readable recording medium on or in which biometric information obtainment program is recorded, and biometric authentication apparatus
WO2009060546A1 (en) * 2007-11-09 2009-05-14 Fujitsu Limited Biological information acquiring device, biological information accruing method, biological information acquiring program, and biometric authentication device
JP5482803B2 (en) * 2010-01-28 2014-05-07 富士通株式会社 Biological information processing apparatus, biological information processing method, and biological information processing program
US9607204B2 (en) 2010-01-28 2017-03-28 Fujitsu Limited Biometric information processing apparatus, method, and recording medium
WO2011092827A1 (en) * 2010-01-28 2011-08-04 富士通株式会社 Biological-information processing device, biological-information processing method, and biological-information processing program
WO2013172311A1 (en) * 2012-05-14 2013-11-21 日立アロカメディカル株式会社 Ultrasound diagnostic device and image evaluation display method
EP2733642A2 (en) 2012-11-14 2014-05-21 Fujitsu Limited Biometric information correction apparatus, biometric information correction method and a computer-readable recording medium for biometric information correction
US9202104B2 (en) 2012-11-14 2015-12-01 Fujitsu Limited Biometric information correction apparatus, biometric information correction method and computer-readable recording medium for biometric information correction
JP2014099039A (en) * 2012-11-14 2014-05-29 Fujitsu Ltd Biological information correction device, biological information correction method and computer program for biological information correction
JP2014142881A (en) * 2013-01-25 2014-08-07 Fujitsu Ltd Image conversion device, image conversion method, biometric authentication device and biometric authentication method, and computer program for image conversion
US9483710B1 (en) 2013-07-26 2016-11-01 Fujitsu Limited Image processing apparatus and method
EP2830003A2 (en) 2013-07-26 2015-01-28 Fujitsu Limited Image processing apparatus and method
US9405956B2 (en) 2013-07-26 2016-08-02 Fujitsu Limited Image processing apparatus and method
CN103622692B (en) * 2013-11-13 2015-04-29 杭州电子科技大学 Palm impedance frequency spectrum measurement instrument based on resonant frequency
JPWO2017022548A1 (en) * 2015-07-31 2018-05-17 株式会社ディー・ディー・エス Information processing program and information processing apparatus
KR20180035824A (en) * 2015-07-31 2018-04-06 가부시끼가이샤 디디에스 Information processing program and information processing device
US10430629B2 (en) 2015-07-31 2019-10-01 Kabushiki Kaisha Dds Non-transitory computer-readable medium storing information processing program and information processing device
CN107851313A (en) * 2015-07-31 2018-03-27 株式会社Dds Message handling program and information processor
CN107851313B (en) * 2015-07-31 2021-04-27 株式会社Dds Computer readable medium and information processing apparatus
WO2017022548A1 (en) * 2015-07-31 2017-02-09 株式会社ディー・ディー・エス Information processing program and information processing device
KR102457004B1 (en) 2015-07-31 2022-10-21 가부시끼가이샤 디디에스 Information processing programs and information processing devices
EP3142044A1 (en) 2015-09-10 2017-03-15 Fujitsu Limited Biometric authentication device and biometric authentication method
JP2020095644A (en) * 2018-12-14 2020-06-18 日本電気株式会社 Fingerprint collation device, image processing device, fingerprint collation system and program
JP7205208B2 (en) 2018-12-14 2023-01-17 日本電気株式会社 Fingerprint matching device, image processing device, fingerprint matching system, fingerprint matching method and program
CN113838139A (en) * 2021-08-13 2021-12-24 北京极豪科技有限公司 Parameter detection method and device of image sensor, electronic equipment and storage medium
CN116336934A (en) * 2023-05-31 2023-06-27 北京航空航天大学 Method and device for improving laser interferometry precision
CN116336934B (en) * 2023-05-31 2023-08-01 北京航空航天大学 Method and device for improving laser interferometry precision

Also Published As

Publication number Publication date
JP4931426B2 (en) 2012-05-16

Similar Documents

Publication Publication Date Title
JP4931426B2 (en) Image collation device including striped pattern
US6876757B2 (en) Fingerprint recognition system
US11557146B2 (en) Biological pattern information processing device, biological pattern information processing method, and program
US9202104B2 (en) Biometric information correction apparatus, biometric information correction method and computer-readable recording medium for biometric information correction
KR101314945B1 (en) Fake finger determination device
JP4305431B2 (en) Image processing apparatus, mask creation method and program
KR102313794B1 (en) Method of validation of the use of a real finger as support of a fingerprint
El-Sisi Design and implementation biometric access control system using fingerprint for restricted area based on gabor filter.
WO2002071316A1 (en) Non-contact type human iris recognition method by correction of rotated iris image
Win et al. Fingerprint recognition system for low quality images
US10853621B2 (en) Dermal image information processing device, dermal image information processing method, and program
KR102174083B1 (en) Apparatus and method for biometrics using finger vein feature based on deep learing
KR101601187B1 (en) Device Control Unit and Method Using User Recognition Information Based on Palm Print Image
JP4776385B2 (en) Fingerprint image generator
Tukur Fingerprint recognition and matching using Matlab
KR100489430B1 (en) Recognising human fingerprint method and apparatus independent of location translation , rotation and recoding medium recorded program for executing the method
JP4776384B2 (en) Fingerprint image generator
Iwasokun et al. A multi-level model for fingerprint image enhancement
KR20070076187A (en) Fingerprint recognition method
KR100607580B1 (en) Direction filtering method in algorithm for extracting fingerprint minutiae
JP2007179267A (en) Pattern matching device
Kovac et al. Multimodal biometric system based on fingerprint and finger vein pattern
EP3627380B1 (en) A method of verifying the acquisition of an individual&#39;s biometric data
Ahmad et al. Human identity verification via automated analysis of fingerprint system features
Omran et al. Comparative study of fingerprint image enhancement methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120214

R150 Certificate of patent or registration of utility model

Ref document number: 4931426

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150224

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees