JP2006318309A - Information processing method, information processor, computer program, and storage medium - Google Patents

Information processing method, information processor, computer program, and storage medium Download PDF

Info

Publication number
JP2006318309A
JP2006318309A JP2005141830A JP2005141830A JP2006318309A JP 2006318309 A JP2006318309 A JP 2006318309A JP 2005141830 A JP2005141830 A JP 2005141830A JP 2005141830 A JP2005141830 A JP 2005141830A JP 2006318309 A JP2006318309 A JP 2006318309A
Authority
JP
Japan
Prior art keywords
information
image
fingerprint
conversion
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005141830A
Other languages
Japanese (ja)
Inventor
Junichi Hoshi
淳一 星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005141830A priority Critical patent/JP2006318309A/en
Publication of JP2006318309A publication Critical patent/JP2006318309A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide fingerprint matching technology eliminating the necessity of advanced resources and having a high matching rate. <P>SOLUTION: An information processing method is provided with: an acquisition process for acquiring an image to be matched and user's identification information; a conversion process for applying prescribed conversion processing to the image to be matched which is acquired by the acquisition process; a reading process for reading out coordinate information corresponding to the identification information acquired by the acquisition process and matching information from a storage means in which the user's identification information, the coordinate information indicating a two-dimensional information position to be compared and the matching information of the two-dimensional information position indicated by the coordinate information are stored in relation with each other; and a judgment process for judging whether the image to be matched is an image corresponding to the identification information or not on the basis of the information of the two-dimensional information position indicated by the coordinate information of the image converted by the conversion process and the matching information corresponding to the two-dimensional information position. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は指紋照合により個人を識別する技術に関する。   The present invention relates to a technique for identifying an individual by fingerprint verification.

従来より、生体情報を用いて個人を識別するいわゆるバイオメトリクス認証の一つとして、指紋認証の技術が知られている。指紋認証には、個人を識別するVerification(認証)と、個人の属性を識別するIdentification(識別、同定)とが有る。   2. Description of the Related Art Conventionally, fingerprint authentication technology is known as one of so-called biometric authentication for identifying an individual using biometric information. Fingerprint authentication includes verification for identifying an individual and identification for identifying an attribute of the individual.

指紋認証は、所定の指紋画像取得センサを用いて指紋画像を取得し、取得した画像情報に画像処理を施して、同定、認証等を行うことにより実現される。   Fingerprint authentication is realized by acquiring a fingerprint image using a predetermined fingerprint image acquisition sensor, performing image processing on the acquired image information, and performing identification, authentication, and the like.

従来より、指紋画像の画像処理に関する手法が知られている。例えば、登録された指紋画像と入力された比較指紋画像とを直接比較してその同一性を判定する手法として、パターンマッチング法が知られている。この方式によれば、指紋を登録した時からの指の状態の変化が小さい期間においては良好な照合率が得られる。   Conventionally, methods related to image processing of fingerprint images are known. For example, a pattern matching method is known as a method for directly comparing a registered fingerprint image with an input comparison fingerprint image and determining the identity thereof. According to this method, a good collation rate can be obtained in a period in which the change in the state of the finger from when the fingerprint is registered is small.

また、指紋画像を直接比較するのではなく、指紋画像から特徴量を抽出し、抽出された特徴量同士を比較する手法も知られている。   There is also known a method of extracting feature amounts from fingerprint images and comparing the extracted feature amounts with each other instead of directly comparing the fingerprint images.

このような手法として、特徴量として指紋の特徴点(隆線の端点や分岐点等、マニューシャと呼ぶ)を比較する、マニューシャ法(特徴点比較法)が知られている。これは、高精度な照合率を得る事が可能である。   As such a technique, a minutiae method (feature point comparison method) is known in which feature points of fingerprints (such as ridge end points and branch points are called minutiae) are compared as feature amounts. This makes it possible to obtain a highly accurate collation rate.

また、指紋紋様をスライスした断面を波形と見なし、波形スペクトルの系列を特徴量として登録・照合する周波数解析法が知られている。   Further, a frequency analysis method is known in which a section obtained by slicing a fingerprint pattern is regarded as a waveform, and a waveform spectrum series is registered and verified as a feature amount.

周波数解析法に含まれる手法として、指紋画像に対して、周波数スペクトルの個々のピークを分離し強調する特性を有する一次元群遅延スペクトル変換を行い、得られた群遅延スペクトル(GDS)を特徴量として指紋の照合に用いる方法が知られている(特許文献1)。   As a method included in the frequency analysis method, one-dimensional group delay spectrum conversion is performed on fingerprint images with the characteristic of separating and emphasizing individual peaks of the frequency spectrum, and the obtained group delay spectrum (GDS) is used as a feature quantity. A method used for matching fingerprints is known (Patent Document 1).

また、周波数解析法に含まれる手法として、照合指紋画像の中心位置を検出し、中心位置を通る予め定めた複数の直線状の画素の明暗信号を検出して、これを時間・周波数領域に変換して処理を行う方法も知られている(特許文献2)。
特許第3057590号公報 特開2000−348178号公報
In addition, as a method included in the frequency analysis method, the center position of the verification fingerprint image is detected, and the light / dark signals of a plurality of predetermined linear pixels passing through the center position are detected and converted to the time / frequency domain. A method for performing the processing is also known (Patent Document 2).
Japanese Patent No. 3057590 JP 2000-348178 A

しかし、パターンマッチング法は指紋画像を直接比較するため、指紋の経時的な変化に対応することができず、単純なパターンマッチング法によっては良好な照合率を得ることができない。また、パターンマッチング法による構成は、保持及び取得すべきデータ量が大きく、大容量のメモリを要する。   However, since the pattern matching method directly compares fingerprint images, the pattern matching method cannot cope with changes in the fingerprint over time, and a good matching rate cannot be obtained by a simple pattern matching method. The configuration based on the pattern matching method requires a large amount of data to be stored and acquired and requires a large capacity memory.

また、マニューシャ法は高精度な照合率を得る事が可能であるが、指紋情報の局部的な箇所について比較を行うため、指紋のかすれや残留指紋に弱いという欠点がある。また、高度な演算処理を行うため、マニューシャ法による構成は高度な演算リソース(処理能力、メモリ量、システムコスト、消費電力等)が要求される。   The minutiae method can obtain a high accuracy collation rate, but has a drawback that it is weak against fingerprint fading and residual fingerprints because comparison is made with respect to local portions of fingerprint information. In addition, in order to perform advanced calculation processing, the configuration based on the minutiae method requires high calculation resources (processing capacity, memory amount, system cost, power consumption, etc.).

また、周波数解析法による構成は、マニューシャ法ほど照合率が高くないことが問題である。   Also, the frequency analysis method has a problem that the collation rate is not as high as that of the minutiae method.

以上のように、従来の手法によっては、高い照合率を得るためには高度な演算リソースを必要としていた。   As described above, depending on the conventional method, a high computational resource is required to obtain a high verification rate.

本発明は上記問題に鑑みなされたものであり、高度なリソースが不要な、照合率の高い指紋照合の技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a fingerprint collation technique with a high collation rate that does not require advanced resources.

本発明によれば、
照合対象の画像とユーザの識別情報とを取得する取得工程と、
前記取得工程において取得された前記照合対象の画像に対して所定の変換処理を施す変換工程と、
ユーザの識別情報と、比較すべき2次元情報位置を示す座標情報と、該座標情報によって示される2次元情報位置の照合情報とが関連づけて記憶された記憶手段より、前記取得工程において取得された前記識別情報に対応する前記座標情報と前記照合情報とを読み出す読出工程と、
前記変換工程において変換された前記画像の前記座標情報によって示される2次元情報位置の情報と、当該2次元情報位置に対応する前記照合情報とに基づいて、前記照合対象の画像が前記識別情報に対応する画像であるか否かを判定する判定工程とを備えることを特徴とする情報処理方法が提供される。
According to the present invention,
An acquisition step of acquiring an image to be verified and identification information of the user;
A conversion step of performing a predetermined conversion process on the image to be collated acquired in the acquisition step;
Acquired in the acquisition step from the storage means in which the identification information of the user, the coordinate information indicating the two-dimensional information position to be compared, and the collation information of the two-dimensional information position indicated by the coordinate information are stored in association with each other. A step of reading out the coordinate information and the verification information corresponding to the identification information;
Based on the two-dimensional information position information indicated by the coordinate information of the image converted in the conversion step and the matching information corresponding to the two-dimensional information position, the image to be collated is used as the identification information. An information processing method comprising: a determination step of determining whether or not the image is a corresponding image.

本発明によれば、高度なリソースが不要な、照合率の高い指紋照合の技術を提供することができる。   According to the present invention, it is possible to provide a fingerprint matching technique with a high matching rate that does not require advanced resources.

以下、添付図面を参照して本発明に係る実施の形態を詳細に説明する。ただし、この実施の形態に記載されている構成要素はあくまでも例示であり、本発明の範囲をそれらのみに限定する趣旨のものではない。   Embodiments according to the present invention will be described below in detail with reference to the accompanying drawings. However, the constituent elements described in this embodiment are merely examples, and are not intended to limit the scope of the present invention only to them.

<<第1実施形態>>
(機器構成)
本実施形態において指紋画像の照合処理を行う装置の構成について図3を参照して説明する。図3は、本実施形態において指紋画像の照合処理を行う情報処理装置(以下、指紋照合装置)のハードウェア構成を示した図である。
<< First Embodiment >>
(Equipment configuration)
A configuration of an apparatus that performs fingerprint image matching processing in the present embodiment will be described with reference to FIG. FIG. 3 is a diagram showing a hardware configuration of an information processing apparatus (hereinafter referred to as a fingerprint collation apparatus) that performs fingerprint image collation processing in the present embodiment.

図3において、31は、指紋の画像を撮像し、指紋隆線の形状を取得する撮像センサである。撮像センサ31は、光学式、容量検出式、電界検出式、電荷注入式、感熱式等の方式により実現される。撮像センサ31は、例えば、2次元エリア状や1次元ライン状の形状をとるが、本実施形態においては、2次元エリア状のものを採用した場合について述べる。また、以下、説明の簡略化のため、センサ31の画素ピッチは縦横90μmであり、画素数は256×256画素=65536画素であるものとして説明するが、本発明に係る実施形態はこれに限られるわけではない。   In FIG. 3, reference numeral 31 denotes an image sensor that captures a fingerprint image and acquires the shape of the fingerprint ridge. The image sensor 31 is realized by a system such as an optical system, a capacitance detection system, an electric field detection system, a charge injection system, and a thermal system. The imaging sensor 31 takes, for example, a two-dimensional area shape or a one-dimensional line shape. In the present embodiment, a case where a two-dimensional area shape is adopted will be described. In addition, hereinafter, for simplification of description, it is assumed that the pixel pitch of the sensor 31 is 90 μm in length and width and the number of pixels is 256 × 256 pixels = 65536 pixels, but the embodiment according to the present invention is not limited thereto. It is not done.

32は撮像センサ31の動作を制御するセンサ制御回路であり、後述するCPU36の制御に基づいて動作する。33は撮像センサ31から出力されるフレーム画像をストア(格納)する為のフレームメモリである。   Reference numeral 32 denotes a sensor control circuit that controls the operation of the image sensor 31 and operates based on the control of a CPU 36 to be described later. Reference numeral 33 denotes a frame memory for storing a frame image output from the image sensor 31.

34はデータバスであり、指紋照合装置内のデータの流れを司るものである。35は、データバス34の動作を制御するバスコントローラであり、後述するCPU36の制御に基づいて動作する。   A data bus 34 controls the data flow in the fingerprint collation device. Reference numeral 35 denotes a bus controller that controls the operation of the data bus 34, and operates based on the control of the CPU 36 described later.

36は装置全体の動作を制御するCPUであり、後述するメモリ37に格納されている制御プログラム等を実行する。CPU36は、例えば、フレームメモリ33に格納された指紋画像情報を適宜加工、変形し、後述するメモリ37に格納する制御を行う。   A CPU 36 controls the operation of the entire apparatus, and executes a control program and the like stored in a memory 37 described later. For example, the CPU 36 performs processing for appropriately processing and transforming the fingerprint image information stored in the frame memory 33 and storing it in the memory 37 described later.

37はメモリであり、基本I/Oプログラム等のプログラムや各種データ等を記憶するROMとしての機能と、指紋画像の特徴量等の各種データを一時記憶しCPU36の制御に基づいてワークエリア等として動作するRAMとしての機能を有する。本実施形態においては、メモリ37とフレームメモリ33とが異なる構成について述べるが、メモリ37とフレームメモリ33とを同一のメモリ装置として実現してもよい。フレームメモリ33及びメモリ37は、一般的には、半導体記憶装置により実現されるが、例えば、ハードディスク装置等の外部記憶装置により実現してもよい。或いは、フレキシブルディスク(FD)、CD−ROM、CD−R、CD−RW、PCカード、DVD、ICメモリカード、MO、メモリスティック等のメディアと、メディアへのアクセスを実現するための外部記憶ドライブとによって実現してもよい。   Reference numeral 37 denotes a memory, which functions as a ROM for storing programs such as basic I / O programs and various data, and various data such as feature values of fingerprint images, and serves as a work area based on the control of the CPU 36. It has a function as an operating RAM. In the present embodiment, a configuration in which the memory 37 and the frame memory 33 are different will be described. However, the memory 37 and the frame memory 33 may be realized as the same memory device. The frame memory 33 and the memory 37 are generally realized by a semiconductor storage device, but may be realized by an external storage device such as a hard disk device, for example. Or media such as a flexible disk (FD), CD-ROM, CD-R, CD-RW, PC card, DVD, IC memory card, MO, memory stick, and external storage drive for realizing access to the media It may be realized by.

(特徴量の登録処理)
本実施形態における指紋照合装置は、指紋の同定または認証(以下、両者をまとめて照合と呼ぶ)を行うユーザの指紋画像の特徴量を予め登録しておき、指紋照合を行う際にユーザの指紋画像を撮像し、得られた指紋画像の特徴量と登録された特徴量とを比較することにより指紋照合処理を実行する。そこで、次に、指紋画像の特徴量を登録する処理について図4〜10を参照して説明する。
(Feature registration process)
The fingerprint collation apparatus according to the present embodiment registers in advance the features of a fingerprint image of a user who performs fingerprint identification or authentication (hereinafter collectively referred to as collation), and performs the fingerprint collation when performing fingerprint collation. The fingerprint collation process is executed by capturing an image and comparing the feature quantity of the obtained fingerprint image with the registered feature quantity. Therefore, next, processing for registering the feature amount of the fingerprint image will be described with reference to FIGS.

図10は、特徴量の登録処理の概略を示すフローチャートである。尚、説明の便宜上、以下の処理は、例えば、パーソナルコンピュータ(PC)やワークステーション(WS)等の情報処理装置(以下、登録装置と呼ぶ)が実行するものとするが、指紋照合装置が実行してもよい。この登録装置は、指紋照合装置と同様に、図3に例示したような構成で、撮像センサ等を備えている。   FIG. 10 is a flowchart showing an outline of the feature amount registration processing. For convenience of explanation, the following processing is executed by an information processing device (hereinafter referred to as a registration device) such as a personal computer (PC) or a workstation (WS). May be. Similar to the fingerprint collation device, this registration device is configured as illustrated in FIG. 3 and includes an image sensor and the like.

まず、ステップS1001において、登録装置は、指紋の照合を行う全てのユーザから、それぞれ所定数の指紋画像を撮像センサを介して取得する。   First, in step S1001, the registration apparatus acquires a predetermined number of fingerprint images from all users who perform fingerprint verification, respectively, via an imaging sensor.

次に、ステップS1002において、取得した指紋画像それぞれについて、比較すべき指紋中心領域を切り出す処理を行う。   Next, in step S1002, for each acquired fingerprint image, a process for cutting out the fingerprint central region to be compared is performed.

まず、取得した画像全体で画像を2値化し、指紋隆線形状を求める。次に、隆線を1本の線状に変形する細線化の処理を行う。図11は、細線化した隆線を例示的に示した図である。図11において、111は、細線化した隆線である。   First, the entire acquired image is binarized to obtain a fingerprint ridge shape. Next, a thinning process for transforming the ridge into one line is performed. FIG. 11 is a diagram exemplarily showing a thinned ridge. In FIG. 11, 111 is a thin ridge.

次に、細線化した隆線から1以上の隆線を選択する。これは、例えば、予め定めた隆線をランダムに選択するようにする。図11において、112は選択された隆線である。
そして、選択した隆線上の点を1以上選択する。これは、例えば、選択された隆線上から一定の距離ごとに選択するようにする。図11において、P1、・・・、P6は選択された点の例である。
Next, one or more ridges are selected from the thinned ridges. For example, a predetermined ridge is selected at random. In FIG. 11, 112 is the selected ridge.
Then, one or more points on the selected ridge are selected. For example, the selection is made at regular intervals from the selected ridge. In FIG. 11, P 1 ,..., P 6 are examples of selected points.

次に、選択された各点について、その点を通り、その点における隆線の接線と直行する直線(以下、点における隆線の垂線と呼ぶ)を求める。例えば、P1における隆線の接線はl1であり、P1を通り直線l1と直交する直線、即ち、P1における隆線の垂線はm1である。同様に、l2、m2はそれぞれP2における隆線の接線、垂線である。 Next, for each selected point, a straight line that passes through the point and is perpendicular to the tangent line of the ridge at that point (hereinafter referred to as a perpendicular line of the ridge at the point) is obtained. For example, the tangent of the ridge in P 1 is l 1, a straight line perpendicular to the street straight l 1 to P 1, i.e., perpendicular ridges in P 1 is m 1. Similarly, l 2 and m 2 are the tangent and perpendicular to the ridge at P 2, respectively.

次に、選択された各点における隆線の垂線の全ての交点を求める。例えば、図11において、Q1は、垂線m1、m2の交点である。次に、垂線の全ての交点の重心を求める。 Next, all intersections of the ridge normals at each selected point are determined. For example, in FIG. 11, Q 1 is an intersection of perpendicular lines m 1 and m 2 . Next, the center of gravity of all intersections of perpendiculars is obtained.

以上の処理を所定の回数実行し、それぞれ算出される重心の座標の平均値を指紋中心の座標とする。そして、この指紋中心座標を中心として、撮像センサ31によって取得された指紋画像から指紋中心領域(例えば、大きさ128×128画素)を切り出す。更に、切り出された画像をメモリに格納するように制御する。尚、指紋中心領域を切り出す処理は上記に限られるものではなく、公知の手法によって行ってもよい。また、公知の手法等を用いて適宜回転補正等を行ってもよい。   The above processing is executed a predetermined number of times, and the average value of the calculated center of gravity coordinates is set as the fingerprint center coordinate. Then, a fingerprint center region (for example, a size of 128 × 128 pixels) is cut out from the fingerprint image acquired by the image sensor 31 around the fingerprint center coordinates. Further, control is performed so that the clipped image is stored in the memory. Note that the process of cutting out the fingerprint center region is not limited to the above, and may be performed by a known method. Further, rotation correction or the like may be appropriately performed using a known method or the like.

次に、ステップS1003において、ステップS1002において切り出された画像の全てについて、一度周波数変換し、その後に逆変換を行って空間座標に戻し複数の部分画像(サブ画像)から成る画像を得る処理か、或いは、空間解像度変換を行って画像を得る処理を行う。周波数変換の一例としては、JPEG2000で利用されているウェーブレット変換等が有る。ウェーブレットとは局所的な波の事であり、図5に例示するような母関数に基づいて変換を行う。図5は、ウェーブレット変換における母関数を例示的に示した図である。空間解像度変換を用いた画像フォーマットの一例としては、FlashPixフォーマット等が有る。本実施形態においては、そのような変換の一例として原始的なウェーブレット変換(つまりは解像度変換)を行う場合について述べるが、変換手法はこれに限られるわけではない。   Next, in step S1003, all the images cut out in step S1002 are frequency-transformed once, and then subjected to inverse transformation to return to spatial coordinates to obtain an image composed of a plurality of partial images (sub-images). Alternatively, processing for obtaining an image by performing spatial resolution conversion is performed. As an example of the frequency conversion, there is a wavelet conversion used in JPEG2000. A wavelet is a local wave and is converted based on a generating function as illustrated in FIG. FIG. 5 is a diagram exemplarily showing a generating function in the wavelet transform. An example of an image format using spatial resolution conversion is a FlashPix format. In this embodiment, the case of performing primitive wavelet transform (that is, resolution conversion) is described as an example of such conversion, but the conversion method is not limited to this.

登録装置は128×128画素の8ビット画像を以下のz変換式に従って、原始的なウェーブレット変換を行う。
Low(z)=(1+z)/2 ・・・(1)
High(z)=(1−z)/2 ・・・(2)
変換の順序は図4、あるいはJPEG2000と同様に、大きさ128角の画像41をまず各水平線(各行)方向に(1)、(2)式を適用して、低周波成分L、高周波成分Hに分離する。
The registration device performs primitive wavelet transform on a 128 × 128 pixel 8-bit image according to the following z-transform formula.
Low (z) = (1 + z) / 2 (1)
High (z) = (1-z) / 2 (2)
The order of conversion is the same as in FIG. 4 or JPEG2000. First, the image 41 having a size of 128 squares is first applied in the direction of each horizontal line (each row) by applying the formulas (1) and (2). To separate.

次いで各垂直線(各列)方向に同様に(1)、(2)式を再び適用して、低周波低周波成分LL、低周波高周波成分LH、高周波低周波成分HL、高周波高周波成分HHに分離する。この4つの成分が、前記画像41の1次成分42に相当する。   Next, the equations (1) and (2) are applied again in the direction of each vertical line (each column) in the same manner, and the low frequency low frequency component LL, the low frequency high frequency component LH, the high frequency low frequency component HL, and the high frequency high frequency component HH are applied. To separate. These four components correspond to the primary component 42 of the image 41.

次いで1次成分42の低周波低周波成分LLの領域の画素値のみに対して、同様の変換を施す。これにより前記画像41の4つの2次成分43が求まる。また前記2次成分43のLLに対して同様の変換を施すと、今度は前記画像41の3次成分44が求まる。   Next, the same conversion is performed only on the pixel value in the region of the low frequency component LL of the primary component 42. As a result, four secondary components 43 of the image 41 are obtained. If the same transformation is applied to the LL of the secondary component 43, the tertiary component 44 of the image 41 is obtained this time.

同様な操作を7回繰り返す事で、大きさ128角の変換前の画像41は最終的には7次の4つの成分(大きさ1×1画素)を持つ変換画像(フロート、32ビット)へと変換される。   By repeating the same operation seven times, the pre-conversion image 41 having a size of 128 is finally converted into a conversion image (float, 32 bits) having four seventh-order components (size 1 × 1 pixel). Is converted.

次に、ステップS1004において、ユーザ毎に、同一のユーザの指紋画像から得られた変換画像の各画素について、互いに差分量を求める処理を行う。即ち、同一ユーザについて撮像する指紋画像の枚数をM枚とし、あるユーザの指紋画像に対して、ステップS1003の処理を施して得られた変換画像をI1、I2、・・・、IMとする。このとき、
0<i<j≦M ・・・(3)
を満たす全ての整数(i,j)の組み合わせについて、IiとIjの対応する画素成分の差分の2乗量を、全ての画素成分について求める。つまり、変換された各画素値128×128=16384個に対して、以下の量(差分2乗量)
(Cik−Cjk2 ・・・(4)
を計算する。ここでCikは変換画像Iiのk番目の画素値であり、Cjkは変換画像Ijのk番目の画素値である。また、画素値は、画素の色に関するパラメータであり、例えば、明度や彩度、色合い等の値であるがこれに限られるわけではない。ユーザの人数をN人とすると、このような128×128=16384個の差分2乗量の組は、全体で
N×M2=N×M×(M−1)/2 ・・・(5)
個だけ有る事になる。
Next, in step S1004, for each user, a process of obtaining a difference amount for each pixel of the converted image obtained from the fingerprint image of the same user is performed. That is, the number of fingerprint images to be captured for the same user is M, and the converted images obtained by performing the processing of step S1003 on the fingerprint image of a certain user are I 1 , I 2 ,. And At this time,
0 <i <j ≦ M (3)
For all combinations of integers (i, j) that satisfy the above, the square amount of the difference between the corresponding pixel components of I i and I j is obtained for all the pixel components. That is, for each converted pixel value 128 × 128 = 16384, the following amount (square difference)
(C ik -C jk ) 2 (4)
Calculate Here, C ik is the k th pixel value of the converted image I i , and C jk is the k th pixel value of the converted image I j . The pixel value is a parameter related to the color of the pixel. For example, the pixel value is a value such as brightness, saturation, and hue, but is not limited thereto. Assuming that the number of users is N, such a set of 128 × 128 = 16384 difference squared quantities is N × M C 2 = N × M × (M−1) / 2. 5)
There will be only one.

次に、ステップS1005において、同一ユーザの変換画像から算出された差分2乗量の分布を画素毎に評価し、差分2乗量分布の平均値Xsと標準偏差σsに相当する量を画素毎に求める。平均値と標準偏差に相当する量は、従ってユーザ毎に前記各成分の個数、即ち、128×128=16384組だけ有る事になる。 Next, in step S1005, the distribution of the difference square amount calculated from the converted image of the same user is evaluated for each pixel, and the amount corresponding to the average value X s of the difference square amount distribution and the standard deviation σ s is determined as the pixel. Ask every time. Therefore, the amount corresponding to the average value and the standard deviation is the number of each component, that is, 128 × 128 = 16384 sets for each user.

図8は差分2乗量の分布を模式的に示した図である。図8において、横軸は特徴比較量としての差分2乗量の値であり、縦軸は同一の差分2乗量の値を持つサンプルの度数を示している。図8において、81は、同一ユーザの変換画像から算出された、ある画素についての差分2乗量の分布を示している。82は、後述するように、ステップS1006,1007で求める、異なるユーザの変換画像から算出された差分2乗量の分布を示している。   FIG. 8 is a diagram schematically showing the distribution of the difference squared amount. In FIG. 8, the horizontal axis represents the difference square amount value as the feature comparison amount, and the vertical axis represents the frequency of samples having the same difference square amount value. In FIG. 8, reference numeral 81 denotes a distribution of the difference square amount for a certain pixel calculated from the converted image of the same user. Reference numeral 82 denotes the distribution of the difference square amount calculated from the converted images of different users, which is obtained in steps S1006 and 1007, as will be described later.

次に、ステップS1006において、ユーザ毎に、そのユーザの変換画像の画素と、異なるユーザの変換画像の画素とについて、互いに差分量を求める処理を行う。即ち、同一ユーザについて撮像する指紋画像の枚数をM枚とし、ユーザ数をN人とすると、あるユーザのM枚の変換画像と、他の(N−1)人のユーザの(N−1)×M枚の変換画像との、対応する画素成分の差分の2乗量を、全ての成分について求める。このような128×128=16384個の差分2乗量の組は、全体で
N2×M×M=(N×(N−1)/2)×M2=M2×N×(N−1)/2 ・・・(6)
個だけ有る事になる。
Next, in step S <b> 1006, for each user, a process for obtaining a difference amount between the pixel of the converted image of the user and the pixel of the converted image of a different user is performed. That is, if the number of fingerprint images to be captured for the same user is M and the number of users is N, M converted images of one user and (N-1) of other (N-1) users. The square amount of the difference between the corresponding pixel components from the M converted images is obtained for all components. Such a set of 128 × 128 = 16384 difference square quantities is a total of
N C 2 × M × M = (N × (N−1) / 2) × M 2 = M 2 × N × (N−1) / 2 (6)
There will be only one.

次に、ステップS1007において、ステップS1006において算出されたユーザ毎の差分2乗量の分布を画素毎に評価し、差分2乗量分布の平均値Xdと標準偏差σdに相当する量を画素毎に求める。平均値と標準偏差に相当する量は、従ってユーザ毎に前記各成分の個数、即ち、128×128=16384組だけ有る事になる。図8における82は、81の分布と同一の画素について、そのユーザの変換画像と他のユーザの変換画像との差分2乗量の分布を例示的に示したものである。 Next, in step S1007, pixels an amount of the distribution of the differential 2 Noryou for each user calculated in step S1006 and rated for each pixel, corresponding to the average value X d and the standard deviation sigma d of the difference 2 Noryou distribution Ask every time. Therefore, the amount corresponding to the average value and the standard deviation is the number of each component, that is, 128 × 128 = 16384 sets for each user. Reference numeral 82 in FIG. 8 exemplarily shows the distribution of the square difference between the converted image of the user and the converted image of another user for the same pixel as the distribution 81.

尚、特徴比較量として差分2乗量を採用した構成について説明を行ってきたが、画素値の差分に依存する値であれば、他の値を用いて構成してもよい。   In addition, although the structure which employ | adopted the difference square amount as feature comparison amount has been demonstrated, as long as it is a value depending on the difference of a pixel value, you may comprise using another value.

次に、ステップS1008〜S1009において、各ユーザについて、16384組の(Xs,σs,Xd,σd)の値から、指紋同定、認証に利用する画素成分を抽出する処理を行う。 Next, in steps S1008 to S1009, for each user, a process of extracting pixel components used for fingerprint identification and authentication from 16384 sets of (X s , σ s , X d , σ d ) is performed.

ここで、
1)同一指紋間比較分布81と非同一指紋間比較分布82との距離が離れており、
2)両分布の重なりが小さい
という特性を満たす画素成分ほど、本人と他人を混同する確率が低いと言え、良好な指紋特徴量であると考えられる。このため、ステップS1008において、16384組の(Xs,σs,Xd,σd)の値について、以下に示すような判定値Dを計算する。
D=|Xd−Xs|/(3×(σs+σd)) ・・・(7)
分子は1)に記載の両分布の距離に相当する量である。分母は両分布の幅の広がりを表している。両分布の幅が広くなると両分布が重なるようになり、照合率、即ち、本人拒否率、他人受け入れ率等が悪化するようになる。
here,
1) The distance between the comparison distribution 81 between the same fingerprints and the comparison distribution 82 between the non-identical fingerprints is separated,
2) It can be said that the pixel component that satisfies the characteristic that the overlap between both distributions is small has a low probability of confusion between the person and the other person, and is considered to be a good fingerprint feature amount. Therefore, in step S1008, a determination value D as shown below is calculated for 16384 sets of (X s , σ s , X d , σ d ).
D = | X d −X s | / (3 × (σ s + σ d )) (7)
The numerator is an amount corresponding to the distance between both distributions described in 1). The denominator represents the breadth of both distributions. When the widths of both distributions are widened, the two distributions overlap, and the collation rate, that is, the person rejection rate, the other person acceptance rate, and the like deteriorate.

次に、ステップS1009において、判定値Dが上位のものから順に一定数Kの画素成分を選択し、選択した画素成分の座標(x1,y1)、(x2,y2)、・・・、(xK,yK)を特徴ベクトル座標(位置座標)として記憶保持する。或いは、Dの値が一定値以上の画素成分の座標を特徴ベクトル座標として選択するようにしてもよい。 Next, in step S1009, a predetermined number K of pixel components are selected in descending order of the determination value D, and the coordinates (x 1 , y 1 ), (x 2 , y 2 ) of the selected pixel components,. ·, and stores and holds as (x K, y K) the feature vector coordinates (position coordinates). Alternatively, the coordinates of a pixel component having a D value equal to or greater than a certain value may be selected as the feature vector coordinates.

図6は判定値D値を、0≦x≦15、0≦y≦15の領域について例示的に示した図である。図6において、横方向はx方向、縦方向はy方向、左上が原点(0,0)である。図6では、判定値Dの値が0.03以上の画素成分の座標を特徴ベクトル座標として選択している。図6において、網掛け部分で示した項が、Dの値が0.03以上の値を示す画素成分である。図6中には計69個存在している。この例では、不図示の領域に1個Dの値が0.03以上の値を示す座標が存在し、大きさ128角の全体画像では計70個(69+1個)存在するものとする。この例では、このようにして抽出されたK=70個の座標に該当する画素成分を指紋の特徴量として比較に用いる。   FIG. 6 is a diagram exemplarily showing the determination value D in the region where 0 ≦ x ≦ 15 and 0 ≦ y ≦ 15. In FIG. 6, the horizontal direction is the x direction, the vertical direction is the y direction, and the upper left is the origin (0, 0). In FIG. 6, the coordinates of a pixel component having a determination value D of 0.03 or more are selected as feature vector coordinates. In FIG. 6, a term indicated by a shaded portion is a pixel component that indicates a value of D of 0.03 or more. There are a total of 69 in FIG. In this example, it is assumed that there are coordinates where the value of 1 D is 0.03 or more in an unillustrated area, and there are a total of 70 (69 + 1) in the entire 128-square image. In this example, pixel components corresponding to K = 70 coordinates extracted in this way are used for comparison as fingerprint feature values.

本実施形態においては、次のような式により特徴ベクトルの各成分を重み付けした値と、所定の閾値との大小を比較することにより、指紋照合の判定を行う。
Ctot=Σαk×(Crk−Csk)2 ・・・(8)
ここでCskはステップS1009で抽出した特徴ベクトル座標の、k番目の成分に相当する座標における、変換画像の画素値の平均値である。また、Crkは比較する指紋画像から抽出した、対応する座標における画素値である。(線形)係数αkはこの差分二乗項に掛かる係数である。またΣは、計K個の特徴ベクトルの成分kについて取られる。この場合、係数αkについて、前記成分kが前記指紋の特徴を良く表しているものほど大きく設定すると、特徴量比較の信頼性を高めることができる。
In this embodiment, the fingerprint collation is determined by comparing the value obtained by weighting each component of the feature vector with the following formula and the predetermined threshold.
Ctot = Σαk × (Crk−Csk) 2 (8)
Here, Csk is the average value of the pixel values of the converted image at the coordinates corresponding to the k-th component of the feature vector coordinates extracted in step S1009. Crk is a pixel value at a corresponding coordinate extracted from a fingerprint image to be compared. The (linear) coefficient αk is a coefficient applied to the difference square term. Σ is taken for a total of K feature vector components k. In this case, if the coefficient αk is set larger as the component k better represents the feature of the fingerprint, the reliability of feature quantity comparison can be improved.

そこで、ステップS1010において、ステップS1009で抽出した特徴ベクトルの係数αkを最適化する処理を行う。係数αkを最適化する方法は、どのような方法を採用してもよいが、ここでは例として2つの方法を説明する。   Therefore, in step S1010, processing for optimizing the coefficient αk of the feature vector extracted in step S1009 is performed. Any method may be adopted as a method for optimizing the coefficient αk, but here, two methods will be described as examples.

1つは(7)式の判定値(7)を利用する方法である。(7)式で示した判定値Dが大きいほどその成分は指紋の特徴を良く表していると言ってよい。従ってそのような成分の係数には、大きな値を割り付けるようにする。   One is a method using the judgment value (7) of the equation (7). It can be said that the larger the determination value D shown in equation (7), the better the component represents the characteristics of the fingerprint. Therefore, a large value is assigned to the coefficient of such a component.

例えばDの値を仮にD(x,y)と書いて、128×128個の成分の関数である事を明示し、線形係数αkを
αk(x,y)=D(x,y) ・・・(9)
とする。即ち、D(x,y)の値が大きいほど指紋の特徴が良く現れた成分であると考えられることから、これを(8)式で表される指紋比較量Ctotの計算に反映させる訳である。
For example, if the value of D is written as D (x, y), it is clearly shown that it is a function of 128 × 128 components, and the linear coefficient αk is expressed as αk (x, y) = D (x, y).・ (9)
And That is, it is considered that the larger the value of D (x, y), the more the characteristic of the fingerprint appears. Therefore, this is reflected in the calculation of the fingerprint comparison amount Ctot expressed by the equation (8). is there.

もう1つの方法は、係数αkを変えた場合の照合率の変化を予め指紋ライブラリを用いて測定しておき、その結果から最小二乗法等によって最適な線形係数αkの組み合わせを求めるものである。   The other method is to measure a change in collation rate when the coefficient αk is changed in advance using a fingerprint library, and obtain an optimum combination of linear coefficients αk by the least square method or the like from the result.

例えば、同一指紋間比較分布でのCtot((8)式)の値をCsとし、非同一指紋間比較分布でのCtotの値をCdとすると、
Cd(ak)/Cs(ak)=max(Cd/Cs) ・・・(10)
が成り立つはずである。ここでakは理想的なαkの値である。
これを各akで微分すると、
δ(Cd/Cs)/δak=((C’d×Cs−Cd×C’s)/Cs2) =0 ・・・(11)
∴C’d×Cs−Cd×C’s=0 ・・・(12)
が成り立つはずである。
For example, if the value of Ctot (equation (8)) in the same fingerprint comparison distribution is Cs and the value of Ctot in the non-identical fingerprint comparison distribution is Cd,
Cd (ak) / Cs (ak) = max (Cd / Cs) (10)
Should hold. Here, ak is an ideal value of αk.
Differentiating this by each ak,
δ (Cd / Cs) / δak = ((C′d × Cs−Cd × C ′s) / Cs 2 ) = 0 (11)
∴ C′d × Cs−Cd × C ′s = 0 (12)
Should hold.

この(12)式を用いて、αkを求めることで、αkの値を最適化する事ができる。これらの値は登録処理の際に一度最適化しておけばよく、指紋照合の際に特に処理時間を要したり、また新たにリソースを必要とする処理ではない。線形係数αkの格納には、高々70×4=280バイトを必要とするだけである。   The value of αk can be optimized by obtaining αk using the equation (12). These values only need to be optimized once during the registration process, and are not processes that particularly require processing time or newly require resources during fingerprint matching. The storage of the linear coefficient αk only requires at most 70 × 4 = 280 bytes.

例えば、上記の方法によってαkを最適化することにより、照合率を高めることができる。   For example, the collation rate can be increased by optimizing αk by the above method.

次に、ステップS1011において、式(8)により求められる値と大小を比較し、指紋照合の判定に用いる閾値を求める。この閾値の導出について、図9を参照して説明する。図9は、指紋比較を行う際の指紋特徴量(差分2乗量)の分布を例示的に示した図である。   Next, in step S1011, the value obtained by the equation (8) is compared with the magnitude to obtain a threshold value used for fingerprint collation determination. The derivation of the threshold will be described with reference to FIG. FIG. 9 is a diagram exemplarily showing a distribution of fingerprint feature amounts (difference squared amounts) when fingerprint comparison is performed.

図9において、横軸、縦軸、81、82はそれぞれ図8と同様である。図9においてVthは、ステップS1009で選択されたK個の画素のうちの1つについての、指紋照合の判定に用いられる閾値である。91は、差分2乗量が閾値Vthより大きい、同一指紋間比較分布81の領域を示しており、領域91においては、本人が拒否される、即ち、正当なユーザの指紋が正当でないユーザの指紋と判定されることになる。一方、92は、差分2乗量が閾値Vthより小さい、非同一指紋間比較分布82の領域を示しており、領域92においては、他人が受け入れられる、即ち、正当でないユーザの指紋が正当なユーザの指紋と判定されることになる。従って、領域91及び領域92の面積がそれぞれ小さくなるように閾値Vthを選択することが望ましい。そこで、例えば、同一指紋間比較分布81と、非同一指紋間比較分布82とが交わる点の差分2乗量を閾値Vthとする。   In FIG. 9, the horizontal axis, the vertical axis, and 81 and 82 are the same as those in FIG. In FIG. 9, Vth is a threshold value used for determination of fingerprint collation for one of the K pixels selected in step S1009. Reference numeral 91 denotes an area of the same fingerprint comparison distribution 81 in which the difference square amount is larger than the threshold value Vth. In the area 91, the principal is rejected, that is, the fingerprint of the user whose legitimate user is not legitimate. It will be determined. On the other hand, reference numeral 92 denotes an area of the non-identical fingerprint comparison distribution 82 in which the difference square amount is smaller than the threshold value Vth. In the area 92, another person is accepted, that is, a user whose legitimate user's fingerprint is valid. It will be determined as a fingerprint. Therefore, it is desirable to select the threshold value Vth so that the areas of the region 91 and the region 92 are reduced. Therefore, for example, the difference square amount at the point where the comparison distribution 81 between the same fingerprints and the comparison distribution 82 between the non-identical fingerprints intersect is set as the threshold value Vth.

ステップS1009で選択されたK個の画素の全てについて、上記に例示したような方法によって閾値Vth(V1,V2,・・・,VKとする)をそれぞれ求める。そして、以下の式で得られる値Vtotを差分2乗量の総和Ctotの閾値とする。
Vtot=Σαk×(Crk−Csk)2 ・・・(13)
ただし、Crk、Csk、αkの意味は上記と同様である。尚、Vtotの値は、実験を繰り返してから用途や目的に応じて所定の値に設定するようにしてもよい。
Threshold values Vth (V1, V2,..., VK) are obtained for all the K pixels selected in step S1009 by the method exemplified above. Then, a value Vtot obtained by the following expression is set as a threshold value of the sum of squared differences Ctot.
Vtot = Σαk × (Crk−Csk) 2 (13)
However, the meanings of Crk, Csk, and αk are the same as described above. It should be noted that the value of Vtot may be set to a predetermined value according to the application and purpose after repeating the experiment.

上記の処理の後、登録装置は、指紋照合装置が指紋照合の判定を行うために必要な情報(以下、照合情報と呼ぶ)を、指紋照合装置へ送出し、指紋照合装置のメモリ37に格納する。照合情報には、登録ユーザの、ユーザID、特徴ベクトル座標、閾値Vtot、計数αk(α1,・・・,αK)、変換画像の画素値の平均値Csk(Cs1,・・・,CsK)が含まれ、これらは互いに関連づけられている。尚、送出すべき照合情報は、その指紋照合装置を用いて指紋照合を行うユーザについてのものが含まれていればよく、全てのユーザの照合情報を送出する必要はない。また、この場合、登録装置において算出された照合情報は、例えば、所定の通信手段によって、指紋照合装置のメモリ37に移動されるものとする。   After the above processing, the registration device sends information necessary for the fingerprint verification device to perform fingerprint verification (hereinafter referred to as verification information) to the fingerprint verification device and stores it in the memory 37 of the fingerprint verification device. To do. The collation information includes the registered user's user ID, feature vector coordinates, threshold value Vtot, count αk (α1,..., ΑK), and average value Csk (Cs1,..., CsK) of pixel values of the converted image. Included and related to each other. It should be noted that the collation information to be transmitted only needs to include information on users who perform fingerprint collation using the fingerprint collation apparatus, and it is not necessary to transmit collation information for all users. In this case, the collation information calculated in the registration device is moved to the memory 37 of the fingerprint collation device by, for example, a predetermined communication means.

尚、照合情報は必ずしも指紋照合装置のメモリ37に記憶保持させる必要はなく、例えば、外部装置に記憶保持させ、必要なときに指紋照合装置がそれを参照して利用するようにしてもよい。例えば、指紋照合装置と通信可能な記憶装置が照合情報を記憶保持するようにし、指紋照合時に指紋照合装置とこの記憶装置とが通信して指紋照合を行うような構成としてもよい。或いは、指紋照合装置と登録装置とをネットワーク的に接続し、指紋照合時に指紋照合装置と登録装置とが通信して指紋照合を行うようにしてもよい。   The collation information does not necessarily need to be stored and held in the memory 37 of the fingerprint collation device. For example, the collation information may be stored and held in an external device and used by the fingerprint collation device with reference to it when necessary. For example, a configuration in which a storage device that can communicate with the fingerprint verification device stores and holds verification information, and the fingerprint verification device and the storage device communicate to perform fingerprint verification during fingerprint verification. Alternatively, the fingerprint collation device and the registration device may be connected via a network, and the fingerprint collation device and the registration device may communicate to perform fingerprint collation during fingerprint collation.

尚、指紋照合装置が外部装置と通信する場合、指紋照合装置は外部装置とデータのやりとりが可能な通信インタフェースを備えている。ただし、ここでの通信インタフェースは、例えば、LANや無線LAN、インターネット、公衆回線(アナログ回線、ISDN等)、WAN等の、データ送受信可能な回線とのインタフェースのみならず、フレキシブルディスク(FD)、CD−ROM、CD−R、CD−RW、PCカード、DVD、ICメモリカード、MO、メモリスティック等のメディアへのアクセスを実現するための外部記憶ドライブとして実現してもよい。   When the fingerprint collation device communicates with an external device, the fingerprint collation device includes a communication interface that can exchange data with the external device. However, the communication interface here is not only an interface with a data transmission / reception line such as LAN, wireless LAN, Internet, public line (analog line, ISDN, etc.), WAN, etc., but also a flexible disk (FD), You may implement | achieve as an external storage drive for implement | achieving access to media, such as CD-ROM, CD-R, CD-RW, PC card, DVD, IC memory card, MO, and a memory stick.

(指紋照合処理)
次に、指紋照合装置が指紋情報を読み取り、その照合を行う指紋照合処理について説明する。図1は、指紋照合処理の流れを示すフローチャートである。
(Fingerprint verification process)
Next, a fingerprint collation process in which the fingerprint collation apparatus reads fingerprint information and collates the fingerprint information will be described. FIG. 1 is a flowchart showing the flow of fingerprint collation processing.

まず、ステップS101において、指紋照合装置は、指紋の照合を行うユーザから、指紋画像を撮像センサを介して取得する。そして取得した指紋画像を比較画像としてフレームメモリ33に格納する。尚、ここでは比較画像は階調値256(8ビット)で取得されるものとする。   First, in step S <b> 101, the fingerprint collation apparatus acquires a fingerprint image from a user who collates fingerprints via an imaging sensor. The acquired fingerprint image is stored in the frame memory 33 as a comparison image. Here, it is assumed that the comparison image is acquired with a gradation value of 256 (8 bits).

次に、ステップS102において、ステップS101で取得した比較画像から、比較すべき指紋中心領域を切り出す処理を行う。この処理は特徴量の登録処理の、ステップS1002における処理と同様である。   Next, in step S102, a fingerprint center region to be compared is extracted from the comparison image acquired in step S101. This process is the same as the process in step S1002 of the feature amount registration process.

次に、ステップS103及びステップS104において、ステップS102において切り出された画像について、一度周波数変換し、その後に逆変換を行って空間座標に戻し複数の部分画像(サブ画像)から成る画像を得る処理等を行う。この処理は、特徴量の登録処理の、ステップS1003における処理と同様である。   Next, in step S103 and step S104, the frequency of the image cut out in step S102 is once converted, and then inverse conversion is performed to return to spatial coordinates to obtain an image composed of a plurality of partial images (sub-images). I do. This process is the same as the process in step S1003 of the feature amount registration process.

次に、ステップS105において、変換後の比較画像から、特徴ベクトル座標としてメモリ37に記憶された位置座標(xi,yi)における画素値を抽出する。抽出した画素値の組み合わせ(ベクトル表現)が比較画像の特徴ベクトルとなる。本実施形態では、先に述べたように、画素値の総数はK=70個である。従って特徴ベクトルは70個の成分(各32ビット)から成る事になる。   Next, in step S105, the pixel value at the position coordinates (xi, yi) stored in the memory 37 as feature vector coordinates is extracted from the converted comparison image. A combination (vector expression) of the extracted pixel values becomes a feature vector of the comparison image. In the present embodiment, as described above, the total number of pixel values is K = 70. Therefore, the feature vector consists of 70 components (32 bits each).

次に、ステップS106において、比較画像の特徴ベクトルとの比較を、指紋照合装置のメモリ37に記憶された特徴ベクトル全てについて行ったか否かを判定する。行っている場合(ステップS106でYES)はステップS110へ進み、行っていない場合(ステップS106でNO)はステップS107へ進む。ステップS106を初めて評価する場合、メモリ37に1つ以上の特徴ベクトルのデータが格納されているならば、ステップS106の評価結果はNOとなり、ステップS107へ進むことになる。   Next, in step S106, it is determined whether or not the comparison with the feature vector of the comparison image has been performed for all the feature vectors stored in the memory 37 of the fingerprint collation apparatus. If so (YES in step S106), the process proceeds to step S110. If not (NO in step S106), the process proceeds to step S107. When evaluating step S106 for the first time, if data of one or more feature vectors is stored in the memory 37, the evaluation result in step S106 is NO, and the process proceeds to step S107.

ステップS107においては、メモリ37に格納された特徴ベクトルのうちの1つを選択し、この特徴ベクトルと比較画像の特徴ベクトルとについて、(8)式の演算を行い、Ctotの値を求める。即ち、Cskを、メモリ37から選択した特徴ベクトルのk番目の座標における値、Crkを、比較画像の特徴ベクトルのk番目の座標における値、αkを選択した特徴ベクトルに対応する係数として、Ctotを求める。尚、ここでは、ユーザIDがiの特徴ベクトルが選択されたものとする。   In step S107, one of the feature vectors stored in the memory 37 is selected, and the calculation of equation (8) is performed on this feature vector and the feature vector of the comparison image to obtain the value of Ctot. That is, Csk is a value at the kth coordinate of the feature vector selected from the memory 37, Crk is a value at the kth coordinate of the feature vector of the comparison image, and αk is a coefficient corresponding to the selected feature vector. Ask. Here, it is assumed that a feature vector having a user ID i is selected.

次に、ステップS108において、ステップS107で求めたCtotの値と、ステップS107で選択した特徴ベクトルに関連づけられた閾値Vtotの値との大小を比較する。Ctot≦Vtotが成り立つ場合は、登録された指紋画像の特徴と、入力された画像の特徴とが一致したものとして(ステップS108でYES)ステップS109へ進む。Ctot>Vtotの場合は、登録された指紋画像の特徴と、入力された画像の特徴とが一致しなかったものとして(ステップS108でNO)ステップS106へ戻り、処理を継続する。   Next, in step S108, the Ctot value obtained in step S107 is compared with the threshold value Vtot associated with the feature vector selected in step S107. If Ctot ≦ Vtot holds, it is determined that the characteristics of the registered fingerprint image match the characteristics of the input image (YES in step S108), and the process proceeds to step S109. If Ctot> Vtot, it is determined that the registered fingerprint image feature and the input image feature do not match (NO in step S108), the process returns to step S106, and the process is continued.

ステップS109では、撮像センサによって取得された比較画像は登録画像の指紋と同一であると判定し、ユーザIDがiの登録指紋と比較指紋が一致した旨を、指紋照合システムが支配する他のシステムへ、CPU36を使用して通知する。また必要に応じてシステムの利用者にもこの結果を通知、表示する。そして処理を終了する。   In step S109, it is determined that the comparison image acquired by the imaging sensor is the same as the fingerprint of the registered image, and another system in which the fingerprint verification system dominates that the registered fingerprint having the user ID i matches the comparison fingerprint. Is notified using the CPU 36. If necessary, this result is also notified to the system user and displayed. Then, the process ends.

処理がステップS106に戻った場合は、比較画像との比較を、メモリ37に記憶された全てのデータについて行ったか否かを判定する。全てについて行った場合(ステップS106でYES)は、ステップS110に進む。ステップS110では、指紋照合が不能(失敗)であったことを所定のシステムに通知し、必要に応じて、照合が不能で有った事を利用者に知らせ、一連の処理を終了させる。   When the process returns to step S106, it is determined whether or not the comparison with the comparison image has been performed for all the data stored in the memory 37. If all the steps have been performed (YES in step S106), the process proceeds to step S110. In step S110, a predetermined system is notified that fingerprint collation is impossible (failure), and if necessary, the user is informed that collation is impossible, and a series of processing is terminated.

比較画像との比較をメモリ37に記憶された全てのデータについて行っていない場合(ステップS106でNO)は、ステップS107へ進む。ステップS107では、メモリ37に格納された特徴ベクトルの中から、まだ選択されたことがないものを1つ選択し(例えば、ユーザIDがjのもの)、メモリ37に格納された特徴ベクトルのうちの1つを選択し、この特徴ベクトルと比較画像の特徴ベクトルとについて、(8)式の演算を行い、Ctotの値を求める。ステップS108以降の処理は、上述の通りである。   If the comparison with the comparison image has not been performed for all the data stored in the memory 37 (NO in step S106), the process proceeds to step S107. In step S107, one of the feature vectors stored in the memory 37 that has not yet been selected is selected (for example, the user ID is j), and the feature vector stored in the memory 37 is selected. One of these is selected, and the calculation of the equation (8) is performed on the feature vector and the feature vector of the comparison image to obtain the value of Ctot. The processing after step S108 is as described above.

ステップS103及びS104の処理は、公知の高度なリソースを必要としない変換アルゴリズムを用いることで実行することができる。また、ステップS107の処理は、高々K(=70)回、2乗、乗算及び加算を行うのみである。更に、ステップS108の処理は、単なる数の比較である。また、ステップS106乃至S108のループの回数は、最大で、指紋照合装置に格納された特徴ベクトルの個数となるだけである。従って、上記の処理は高度な計算リソースを要しないで実行することができる。FlashPixファイルフォーマットのように、予めサブ画像、指紋特徴量が既に前記ファイルフォーマット中に埋め込まれているようなファイル構造を用いて構成する場合は、ステップS103及びS104の処理の大部分が不要となる。   The processes in steps S103 and S104 can be executed by using a known conversion algorithm that does not require advanced resources. In addition, the process of step S107 only performs the squaring, multiplication, and addition at most K (= 70) times. Furthermore, the process of step S108 is a simple comparison of numbers. Further, the number of loops in steps S106 to S108 is only the maximum number of feature vectors stored in the fingerprint collation apparatus. Therefore, the above process can be executed without requiring high computational resources. In the case of using a file structure in which the sub-image and the fingerprint feature amount are already embedded in the file format like the FlashPix file format, most of the processes in steps S103 and S104 are not required. .

また、本実施形態においては、K=70、1画素のデータ量は32ビットであるため、指紋照合装置に登録されている一人分の特徴ベクトル(登録画像)のサイズは、70×32=2240ビット=280バイトとなる。このように、一人当たりの特徴ベクトルのサイズは非常に小さいため、大容量メモリを持たない機器システムにも上記の構成を適用することができる。   In this embodiment, since K = 70 and the data amount of one pixel is 32 bits, the size of the feature vector (registered image) for one person registered in the fingerprint collation apparatus is 70 × 32 = 2240. Bit = 280 bytes. As described above, since the size of the feature vector per person is very small, the above configuration can be applied to a device system without a large-capacity memory.

また、ステップS103及びS104において周波数変換及び逆変換を繰り返し実行することにより、画像の輝度やコントラストのばらつきを防ぐことができ、正確な画像の照合を行うことができる。また、(特徴量の登録処理)において述べたように、判定値Dの値が高い特徴ベクトル座標を選択し、判定値Dの値に基づいて係数αkを設定して構成することにより、指紋画像の特徴的な部分について特に重点的に比較することができ、照合率を高めることができる。   In addition, by repeatedly performing frequency conversion and inverse conversion in steps S103 and S104, variations in image brightness and contrast can be prevented, and accurate image matching can be performed. Further, as described in (feature amount registration processing), by selecting a feature vector coordinate having a high determination value D and setting a coefficient αk based on the determination value D, the fingerprint image is configured. Can be compared with particular emphasis on the characteristic parts of the, and the matching rate can be increased.

<<第2実施形態>>
第1実施形態においては、(1)、(2)式で例示される原始的なウェーブレット変換を用いた構成について述べたが、変換式はどのようなものでも構わない。例えば、(14)乃至(17)式に示すような、JPEG2000で用いられているウェーブレット変換を用いてもよい。
R0(z)=H0(z)×X(z) ・・・(14)
R1(z)=H1(z)×X(z) ・・・(15)
H0(z)=(−z-2+2×z-1+6+2×z−z2)/8 ・・・(16)
H1(z)=(−z-1+2−z)/2 ・・・(17)
ここでX(z)は入力信号である。またR0(z)は低域出力(低周波出力)、R1(z)は高域出力(高周波出力)、H0(z)、H1(z)はそれぞれの整数型5/3フィルタである。また逆変換も容易に求まるが、ここでは省略する。
<< Second Embodiment >>
In the first embodiment, the configuration using the primitive wavelet transform exemplified by the equations (1) and (2) has been described, but any transformation equation may be used. For example, a wavelet transform used in JPEG2000 as shown in equations (14) to (17) may be used.
R0 (z) = H0 (z) × X (z) (14)
R1 (z) = H1 (z) × X (z) (15)
H0 (z) = (− z −2 + 2 × z −1 + 6 + 2 × z−z 2 ) / 8 (16)
H1 (z) = (− z −1 + 2−z) / 2 (17)
Here, X (z) is an input signal. R0 (z) is a low frequency output (low frequency output), R1 (z) is a high frequency output (high frequency output), and H0 (z) and H1 (z) are integer type 5/3 filters. Inverse transformation is also easily obtained, but is omitted here.

以下、本実施形態に対応する登録装置、及び、指紋照合装置の処理について、図1、10を参照して説明を行う。尚、本実施形態の構成は第1実施形態の構成とほぼ同様であり、ここでは第1実施形態の構成との相違点について述べる。   Hereinafter, processing of the registration device and the fingerprint verification device corresponding to the present embodiment will be described with reference to FIGS. The configuration of the present embodiment is substantially the same as the configuration of the first embodiment, and here, differences from the configuration of the first embodiment will be described.

(特徴量の登録処理)
まず、ステップS1001乃至1002の処理を行う。これらの内容は第1実施形態における処理とほぼ同様である。ただし、比較すべき指紋中心領域を撮像画像より切り出すときに、DCレベルシフト処理を行う。DCレベルシフト処理とは、画像の階調値の重心が0になるように、全ての画素の階調値の値から、それぞれ正の値を減算する処理である。尚、取得する指紋画像のサイズは128×128画素と小さいものを想定しているため、JPEG2000で用いられているタイル分割は特に行わなくてもよい。また、本実施形態では、各画素を8ビットの整数型で表現するものとする。
(Feature registration process)
First, processing in steps S1001 to S1002 is performed. These contents are almost the same as the processing in the first embodiment. However, DC level shift processing is performed when the fingerprint central region to be compared is cut out from the captured image. The DC level shift process is a process of subtracting a positive value from the tone value of all the pixels so that the center of gravity of the tone value of the image becomes zero. Since the size of the fingerprint image to be acquired is assumed to be as small as 128 × 128 pixels, the tile division used in JPEG 2000 is not particularly required. In the present embodiment, each pixel is represented by an 8-bit integer type.

ステップS1003においては、(1)、(2)式の変換の代わりに、(14)乃至(17)式の変換を行う。そして、間引き処理を実行する。間引き後の信号は、以下の(18)、(19)式で表される。
S0(z)={H0(z1/2)X(z1/2)+H0(−z-1/2)X(−z-1/2)}/2 ・・・(18)
S1(z)={H1(z1/2)X(z1/2)+H1(−z-1/2)X(−z-1/2)}/2 ・・・(19)
ここで出た端数は丸めておくが、その可逆性は保証される。これらの処理を、第1実施形態における処理と同様に7次の次数まで行う。次いで各変換画像について、逆変換を行って周波数座標から空間座標へと画素値を戻す。その処理とは、補間と逆ウェーブレット変換である。これによって図4に例示したデータ構造が得られる。但し各画素の値は先のDCレベルシフトによって、8ビット(256階調)から9ビットへと若干そのデータ量は増えている。
In step S1003, instead of the conversions of the expressions (1) and (2), the conversions of the expressions (14) to (17) are performed. Then, a thinning process is executed. The signal after thinning is expressed by the following equations (18) and (19).
S0 (z) = {H0 (z 1/2 ) X (z 1/2 ) + H0 (−z −1/2 ) X (−z −1/2 )} / 2 (18)
S1 (z) = {H1 (z 1/2 ) X (z 1/2 ) + H1 (−z −1/2 ) X (−z −1/2 )} / 2 (19)
The fractions that appear here are rounded, but their reversibility is guaranteed. These processes are performed up to the 7th order in the same manner as in the first embodiment. Next, inverse conversion is performed on each converted image to return pixel values from frequency coordinates to spatial coordinates. The processing is interpolation and inverse wavelet transform. As a result, the data structure illustrated in FIG. 4 is obtained. However, the data amount of each pixel value slightly increases from 8 bits (256 gradations) to 9 bits due to the previous DC level shift.

ステップS1004以降の処理は、第1実施形態と同様である。   The processes after step S1004 are the same as those in the first embodiment.

(指紋照合処理)
まず、ステップS101及びS102の処理を行う。これらの内容は第1実施形態における処理とほぼ同様である。ただし、(特徴量の登録処理)と同様に、比較すべき指紋中心領域を撮像画像より切り出すときに、DCレベルシフト処理を行う。また、この処理においても、JPEG2000で用いられているタイル分割は特に行わなくてもよい。
(Fingerprint verification process)
First, the processes of steps S101 and S102 are performed. These contents are almost the same as the processing in the first embodiment. However, as in the feature amount registration process, the DC level shift process is performed when the fingerprint center region to be compared is cut out from the captured image. Also in this process, the tile division used in JPEG 2000 is not particularly required.

ステップS103及びステップS104においては、第1実施形態と同様に、ステップS102において切り出された画像について、一度周波数変換し、その後に逆変換を行って空間座標に戻し複数の部分画像(サブ画像)から成る画像を得る処理等を行う。この処理は、特徴量の登録処理の、ステップS1003における処理と同様である。   In step S103 and step S104, similarly to the first embodiment, the image cut out in step S102 is once subjected to frequency conversion, and then subjected to inverse conversion to return to spatial coordinates, from a plurality of partial images (sub-images). A process for obtaining an image is performed. This process is the same as the process in step S1003 of the feature amount registration process.

ステップS105以降の処理は、第1実施形態と同様である。   The processes after step S105 are the same as those in the first embodiment.

本実施形態では特徴ベクトルを構成する成分は整数型であるため、フロート型を採用した第1実施形態と比べて、登録特徴ベクトルの情報量を1つにつき70×9ビット=630ビット=79バイトと、かなり減らすことが出来る。   In this embodiment, since the component constituting the feature vector is an integer type, the information amount of the registered feature vector is 70 × 9 bits = 630 bits = 79 bytes compared to the first embodiment adopting the float type. It can be considerably reduced.

以上のように、ウェーブレット変換の式は、(1)(2)式で例示したものに限られない。また、もちろん、(14)乃至(19)式に例示したものにも限られない。世の中には種々のウェーブレット変換が存在する事が知られており、用途や目的に応じて自由に選択することができる。例えば「Wavelet Explorer」(商品名)等の、種々のウェーブレット変換を行うソフト用いて、構成するようにしてもよい。   As described above, the wavelet transform formula is not limited to those exemplified in the formulas (1) and (2). Of course, the present invention is not limited to those exemplified in the equations (14) to (19). It is known that there are various wavelet transforms in the world, and can be freely selected according to the use and purpose. For example, it may be configured by using various wavelet transform software such as “Wavelet Explorer” (product name).

また前記周波数変換は前記ウェーブレット変換に限る事は無く、前述のように周波数変換に間引き操作、逆変換に補間操作を有するものであるならば、本実施形態と同様の機能と効果を得る事ができる。   Further, the frequency conversion is not limited to the wavelet transform, and if the frequency conversion has a thinning operation for frequency conversion and an interpolation operation for inverse conversion as described above, the same functions and effects as in the present embodiment can be obtained. it can.

<<第3実施形態>>
本発明に係る実施形態においては、比較画像及び登録画像として、前述したFlashPixのように既に解像度変換された次数の異なる複数の画像が格納されているようなファイルフォーマットを用いてもよい。この場合、ステップS103、S104、S1003等における変換作業を要することなく、既に変換された画像を抽出する処理を行うだけで、次数の異なる複数の画像の画素値を用いて、前述した第1、第2実施形態と同様に指紋画像の比較を行う事ができる。また、解像度変換を用いた手法は、FlashPixを用いたものに限られず、用途や目的に応じてどのようなものも採用することができる。
<< Third Embodiment >>
In the embodiment according to the present invention, as the comparison image and the registered image, a file format in which a plurality of images having different degrees of resolution already converted, such as the above-described FlashPix, may be used. In this case, without performing the conversion operation in steps S103, S104, S1003, etc., the first, the above-described first, Fingerprint images can be compared as in the second embodiment. Further, the method using resolution conversion is not limited to the method using FlashPix, and any method can be adopted depending on the application and purpose.

また、本実施形態においては、変換前の画像を登録画像としてメモリ37に格納して使用するため、登録画像(特徴ベクトルと余分な部分を含む)の情報量は多少増えるものの、登録(指紋)画像そのものを所定の表示装置に表示することも可能である。   In this embodiment, since the image before conversion is stored and used as a registered image in the memory 37, the information amount of the registered image (including the feature vector and an extra part) is slightly increased, but registration (fingerprint) is used. It is also possible to display the image itself on a predetermined display device.

なお、周波数変換ではなく解像度変換を用いる場合、指紋照合装置の処理は、図1におけるステップS103及びS104をS203で置き換えた、図2のようなフローチャートに従うことになる。尚、登録装置は、図10のステップS1003において解像度変換処理を行うことになる。   When resolution conversion is used instead of frequency conversion, the fingerprint collation apparatus performs processing in accordance with a flowchart as shown in FIG. 2 in which steps S103 and S104 in FIG. 1 are replaced with S203. Note that the registration apparatus performs resolution conversion processing in step S1003 of FIG.

<<第4実施形態>>
第1実施形態のステップS1002、及び、ステップS102においては、取得した指紋画像から比較すべき指紋中心領域を切り出す処理を行っていたが、切り出す処理の前、又は、後に、取得した指紋画像に対して適宜画像処理を行うようにしてもよい。
<< Fourth Embodiment >>
In step S1002 and step S102 of the first embodiment, the processing for cutting out the fingerprint central region to be compared from the acquired fingerprint image is performed. However, before or after the processing for cutting out, the acquired fingerprint image is processed. The image processing may be performed as appropriate.

例えば、取得した比較指紋画像を所定の方向に伸縮するようにしてもよい。この例について図7を参照して説明する。図7は撮像センサ31によって取得された比較指紋画像71を、長手方向に伸縮する例を示した図である。72は、長手方向に+5%伸長された指紋画像である。伸縮画像を用いる場合は、例えば、取得した比較画像から−2%、−1%、0%、+1%、+2%伸長した計5枚の画像を作成し、それらから得られた特徴ベクトルと、登録特徴ベクトルとを比較する。これにより、指紋を有する指の皮が何らかの原因で伸縮した場合においても、正しく照合することが可能となる。また、もちろん、長手方向だけでなく、短手方向に行ってもよい。また、最初には伸縮操作を行わず、照合不能が生じた場合に初めて上述の操作を行っても良い。   For example, the acquired comparative fingerprint image may be expanded and contracted in a predetermined direction. This example will be described with reference to FIG. FIG. 7 is a diagram illustrating an example in which the comparative fingerprint image 71 acquired by the imaging sensor 31 is expanded and contracted in the longitudinal direction. Reference numeral 72 denotes a fingerprint image expanded by + 5% in the longitudinal direction. In the case of using the stretched image, for example, a total of five images expanded by -2%, -1%, 0%, + 1%, + 2% from the acquired comparative image are created, and the feature vector obtained from them is Compare with registered feature vector. Thereby, even when the skin of a finger having a fingerprint expands or contracts for some reason, it is possible to correctly collate. Of course, it may be performed not only in the longitudinal direction but also in the lateral direction. In addition, the above-described operation may be performed for the first time when the collation cannot be performed without performing the expansion / contraction operation first.

また、他の前処理、画像処理として、以下のような画像処理を行ってもよい。
1) 回転補正
2) 2値化
3) 輝度調整
4) コントラスト、ゲイン調整
3)は第2実施形態で述べたDCレベルシフト等もこれに含まれる。上記のような画像処理を併用することにより、照合率を更に高めることが可能となる。
In addition, as other preprocessing and image processing, the following image processing may be performed.
1) Rotation correction 2) Binarization 3) Luminance adjustment 4) Contrast and gain adjustment 3) includes the DC level shift described in the second embodiment. By using the above image processing together, the collation rate can be further increased.

<<その他の実施形態>>
以上、本発明の実施形態例について詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様を取ることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
<< Other Embodiments >>
As described above, the exemplary embodiments of the present invention have been described in detail. However, the present invention can take an embodiment as, for example, a system, an apparatus, a method, a program, or a storage medium. You may apply to the system comprised from an apparatus, and may apply to the apparatus which consists of one apparatus.

尚、本発明は、前述した実施形態の機能を実現するプログラムを、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。   The present invention can also be achieved by supplying a program that realizes the functions of the above-described embodiment directly or remotely to a system or apparatus, and the computer of the system or apparatus reads and executes the supplied program code. Including the case where it is achieved.

従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明の技術的範囲に含まれる。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含む。   Therefore, since the functions of the present invention are implemented by a computer, the program code installed in the computer is also included in the technical scope of the present invention. That is, the present invention includes a computer program itself for realizing the functional processing of the present invention.

その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。   In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, or the like.

プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。   As a recording medium for supplying the program, for example, floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card ROM, DVD (DVD-ROM, DVD-R) and the like.

その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。   As another program supply method, a client computer browser is used to connect to an Internet homepage, and the computer program of the present invention itself or a compressed file including an automatic installation function is downloaded from the homepage to a recording medium such as a hard disk. Can also be supplied. It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.

また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。   In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. It is also possible to execute the encrypted program by using the key information and install the program on a computer. In addition to the functions of the above-described embodiments being realized by the computer executing the read program, the OS running on the computer based on an instruction of the program is a part of the actual processing. Alternatively, the functions of the above-described embodiment can be realized by performing all of them and performing the processing.

さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。   Furthermore, after the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion board or The CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the functions of the above-described embodiments are realized by the processing.

指紋照合処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a fingerprint collation process. 第3実施形態における指紋照合処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the fingerprint collation process in 3rd Embodiment. 本実施形態における指紋照合装置のハードウェア構成を示した図である。It is the figure which showed the hardware constitutions of the fingerprint collation apparatus in this embodiment. 第1実施形態におけるウェーブレット変換の順序を模式的に示した図である。It is the figure which showed typically the order of the wavelet transformation in 1st Embodiment. ウェーブレット変換における母関数を例示的に示した図である。It is the figure which showed the generating function in a wavelet transform exemplarily. 判定値D値を、0≦x≦15、0≦y≦15の領域について例示的に示した図である。It is the figure which showed determination value D value about the area | region of 0 <= x <= 15, 0 <= y <= 15. 撮像センサによって取得された比較指紋画像を伸縮する例を示した図である。It is the figure which showed the example which expands and contracts the comparison fingerprint image acquired by the imaging sensor. 差分2乗量の分布を模式的に示した図である。It is the figure which showed typically distribution of the difference square amount. 指紋比較を行う際の差分2乗量の分布を例示的に示した図である。It is the figure which showed exemplarily the distribution of the difference squared amount at the time of performing fingerprint comparison. 特徴量の登録処理の概略を示すフローチャートである。It is a flowchart which shows the outline of the registration process of the feature-value. 細線化した隆線を例示的に示した図である。It is the figure which showed the ridgeline thinned thinly.

Claims (12)

照合対象の画像とユーザの識別情報とを取得する取得工程と、
前記取得工程において取得された前記照合対象の画像に対して所定の変換処理を施す変換工程と、
ユーザの識別情報と、比較すべき2次元情報位置を示す座標情報と、該座標情報によって示される2次元情報位置の照合情報とが関連づけて記憶された記憶手段より、前記取得工程において取得された前記識別情報に対応する前記座標情報と前記照合情報とを読み出す読出工程と、
前記変換工程において変換された前記画像の前記座標情報によって示される2次元情報位置の情報と、当該2次元情報位置に対応する前記照合情報とに基づいて、前記照合対象の画像が前記識別情報に対応する画像であるか否かを判定する判定工程とを備えることを特徴とする情報処理方法。
An acquisition step of acquiring an image to be verified and identification information of the user;
A conversion step of performing a predetermined conversion process on the image to be collated acquired in the acquisition step;
Acquired in the acquisition step from the storage means in which the identification information of the user, the coordinate information indicating the two-dimensional information position to be compared, and the collation information of the two-dimensional information position indicated by the coordinate information are stored in association with each other. A step of reading out the coordinate information and the verification information corresponding to the identification information;
Based on the two-dimensional information position information indicated by the coordinate information of the image converted in the conversion step and the matching information corresponding to the two-dimensional information position, the image to be collated is used as the identification information. A determination step of determining whether or not the image is a corresponding image.
前記所定の変換処理は、周波数変換、周波数逆変換、解像度変換、解像度逆変換の少なくともいずれかであることを特徴とする請求項1に記載の情報処理方法。   The information processing method according to claim 1, wherein the predetermined conversion process is at least one of frequency conversion, frequency reverse conversion, resolution conversion, and resolution reverse conversion. 前記所定の変換処理はウェーブレット変換であることを特徴とする請求項1に記載の情報処理方法。   The information processing method according to claim 1, wherein the predetermined conversion process is a wavelet transform. 前記変換工程は、前記所定の変換処理を複数回実行することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理方法。   The information processing method according to any one of claims 1 to 3, wherein the conversion step performs the predetermined conversion process a plurality of times. 前記記憶手段は、前記ユーザの識別情報に関連づけて、判定情報と、前記座標情報によって示される2次元情報位置の重み付け情報とを更に記憶し、
前記判定工程は、前記変換工程において変換された前記画像の前記座標情報によって示される2次元情報位置の情報と、当該2次元情報位置に対応する、前記照合情報と前記重み付け情報と、に基づいて比較情報を導出し、当該比較情報と前記判定情報との比較に基づいて、前記照合対象の画像が前記識別情報に対応する画像であるか否かを判定することを特徴とする請求項1乃至4のいずれか1項に記載の情報処理方法。
The storage means further stores determination information and weighting information of the two-dimensional information position indicated by the coordinate information in association with the identification information of the user,
The determination step is based on information on the two-dimensional information position indicated by the coordinate information of the image converted in the conversion step, and the matching information and the weighting information corresponding to the two-dimensional information position. The comparison information is derived, and based on a comparison between the comparison information and the determination information, it is determined whether or not the image to be collated is an image corresponding to the identification information. 5. The information processing method according to any one of 4 above.
前記比較情報は、前記変換工程において変換された前記画像の前記座標情報によって示される2次元情報位置の情報と、当該2次元情報位置に対応する前記照合情報と、の差分値を2乗して得られる値に、当該2次元情報位置に対応する前記重み付け情報を乗じて得られる値の総和であることを特徴とする請求項1乃至5のいずれか1項に記載の情報処理方法。   The comparison information is obtained by squaring a difference value between the information of the two-dimensional information position indicated by the coordinate information of the image converted in the conversion step and the matching information corresponding to the two-dimensional information position. 6. The information processing method according to claim 1, wherein the obtained value is a sum of values obtained by multiplying the obtained value by the weighting information corresponding to the two-dimensional information position. 前記座標情報を生成する生成工程を更に備え、
前記生成工程は、
第1のユーザから取得された複数の画像と、他の1以上のユーザから取得された複数の画像と、に対し、それぞれ前記変換処理を施し、
前記変換処理が施された前記第1のユーザの複数の前記画像の、各2次元情報位置の統計量を第1統計量として取得し、
前記変換処理が施された前記第1及び他のユーザの複数の前記画像の、各2次元情報位置の統計量を第2統計量として取得し、
前記第1統計量と前記第2統計量との関係に基づいて照合に適した2次元情報位置を前記座標情報として選択することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理方法。
Further comprising a generating step of generating the coordinate information;
The generating step includes
For each of a plurality of images acquired from a first user and a plurality of images acquired from one or more other users, the conversion process is performed, respectively.
Obtaining a statistic of each two-dimensional information position of the plurality of images of the first user subjected to the conversion process as a first statistic;
Obtaining a statistic of each two-dimensional information position of the plurality of images of the first and other users subjected to the conversion process as a second statistic;
7. The two-dimensional information position suitable for collation is selected as the coordinate information based on the relationship between the first statistic and the second statistic. 7. Information processing method.
前記生成工程は、
前記第1統計量と前記第2統計量とに基づいて前記重み付け情報を求めることを特徴とする請求項7に記載の情報処理方法。
The generating step includes
The information processing method according to claim 7, wherein the weighting information is obtained based on the first statistic and the second statistic.
前記取得工程において取得された前記画像に対し、伸縮操作、回転補正、2値化、輝度調整、コントラスト調整、ゲイン調整のうち、少なくともいずれかを含む画像処理を行う画像処理工程を更に備え、
前記変換工程は、前記画像処理工程において画像処理がなされた前記画像に対し、所定の変換処理を施すことを特徴とする請求項1乃至8のいずれか1項に記載の情報処理方法。
An image processing step of performing image processing including at least one of expansion / contraction operation, rotation correction, binarization, luminance adjustment, contrast adjustment, and gain adjustment on the image acquired in the acquisition step;
The information processing method according to claim 1, wherein the conversion step performs a predetermined conversion process on the image that has been subjected to the image processing in the image processing step.
照合対象の画像とユーザの識別情報とを取得する取得手段と、
前記取得手段において取得された前記照合対象の画像に対して所定の変換処理を施す変換手段と、
ユーザの識別情報と、比較すべき2次元情報位置を示す座標情報と、該座標情報によって示される2次元情報位置の照合情報とを関連づけて記憶する記憶手段と、
前記取得手段において取得された前記識別情報に対応する前記座標情報と前記照合情報とを前記記憶手段から読み出す読出手段と、
前記変換手段において変換された前記画像の前記座標情報によって示される2次元情報位置の情報と、当該2次元情報位置に対応する前記照合情報とに基づいて、前記照合対象の画像が前記識別情報に対応する画像であるか否かを判定する判定手段とを備えることを特徴とする情報処理装置。
Acquisition means for acquiring an image to be verified and identification information of the user;
Conversion means for performing a predetermined conversion process on the image to be collated acquired by the acquisition means;
Storage means for associating and storing user identification information, coordinate information indicating the two-dimensional information position to be compared, and collation information of the two-dimensional information position indicated by the coordinate information;
Reading means for reading out the coordinate information and the collation information corresponding to the identification information acquired in the acquisition means from the storage means;
Based on the two-dimensional information position information indicated by the coordinate information of the image converted by the conversion means and the matching information corresponding to the two-dimensional information position, the image to be collated is used as the identification information. An information processing apparatus comprising: a determination unit that determines whether the image is a corresponding image.
請求項1乃至9のいずれか1項に記載の情報処理方法をコンピュータに実行させるためのコンピュータプログラム。   A computer program for causing a computer to execute the information processing method according to claim 1. 請求項11に記載のコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the computer program according to claim 11.
JP2005141830A 2005-05-13 2005-05-13 Information processing method, information processor, computer program, and storage medium Withdrawn JP2006318309A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005141830A JP2006318309A (en) 2005-05-13 2005-05-13 Information processing method, information processor, computer program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005141830A JP2006318309A (en) 2005-05-13 2005-05-13 Information processing method, information processor, computer program, and storage medium

Publications (1)

Publication Number Publication Date
JP2006318309A true JP2006318309A (en) 2006-11-24

Family

ID=37538915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005141830A Withdrawn JP2006318309A (en) 2005-05-13 2005-05-13 Information processing method, information processor, computer program, and storage medium

Country Status (1)

Country Link
JP (1) JP2006318309A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019536127A (en) * 2016-10-19 2019-12-12 ポリテクニコ ディ トリノ Apparatus and method for authenticating user equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019536127A (en) * 2016-10-19 2019-12-12 ポリテクニコ ディ トリノ Apparatus and method for authenticating user equipment
JP7024788B2 (en) 2016-10-19 2022-02-24 ポリテクニコ ディ トリノ Devices and methods for authenticating user equipment

Similar Documents

Publication Publication Date Title
KR100291255B1 (en) Image Feature Extractor, Image Feature Analyzer and Image Matching System
US11017210B2 (en) Image processing apparatus and method
US20110044514A1 (en) Automatic identification of fingerprint inpainting target areas
Langan et al. Cluster validation for unsupervised stochastic model-based image segmentation
JP7130905B2 (en) Fast and Robust Dermatoglyphic Mark Minutia Extraction Using Feedforward Convolutional Neural Networks
EP3698272B1 (en) Differentiating between live and spoof fingers in fingerprint analysis by machine learning
CN109063541B (en) System and method for fingerprint identification
KR101637229B1 (en) Apparatus and method for extracting feature point based on SIFT, and face recognition system using thereof
US20210166092A1 (en) Method of Detecting at Least One Element of Interest Visible in an Input Image by Means of a Convolutional Neural Network
JPH09508739A (en) Fingerprint matching device
CN101025788A (en) Face identification device
US20080235762A1 (en) Pressure Map Based Fingerprint Authentication Method and System
JP2008251029A (en) Character recognition device and license plate recognition system
US11715324B2 (en) Method for extracting a signature of a fingerprint and device implementing said method
JP2006318309A (en) Information processing method, information processor, computer program, and storage medium
CA2397576C (en) Pattern-based interchange format
CN111209551B (en) Identity authentication method and device
JP4264332B2 (en) Character recognition device, license plate recognition system
JP4219151B2 (en) Image collation apparatus, image collation method, and image collation program
JP4537097B2 (en) Pattern detection method and apparatus
Patil et al. Fingerprint recognition for Library management
Shreya et al. Gan-enable latent fingerprint enhancement model for human identification system
Wang et al. Facial aging simulation via tensor completion and metric learning
JP2008502955A (en) Fingerprint authentication method including movement of control point
Chauhan et al. Fingerprint classification using crease features

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080805