WO2023242899A1 - 類似度算出方法、類似度算出プログラム、および類似度算出装置 - Google Patents

類似度算出方法、類似度算出プログラム、および類似度算出装置 Download PDF

Info

Publication number
WO2023242899A1
WO2023242899A1 PCT/JP2022/023615 JP2022023615W WO2023242899A1 WO 2023242899 A1 WO2023242899 A1 WO 2023242899A1 JP 2022023615 W JP2022023615 W JP 2022023615W WO 2023242899 A1 WO2023242899 A1 WO 2023242899A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature points
similarity
matching
registered
changed
Prior art date
Application number
PCT/JP2022/023615
Other languages
English (en)
French (fr)
Inventor
青木隆浩
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2022/023615 priority Critical patent/WO2023242899A1/ja
Publication of WO2023242899A1 publication Critical patent/WO2023242899A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • This case relates to a similarity calculation method, a similarity calculation program, and a similarity calculation device.
  • biometric authentication an authentication method using multiple parts included in biometric information has been disclosed. For example, authentication is performed by calculating the degree of similarity between feature points included in verification data acquired for verification and feature points included in registered data registered in advance.
  • the degree of similarity between the feature points is calculated.
  • the alignment accuracy is low, there is a risk that the accuracy of calculating the similarity between feature points will be reduced.
  • the accuracy of calculating the degree of similarity between feature points is low, there is a risk that erroneous authentication will occur as an authentication result.
  • the present invention aims to provide a similarity calculation method, a similarity calculation program, and a similarity calculation device that can improve the accuracy of calculating the similarity between feature points.
  • the similarity calculation method acquires a plurality of matching feature points including position information, and at least one of the plurality of matching feature points and a plurality of registered feature points stored in a storage unit.
  • One of the location information is changed, and the location information is changed using the feature point logarithm based on the location information of the plurality of matching feature points and the plurality of registered feature points after the location information has been changed.
  • a computer executes a process of calculating the degree of similarity between the plurality of collated feature points and the plurality of registered feature points after the comparison.
  • FIG. 3 is a diagram illustrating feature point pairs.
  • 1 is a block diagram illustrating the overall configuration of an information processing device according to a first embodiment.
  • FIG. It is a flow chart showing an example of biometric registration processing. It is a flow chart showing an example of biometrics authentication processing.
  • FIG. 3 is a diagram illustrating feature point pairs.
  • 12 is a flowchart showing an example of corresponding point search processing in the processing of step S18.
  • 12 is a flowchart illustrating an example of matching score calculation processing among the processing in step S18.
  • FIG. 3 is a diagram for explaining determination of feature point pairs.
  • (a) and (b) are diagrams illustrating a flowchart showing details of step S19.
  • FIG. 2 is a block diagram illustrating the overall configuration of an information processing device according to a second embodiment. 12 is a flowchart showing the process of correcting the best matching score. This process is executed after step S18 in FIG. 5 is executed until step S19 is executed.
  • FIG. 2 is a block diagram illustrating the hardware configuration of an information processing device.
  • biometric authentication a sensor such as a camera is used to acquire the user's biometric information, and the acquired biometric information is converted into biometric features that can be matched to generate matching data, which is then matched against registered data.
  • biometric authentication method using feature points multiple feature points suitable for biometric authentication are selected from images of biological parts acquired by sensors, biometric features are calculated from images near the feature points, and the feature points are The person's identity is verified by comparing the biometric features of each person.
  • Similarity scores between feature points are calculated, and multiple Integrate the feature scores of the feature points.
  • the integrated feature score is hereinafter referred to as a matching score.
  • Identity can be verified by determining whether the matching score is greater than a predetermined identity determination threshold.
  • branch points and terminal points of fingerprints and veins are extracted as "feature points" and the coordinates (X, Y) of each feature point are extracted.
  • the feature amount is calculated from the neighboring images of each feature point.
  • a nearby image is an image that includes feature points and is smaller in area than the acquired biological image.
  • the feature amount included in the registration data and the feature amount included in the verification data are compared to obtain a feature point pair.
  • position information is changed and alignment is performed by performing coordinate transformation T on at least one of the registration data and verification data.
  • coordinate transformation T is applied to the matching data.
  • the coordinate transformation T consists of rotation, translation, and the like.
  • FIG. 3 is a block diagram illustrating the overall configuration of the information processing device 100 according to the first embodiment.
  • the information processing device 100 functions as a similarity calculation device.
  • the information processing device 100 includes an overall management section 10, a database section 20, a memory section 30, a feature extraction section 40, a verification processing section 50, an acquisition section 60, and the like.
  • the matching processing section 50 includes a matching management section 51, a coordinate conversion section 52, a score calculation section 53, a matching score calculation section 54, a best score updating section 55, and the like.
  • the overall management unit 10 controls the operation of each unit of the information processing device 100.
  • the database unit 20 stores registration data.
  • the memory unit 30 is a storage unit that temporarily stores verification data, processing results, and the like.
  • the acquisition unit 60 acquires a biological image from the biological sensor 200.
  • the biological sensor 200 is an image sensor or the like that can acquire a biological image.
  • the biosensor 200 is a fingerprint sensor, it is a sensor that acquires the fingerprint of one or more fingers placed in contact with a reading surface, and is an optical sensor that acquires the fingerprint using light, or a static sensor that acquires the fingerprint using light. These include capacitive sensors that capture fingerprints using differences in capacitance.
  • the biosensor 200 is a vein sensor, it is a sensor that acquires palm veins in a non-contact manner, and for example, photographs subcutaneous veins in the palm using near-infrared rays that are highly transparent to the human body.
  • the vein sensor includes, for example, a complementary metal oxide semiconductor (CMOS) camera. Further, a lighting device that emits light including near-infrared rays may be provided.
  • CMOS complementary metal oxide semiconductor
  • the matching processing unit 50 outputs the matching processing result to the display device 300.
  • the display device 300 displays the processing results of the information processing device 100.
  • the display device 300 is a liquid crystal display device or the like.
  • the door control device 400 is a device that opens and closes the door when authentication is successful in the authentication processing of the information processing device 100.
  • FIG. 4 is a flowchart illustrating an example of biometric registration processing.
  • the biometric registration process is a process performed when a user registers registration data in advance.
  • the acquisition unit 60 acquires a biological image from the biological sensor 200 (step S1).
  • the feature extraction unit 40 extracts a plurality of feature points from the biological image photographed in step S1 (step S2).
  • the feature extraction unit 40 extracts the feature amount of each feature point extracted in step S2, and stores it in the database unit 20 as registered data (step S3).
  • various methods such as SIFT (Scale-Invariant Feature Transform) and HOG (Histograms of Oriented Gradients) can be used as the feature amount.
  • SIFT Scale-Invariant Feature Transform
  • HOG Heistograms of Oriented Gradients
  • the database unit 20 may store identification information for identifying a user and feature amounts of the user in association with each other.
  • FIG. 5 is a flowchart illustrating an example of biometric authentication processing.
  • Biometric authentication processing is processing performed in situations where identity verification is required.
  • the acquisition unit 60 acquires a biological image from the biological sensor 200 (step S11).
  • the feature extraction unit 40 extracts a plurality of feature points from the biological image acquired in step S11 (step S12).
  • the feature extraction unit 40 extracts the feature amount of each feature point extracted in step S12, and generates matching data (step S13).
  • the coordinate transformation unit 52 calculates the x-th coordinate transformation Tx (step S15). Details will be described later.
  • step S16 determines whether the coordinate transformation Tx is appropriate. Details will be described later. If the determination in step S16 is "No", the process is executed again from step S15.
  • step S16 If the determination in step S16 is "Yes", the coordinate transformation unit 52 transforms the coordinates of the matching data using the coordinate transformation Tx (step S17). Positioning is thereby performed.
  • the matching score calculation unit 54 calculates the x-th matching score Sx using the registered data and the matching data after coordinate transformation (step S18). Details will be described later.
  • the best score updating unit 55 updates the highest matching score obtained when step S18 is repeatedly performed as the best score (step S19). Details will be described later.
  • step S22 the verification management unit 51 performs authentication processing by determining whether the best score is greater than or equal to the threshold. For example, the verification management unit 51 identifies the user who is performing the verification process among the users of the plurality of registered data. For example, the matching management unit 51 identifies the user performing the matching process as the user whose registered data has a best score equal to or higher than a threshold value. For example, if there is a plurality of registered data whose best score is equal to or higher than the threshold, the matching management unit 51 selects the user who is performing the matching process from the registration with the highest score among the registered data whose best score is equal to or higher than the threshold. Identify yourself as a user of your data.
  • step S23 the display device 300 displays the determination result of step S22 (step S23). For example, if the authentication process is successful, the door control device 400 opens and closes the door.
  • the coordinate transformation unit 52 calculates each coordinate transformation T according to predetermined rules. For example, the coordinate transformation unit 52 calculates each coordinate transformation T obtained by changing the rotation angle by a predetermined amount ⁇ and changing the parallel movement amount by a predetermined amount ( ⁇ X, ⁇ Y) with respect to the initial coordinate transformation. You may.
  • the next coordinate transformation T2 may be one in which the rotation angle is changed by ⁇ or the amount of parallel movement is changed by ( ⁇ X, ⁇ Y) with respect to the coordinate transformation T1.
  • the coordinate transformation unit 52 calculates the feature score between the verification data before the coordinate transformation and the registered data, sorts the feature scores, and sequentially uses the feature point pairs with the highest feature scores to calculate the coordinates.
  • a conversion may also be calculated.
  • feature point scores for all combinations may be calculated, or feature amount scores may be calculated for only feature point pairs whose feature point coordinates are within a certain range.
  • coordinate transformation T1 is calculated using the feature point pair with the first and second feature points
  • coordinate transformation T2 is calculated using the second and third feature points.
  • the coordinate transformation T3 may be calculated using the third-ranked feature point pair and the fourth-ranked feature point pair.
  • the feature scores between the matching data before coordinate transformation and the registered data are calculated, the feature scores are sorted, and the feature point pairs with the highest feature scores are used in order to calculate the coordinates.
  • the conversion For example, as shown in FIG. 6, it is assumed that two pairs of feature points indicated by arrows have high feature quantity scores.
  • coordinate transformation can be calculated by assuming that the two sets of corresponding points with the highest feature point scores are the correct correspondence.
  • fingerprint authentication since contact sensors are generally used for fingerprints, there is no need to consider three-dimensional inclinations, but only in-plane variations. In most cases, variations can be accommodated by rotation and translation. Furthermore, in the case of palm vein authentication, when using a physical guide that holds the hand, posture fluctuations are suppressed, and rotation and parallel movement may be sufficient.
  • step S16 it is verified whether the coordinate transformation obtained in this way is a valid transformation.
  • the above method assumes corresponding points and calculates them using the least squares method.
  • it is checked whether the coordinates of each feature point of the matching data transformed by the calculated coordinate transformation are close to the coordinates of each feature point of the registered data (residual check).
  • the distance between P1 and Q1 and the distance between P2 and Q2 after coordinate transformation may be determined, and it may be checked that each distance is less than a predetermined threshold.
  • coordinate transformation processing may be used.
  • various methods such as rigid transformation, affine transformation, and perspective transformation can be used.
  • Which coordinate transformation is appropriate depends on the type of variation in the authentication target. As mentioned above, in the case of fingerprint authentication, it is sufficient to treat it as a variation within a plane in most cases. If the fingerprint center coordinates can be stably obtained, parallel movement may not be necessary.
  • perspective projection transformation may be effective because three-dimensional variations exist.
  • FIG. 7 is a flowchart illustrating an example of the corresponding point search process in the process of step S18.
  • FIG. 8 is a flowchart showing an example of the matching score calculation process among the processes in step S18.
  • the score calculation unit 53 initializes a feature point pair list representing pairs of feature points for the target coordinate transformation T (step S31).
  • the score calculation unit 53 determines whether the distance between the feature points (i, j) (the distance between the feature points i and j) is smaller than a predetermined threshold Dth (step S34).
  • a predetermined threshold Dth By executing step S34, as illustrated in FIG. 9, a feature point pair for which the distance difference (distance) between feature point i and feature point j is less than a predetermined threshold Dth is determined to be a "matched feature point pair.” can do. Note that even if both the verification data and the registered data belong to the person, there may be feature points that cannot be matched as shown in FIG. Note that, for example, the score calculation unit 53 may determine whether the distance between the feature points (i, j) is less than or equal to a predetermined threshold Dth.
  • step S34 the score calculation unit 53 adds the feature point pair (i, j) to the feature point pair list (step S35).
  • the score calculation unit 53 sets the matching score Sx to an invalid value (for example, 0, etc.) (step S41).
  • the matching score Sx becomes an invalid value, and no matching score is calculated.
  • step S42 determines whether the number of corresponding points in the feature point pair list is less than the threshold Nth (step S42). By executing step S42, it can be determined whether or not there are a large number of feature point pairs between the verification data and the registered data after coordinate transformation using the coordinate transformation Tx. The more feature point pairs there are, the more reliable it is, so it can be determined whether the coordinate transformation Tx is reliable.
  • step S42 If the determination in step S42 is "Yes", the execution of the flowchart ends. This makes it possible to eliminate unreliable coordinate transformations, thereby improving the accuracy of calculating the similarity between feature points. This improves the accuracy of the matching score. Further, since unnecessary calculations can be omitted, processing time can be shortened.
  • the matching score calculation unit 54 calculates the average value of the top Nth (or up to Nth) feature quantity scores in the feature point pair list as a matching score (step S43).
  • the score calculation unit 53 calculates the feature score in the feature point pair list using the inner product between vectors, the distance between vectors, and the like. After that, execution of the flowchart ends. Further, for example, the score calculation unit 53 may determine whether the number of corresponding points in the feature point pair list is equal to or greater than a threshold value Nth.
  • the matching score calculation unit 54 calculates the average value of the top Nth feature quantity scores in the feature point pair list as the matching score. You may also do so.
  • FIGS. 10(a) and 10(b) are diagrams illustrating flowcharts showing details of step S19.
  • FIG. 10(a) shows the initialization process.
  • FIG. 10(b) shows processing within the collation loop.
  • the best score updating unit 55 sets the best score S0 to an invalid value (for example, 0, etc.) (step S51). By executing step S51, the best score S0 becomes an invalid value, and the best score will not be updated.
  • the best score updating unit 55 obtains the x-th matching score Sx (step S61).
  • the best score updating unit 55 determines whether the matching score Sx is valid (step S62). Specifically, the matching score Sx is valid when the number of corresponding points in the feature point pair list obtained between the matching data and the registered data after coordinate transformation by the x-th coordinate transformation Tx is greater than or equal to the threshold value Nth. It is determined that there is.
  • step S62 the best score updating unit 55 updates the number of coordinate transformations T (coordinate transformation number K1) for which the number of corresponding points in the feature point pair list is equal to or greater than the threshold value Nth as K1+1. (Step S63).
  • the best score updating unit 55 determines whether the matching score Sx is greater than the best score S0 (step S64).
  • step S64 If it is determined “Yes” in step S64, the best score updating unit 55 updates the best score S0 (step S65). After that, execution of the flowchart ends. The execution of the flowchart also ends when the determination is "No” in step S64 and the determination is "No” in step S66.
  • the logarithm of minutiae is used based on the positional information of minutiae points of matching data (verification minutiae) and minutiae points of registered data (registered minutiae) after the location information has been changed by coordinate transformation. .
  • unreliable coordinate transformations in which the number of corresponding points in the feature point pair list is less than the threshold value Nth are excluded.
  • the degree of similarity between the plurality of matching feature points and the plurality of registered feature points after the position information has been changed is calculated. This improves the accuracy of similarity calculation.
  • the authentication accuracy is improved.
  • FIG. 11 is a block diagram illustrating the overall configuration of an information processing device 100a according to the second embodiment.
  • the information processing apparatus 100a differs from the information processing apparatus 100 of the first embodiment in that the verification processing section 50 further includes a correction section 56.
  • the verification processing section 50 further includes a correction section 56.
  • the best matching score S0 is corrected using the coordinate transformation number K1 (the number of coordinate transformations T in which the number of corresponding points in the feature point pair list is equal to or greater than the threshold value Nth).
  • the correction unit 56 obtains the best score S0 and the coordinate transformation number K1 (step S71).
  • the correction unit 56 corrects the best matching score S 0 to S 0 + ⁇ 1 ⁇ K1 (step S72). With this correction, the more reliable coordinate transformations T there are, the larger the best score S0 can be. This improves the accuracy of calculating the best score.
  • Example 3 will be described.
  • the overall configuration of the information processing device according to the third embodiment is the same as that of the second embodiment.
  • points different from Example 1 will be explained.
  • the matching score Sx is corrected using the number of feature point pairs in the feature point pair list (feature point logarithm K2).
  • FIG. 13 shows processing that is executed after step S18 in FIG. 5 is executed until step S19 is executed.
  • the correction unit 56 obtains the matching score Sx and the feature point logarithm K2 (step S81).
  • the correction unit 56 corrects the matching score Sx to Sx+ ⁇ 2 ⁇ K2 (step S82). With this correction, the matching score Sx can be increased as the feature point logarithm K2 increases. This improves the accuracy of calculating the matching score.
  • FIG. 14 is a block diagram illustrating the hardware configuration of the overall management unit 10, database unit 20, memory unit 30, feature extraction unit 40, matching processing unit 50, and acquisition unit 60 of the information processing device 100 or the information processing device 100a.
  • the information processing devices 100, 100a include a CPU 101, a RAM 102, a storage device 103, an interface 104, and the like.
  • a CPU (Central Processing Unit) 101 is a central processing unit.
  • CPU 101 includes one or more cores.
  • a RAM (Random Access Memory) 102 is a volatile memory that temporarily stores programs executed by the CPU 101, data processed by the CPU 101, and the like.
  • the storage device 103 is a nonvolatile storage device.
  • a ROM Read Only Memory
  • SSD solid state drive
  • the storage device 103 stores a similarity calculation program.
  • the interface 104 is an interface device with external equipment.
  • the overall management section 10 database section 20, memory section 30, feature extraction section 40, verification processing section 50, and acquisition section 60 of the information processing apparatus 100, 100a are realized.
  • hardware such as dedicated circuits may be used as the overall management section 10, database section 20, memory section 30, feature extraction section 40, matching processing section 50, and acquisition section 60.
  • the matching score Sx is an example of the first score of a plurality of matching feature points calculated using the degree of similarity for each pair of feature points.
  • the best score S0 is an example of a second score obtained from the first score each time a coordinate transformation is performed.
  • the acquisition unit 60 is an example of an acquisition unit that acquires a plurality of matching feature points including position information.
  • the coordinate conversion unit 52 is an example of a changing unit that changes the position information of at least one of the plurality of matching feature points and the plurality of registered feature points stored in the storage unit.
  • the database unit 20 is an example of a storage unit.
  • the score calculation unit 53 and the matching score calculation unit 54 use the feature point logarithm based on the position information of the plurality of matching minutiae points and the plurality of registered minutiae points after the position information has been changed. This is an example of a calculation unit that calculates the degree of similarity between a plurality of matching feature points and a plurality of registered feature points.
  • the present invention is not limited to these specific embodiments, and various modifications and variations can be made within the scope of the gist of the present invention as described in the claims. Changes are possible.
  • the position information of the verification data is changed using coordinate transformation, but the position information of at least one of the registered data and the verification data may be changed.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

類似度算出方法は、位置情報を含む複数の照合特徴点を取得し、前記複数の照合特徴点と、記憶部に記憶された複数の登録特徴点と、のうち少なくともいずれか一方の位置情報の変更を実施し、前記位置情報が変更された後の前記複数の照合特徴点および前記複数の登録特徴点の位置情報に基づく特徴点対数を用いて、前記位置情報が変更された後の前記複数の照合特徴点と前記複数の登録特徴点との類似度を算出する、処理をコンピュータが実行する。 

Description

類似度算出方法、類似度算出プログラム、および類似度算出装置
 本件は、類似度算出方法、類似度算出プログラム、および類似度算出装置に関する。
 生体認証において、生体情報に含まれる複数の部位を用いた認証方式が開示されている。例えば、照合用に取得された照合データに含まれる特徴点と、予め登録されている登録データに含まれる特徴点との類似度を算出することで、認証が行われる。
特開2011-86202号公報
 例えば、照合データと登録データとの間で位置合わせをしたうえで、特徴点同士の類似度が算出される。しかしながら、位置合わせの精度が低い場合、特徴点同士の類似度の算出精度が低下するおそれがある。また、例えば、特徴点同士の類似度の算出精度が低い場合、認証結果として誤認証が生じるおそれがある。
 1つの側面では、本発明は、特徴点同士の類似度の算出精度を向上させることができる類似度算出方法、類似度算出プログラム、および類似度算出装置を提供することを目的とする。
 1つの態様では、類似度算出方法は、位置情報を含む複数の照合特徴点を取得し、前記複数の照合特徴点と、記憶部に記憶された複数の登録特徴点と、のうち少なくともいずれか一方の位置情報の変更を実施し、前記位置情報が変更された後の前記複数の照合特徴点および前記複数の登録特徴点の位置情報に基づく特徴点対数を用いて、前記位置情報が変更された後の前記複数の照合特徴点と前記複数の登録特徴点との類似度を算出する、処理をコンピュータが実行する。
 特徴点同士の類似度の算出精度を向上させることができる。
(a)および(b)は特徴点および特徴量を例示する図である。 特徴点対を例示する図である。 実施例1に係る情報処理装置の全体構成を例示するブロック図である。 生体登録処理の一例を表すフローチャートである。 生体認証処理の一例を表すフローチャートである。 特徴点対を例示する図である。 ステップS18の処理のうち対応点探索処理の一例を表すフローチャートである。 ステップS18の処理のうち照合スコア計算処理の一例を表すフローチャートである。 特徴点対の判断を説明するための図である。 (a)および(b)はステップS19の詳細を表すフローチャートを例示する図である。 実施例2に係る情報処理装置の全体構成を例示するブロック図である。 最良照合スコアの補正の処理を表すフローチャートである。 図5のステップS18が実行された後、ステップS19が実行されるまでの間に実行される処理である。 情報処理装置のハードウェア構成を例示するブロック図である。
 生体認証では、カメラなどのセンサを用いて利用者の生体情報を取得し、取得した生体情報を照合可能な生体特徴量に変換して照合データを生成し、登録データと照合する。例えば、特徴点を用いた生体認証方式では、センサで取得した生体部位の画像などから生体認証に適した特徴点を複数選択し、特徴点近傍の画像から生体特徴量を算出し、その特徴点ごとの生体特徴量を照合することで本人確認を行なう。
 照合データと登録データとで対応する特徴点ごとに生体特徴量を照合することによって、特徴点同士の類似度スコア(特徴量同士がどの程度似ているかを表す特徴量スコア)を求め、さらに複数の特徴点の特徴量スコアを統合する。統合した特徴量スコアを、以下では照合スコアと称する。予め決められた本人判定閾値より照合スコアが大きいかどうかを判定することで、で本人確認を行なうことができる。
 例えば、図1(a)および図1(b)で例示するように、指紋や静脈の分岐点や終点などを「特徴点」として抽出し、各特徴点の座標(X,Y)を抽出し、各特徴点の近傍画像から特徴量を算出する。近傍画像とは、特徴点を含み、取得した生体画像よりも小領域の画像のことである。
 特徴点を用いた照合は様々な方式が可能である。例えば、図2で例示するように、登録データに含まれる特徴量と照合データに含まれる特徴量とを比較し、特徴点ペア(特徴点対)を求める。なお、登録データおよび照合データのうち、少なくともいずれか一方に対して座標変換Tを施すことによって、位置情報を変更し、位置合わせを行なう。図2の例では、照合データに対して座標変換Tが施されている。座標変換Tは、回転や平行移動などから構成されている。
 しかしながら、位置合わせの精度が高くないと、照合データの特徴点と登録データの特徴点との類似度の算出に高い精度が得られないおそれがある。そこで、以下の実施例では、照合データと登録データとの間で、特徴点同士の類似度の算出精度を向上させることができる類似度算出方法、類似度算出プログラムおよび類似度算出装置について説明する。
 図3は、実施例1に係る情報処理装置100の全体構成を例示するブロック図である。実施例1では、情報処理装置100が類似度算出装置として機能する。図3で例示するように、情報処理装置100は、全体管理部10、データベース部20、メモリ部30、特徴抽出部40、照合処理部50、取得部60などを備える。照合処理部50は、照合管理部51、座標変換部52、スコア計算部53、照合スコア計算部54、最良スコア更新部55などを備える。
 全体管理部10は、情報処理装置100の各部の動作を制御する。データベース部20は、登録データを記憶している。メモリ部30は、照合データや処理結果などを一時的に記憶する記憶部である。
 取得部60は、生体センサ200から生体画像を取得する。生体センサ200は、生体画像を取得できるイメージセンサなどである。例えば、生体センサ200は、指紋センサである場合、読み取り面に接触して配置された1本以上の指の指紋を取得するセンサであって光を利用して指紋を取得する光学式センサ、静電容量の差異を利用して指紋を取得する静電容量センサなどである。生体センサ200は、静脈センサである場合、非接触で手のひら静脈を取得するセンサであり、たとえば、人体への透過性が高い近赤外線を用いて手のひらの皮下の静脈を撮影する。静脈センサには、たとえばCMOS(Complementary Metal Oxide Semiconductor)カメラなどが備わっている。また、近赤外線を含む光を照射する照明などが設けられていてもよい。
 照合処理部50は、照合処理結果を表示装置300に出力する。表示装置300は、情報処理装置100の処理結果を表示する。表示装置300は、液晶表示装置などである。ドア制御装置400は、情報処理装置100の認証処理において認証成功した場合などにドアを開閉する装置である。
(生体登録処理)
 図4は、生体登録処理の一例を表すフローチャートである。生体登録処理は、ユーザが登録データを予め登録する際に行なわれる処理である。図4で例示するように、取得部60は、生体センサ200から生体画像を取得する(ステップS1)。次に、特徴抽出部40は、ステップS1で撮影された生体画像から、複数の特徴点を抽出する(ステップS2)。次に、特徴抽出部40は、ステップS2で抽出された各特徴点の特徴量を抽出し、データベース部20に登録データとして格納する(ステップS3)。ここで、特徴量としては、SIFT(Scale-Invariant Feature Transform)やHOG(Histograms of Oriented Gradients)等、様々な方式を利用することができる。N人のユーザに対して生体登録処理を行うことによって、N人の登録データを予め登録しておくことができる。例えば、データベース部20には、ユーザを識別する識別情報と当該ユーザの特徴量とが対応付けて格納されてもよい。
(生体認証処理)
 図5は、生体認証処理の一例を表すフローチャートである。生体認証処理は、本人確認が必要な場面で行なわれる処理である。図5で例示するように、取得部60は、生体センサ200から生体画像を取得する(ステップS11)。次に、特徴抽出部40は、ステップS11で取得された生体画像から、複数の特徴点を抽出する(ステップS12)。次に、特徴抽出部40は、ステップS12で抽出された各特徴点の特徴量を抽出し、照合データを生成する(ステップS13)。
 次に、座標変換部52は、x=1とする(ステップS14)。この処理により、各座標変換Tに番号を付すことができる。
 次に、座標変換部52は、x番目の座標変換Txを算出する(ステップS15)。詳細は後述する。
 次に、座標変換部52は、座標変換Txが妥当か否かを判定する(ステップS16)。詳細は後述する。ステップS16で「No」と判定された場合、ステップS15から再度実行される。
 ステップS16で「Yes」と判定された場合、座標変換部52は、座標変換Txを用いて照合データの座標を変換する(ステップS17)。それにより、位置合わせが行われる。
 次に、照合スコア計算部54は、登録データと、座標変換後の照合データとを用いて、x番目の照合スコアSxを算出する(ステップS18)。詳細は後述する。
 次に、最良スコア更新部55は、ステップS18が繰り返し行われた場合に得られた照合スコアのうち最も高いものを、最良スコアとして更新する(ステップS19)。詳細は後述する。
 次に、座標変換部52は、x=x+1とする(ステップS20)。ステップS20の実行によって、次の座標変換Tを算出することができるようになる。
 次に、座標変換部52は、x<N(=探索数の上限)であるか否かを判定する(ステップS21)。ステップS21の実行によって、探索数の上限まで、座標変換Tを算出することができる。ステップS21で「Yes」と判定された場合、ステップS15から再度実行される。
 ステップS21で「No」と判定された場合、照合管理部51は、最良スコアが閾値以上であるか否かを判定することで認証処理を行なう(ステップS22)。例えば、照合管理部51は、複数の登録データのユーザのうち、照合処理を行っているユーザを特定する。例えば、照合管理部51は、照合処理を行なっているユーザを、最良スコアが閾値以上となる登録データのユーザであると特定する。また、例えば、最良スコアが閾値以上となる登録データが複数ある場合、照合管理部51は、照合処理を行なっているユーザを、最良スコアが閾値以上となる登録データの中で最もスコアの高い登録データのユーザであると特定する。
 次に、表示装置300は、ステップS22の判定結果を表示する(ステップS23)。例えば、認証処理が成功していれば、ドア制御装置400は、ドアの開閉を行う。
 ここで、ステップS15の詳細について説明する。座標変換部52は、予め定められた規則に従って、各座標変換Tを算出する。例えば、座標変換部52は、初期の座標変換に対して回転角度を所定量Δθずつ変更し、平行移動量を所定量(ΔX,ΔY)ずつ変更することで得られる各座標変換Tを、算出してもよい。例えば、座標変換T1に対して、回転角度をΔθ変更したものまたは平行移動量を(ΔX,ΔY)変更したものを、次の座標変換T2としてもよい。
 または、座標変換部52は、座標変換前の照合データと登録データとの間の特徴量スコアを計算し、当該特徴量スコアをソートし、特徴量スコア上位の特徴点対を順番に用いて座標変換を算出してもよい。この場合、全組合せの特徴点スコアを計算してもよく、特徴点座標が一定範囲内に存在する特徴点ペアのみの特徴量スコアを計算してもよい。例えば、特徴量スコアが1位の特徴点対および2位の特徴点対を用いて座標変換T1を算出し、2位の特徴点対および3位の特徴点対を用いて座標変換T2を算出し、3位の特徴点対および4位の特徴点対を用いて座標変換T3を算出してもよい。
 本実施例においては、一例として、座標変換前の照合データと登録データとの間の特徴量スコアを計算し、特徴量スコアをソートし、特徴量スコア上位の特徴点対を順番に用いて座標変換を算出することとする。例えば、図6のように、矢印で示した2組の特徴点対の特徴量スコアが高かったと仮定する。例えば、特徴点スコアが最も高かった2組の対応点が正しい対応と仮定して座標変換を算出することができる。例えば、指紋認証を例にすると、指紋の場合は一般的に接触型センサが用いられるため、3次元的な傾きなどは考える必要がなく、平面内の変動を考えればよい。ほとんどの場合、回転および平行移動によって変動を吸収することができる。また、手のひら静脈認証の場合、手を保持する物理ガイドを用いる場合には姿勢変動が抑えられ、回転と平行移動で十分な場合がある。
 例えば、2組の対応点ペアから回転角度および平行移動量を算出する例を説明する。対応を仮定する登録データの各特徴点の座標をP1(x1,y1)およびP2(x2,y2)とする。また、対応する照合データの各特徴点の座標をQ1(u1,v1)およびQ2(u2,v2)とする。この場合、座標変換適用後のP1とQ1との距離、P2とQ2との距離が最小となる回転角度および平行移動量を求める。回転角度をθ、平行移動量を(ΔX,ΔY)と表わすとすると、座標変換は下記式のように表される。
Figure JPOXMLDOC01-appb-M000001
 上式を同次形式で表現すると、下記式のように表される。
Figure JPOXMLDOC01-appb-M000002
 Q1を変換した後の座標がP1の座標と同じになり,Q2を変換した後の座標がP2の座標と同じになるという条件を課すと、下記式が得られる。
Figure JPOXMLDOC01-appb-M000003
 上式を満たす変換(θ,ΔX,ΔY)を、最小二乗法により算出する。その結果、下記式が得られる。下記式は、AX=Yと表すことができる。
Figure JPOXMLDOC01-appb-M000004
 上式を満たす、誤差が最小の行列Aを求めるには、A=YXを満たすような、行列Xの疑似逆行列Xを求めればよい。
 ステップS16では、このようにして求めた座標変換が妥当な変換かどうかを検証する。例えば、上記の手法は、対応点を仮定して最小二乗法で求めたものである。仮定した対応が妥当かどうかの検証として、算出した座標変換で変換した照合データの各特徴点の座標が、登録データの特徴点の各座標に近いかどうかをチェックする(残差チェック)。例えば、座標変換適用後のP1とQ1との距離、P2とQ2との距離を求め、それぞれの距離が所定の閾値以下であることをチェックしてもよい。または、算出した回転角度θおよび平行移動量(ΔX,ΔY)が事前に設定した閾値以下であることをチェックしてもよい。
 他の座標変換処理を用いてもよい。例えば、剛体変換、アフィン変換、透視変換などの、様々な方式を用いることができる。どの座標変換が妥当かは、認証対象がどのような変動を持つかによって異なる。上記の通り、指紋認証の場合、ほとんどの場合には平面内の変動として扱えば十分である。指紋中心座標が安定して取得できるのであれば、平行移動が不要な場合もある。一方、手のひら静脈認証のように非接触での認証を基本とする場合、3次元的な変動が存在するため、透視投影変換(Perspective projective transformation)が有効な場合もある。また、手のひら静脈認証の場合には物理ガイド(手を載せる台)の有無によっても姿勢変動が異なる。そのため、運用形態に応じて変換方法を変える構成としてもよい。いずれの座標変換処理を用いる場合であっても、座標変換Txに対して、x=x+1とする場合の規則を、予め定めておけばよい。
 次に、ステップS18の詳細について説明する。図7は、ステップS18の処理のうち対応点探索処理の一例を表すフローチャートである。図8は、ステップS18の処理のうち照合スコア計算処理の一例を表すフローチャートである。
 図7で例示するように、スコア計算部53は、対象とする座標変換Tについて、特徴点のペアを表す特徴点対リストを初期化する(ステップS31)。
 次に、スコア計算部53は、i=1とする(ステップS32)。図7における「i」は、登録データの各特徴点のインデックスである。
 次に、スコア計算部53は、j=1とする(ステップS33)。「j」は、照合データの各特徴点のインデックスである。
 次に、スコア計算部53は、特徴点(i,j)の距離(特徴点iと特徴点jとの距離)が所定の閾値Dthよりも小さいか否かを判定する(ステップS34)。ステップS34の実行によって、図9で例示するように、特徴点iと特徴点jとの距離差(距離)が所定の閾値Dth未満の特徴点対を“対応が取れた特徴点対”と判断することができる。なお、照合データおよび登録データの両方が本人のものであっても、図9のように、対応が取れない特徴点も存在し得る。なお、例えば、スコア計算部53は、特徴点(i,j)の距離が所定の閾値Dth以下であるか否かを判定するようにしてもよい。
 ステップS34で「Yes」と判定された場合、スコア計算部53は、特徴点対(i,j)を特徴点対リストに追加する(ステップS35)。
 ステップS34で「No」と判定された場合、スコア計算部53は、j=j+1とする(ステップS36)。
 次に、スコア計算部53は、j>N2(=照合データの特徴点数)であるか否かを判定する(ステップS37)ステップS37で「No」と判定された場合、ステップS34から再度実行される。
 ステップS35の実行後、またはステップS37で「Yes」と判定された場合、スコア計算部53は、i=i+1とする(ステップS38)。
 次に、スコア計算部53は、i>N1(=登録データの特徴点数)であるか否かを判定する(ステップS39)。ステップS39で「No」と判定された場合、ステップS33から再度実行される。ステップS39で「Yes」と判定された場合、フローチャートの実行が終了する。以上の処理により、対応点対の探索ループが終了する。
 次に、図8で例示するように、スコア計算部53は、照合スコアSxを無効な値(例えば、0など)とする(ステップS41)。ステップS41の実行によって、照合スコアSxが無効値となり、照合スコアが計算されないことになる。
 次に、スコア計算部53は、特徴点対リストの対応点数が閾値Nth未満であるか否かを判定する(ステップS42)。ステップS42の実行によって、座標変換Txによって座標変換した後の照合データと登録データとの間における特徴点対の数が多いか否かを判定することができる。特徴点対が多いほど信頼できることになるため、座標変換Txが信頼できるものであるか否かを判定することができる。
 ステップS42で「Yes」と判定された場合、フローチャートの実行が終了する。それにより、信頼できない座標変換を排除することができるため、特徴点同士の類似度の算出精度を向上させることができる。それにより、照合スコアの精度が向上する。また、無駄な計算を省略することができるため、処理時間を短縮化することができる。
 ステップS42で「No」と判定された場合、照合スコア計算部54は、特徴点対リストにある上位Nth個(あるいは、Nth番目まで)の特徴量スコアの平均値を照合スコアとして算出する(ステップS43)。特徴点対リストにある特徴量スコアは、スコア計算部53が、ベクトル間の内積やベクトル間距離などを用いて計算する。その後、フローチャートの実行が終了する。また、例えば、スコア計算部53は、特徴点対リストの対応点数が閾値Nth以上であるか否かを判定するようにしてもよい。その際、対応点数が閾値Nth以上である(「Yes」)と判定された場合、照合スコア計算部54は、特徴点対リストにある上位Nth個の特徴量スコアの平均値を照合スコアとして算出するようにしてもよい。
 次に、ステップS19の詳細について説明する。図10(a)および図10(b)は、ステップS19の詳細を表すフローチャートを例示する図である。図10(a)は、初期化処理を表す。図10(b)は、照合ループ内処理を表す。
 図10(a)で例示するように、最良スコア更新部55は、最良スコアSを無効な値(例えば、0など)とする(ステップS51)。ステップS51の実行によって、最良スコアSが無効値となり、最良スコアが更新されないことになる。次に、最良スコア更新部55は、特徴点対リストの対応点数が閾値Nth以上となっている座標変換Tの個数(座標変換数K1)を初期化(K1=0)する(ステップS52)。以上の処理により、初期化が行われる。
 図10(b)で例示するように、最良スコア更新部55は、x番目の照合スコアSxを取得する(ステップS61)。
 次に、最良スコア更新部55は、照合スコアSxが有効か否かを判定する(ステップS62)。具体的には、x番目の座標変換Txで座標変換した後の照合データと登録データとの間で得られる特徴点対リストの対応点数が閾値Nth以上である場合に、照合スコアSxが有効であると判定する。
 ステップS62で「Yes」と判定された場合、最良スコア更新部55は、特徴点対リストの対応点数が閾値Nth以上となっている座標変換Tの個数(座標変換数K1)をK1+1として更新する(ステップS63)。
 次に、最良スコア更新部55は、照合スコアSxが最良スコアSよりも大きいか否かを判定する(ステップS64)。
 ステップS64で「Yes」と判定された場合、最良スコア更新部55は、最良スコアSを更新する(ステップS65)。その後、フローチャートの実行が終了する。ステップS64で「No」と判定された場合およびステップS66で「No」と判定された場合にも、フローチャートの実行が終了する。
 照合スコアSxが算出されるごとに、図10(b)の処理が実行されるため、特徴点対リストの対応点数が閾値Nth以上となっている座標変換Tの個数(座標変換数K1)が算出される。
 本実施例によれば、座標変換によって位置情報が変更された後の照合データの特徴点(照合特徴点)および登録データの特徴点(登録特徴点)の位置情報に基づく特徴点対数を用いられる。具体的には、特徴点対リストの対応点数が閾値Nth未満となるような信頼できない座標変換を排除している。それにより、位置情報が変更された後の複数の照合特徴点と複数の登録特徴点との類似度が算出される。それにより、類似度の算出精度が向上する。また、例えば、類似度の算出精度の向上により、認証精度が向上する。
 図11は、実施例2に係る情報処理装置100aの全体構成を例示するブロック図である。情報処理装置100aが実施例1の情報処理装置100と異なる点は、照合処理部50が、さらに補正部56を備えている点である。以下、実施例1と異なる点について説明する。
 本実施例においては、座標変換数K1(特徴点対リストの対応点数が閾値Nth以上となっている座標変換Tの個数)を用いて最良照合スコアSを補正する。図12で例示するように、補正部56は、最良スコアSを取得するとともに、座標変換数K1を取得する(ステップS71)。次に、補正部56は、最良照合スコアSを、S+α1×K1に補正する(ステップS72)。この補正により、信頼できる座標変換Tが多いほど最良スコアSを大きくすることができる。それにより、最良スコアの算出精度が向上する。
 続いて、実施例3について説明する。実施例3に係る情報処理装置の全体構成は、実施例2と同様である。以下、実施例1と異なる点について説明する。
 本実施例においては、特徴点対リストの特徴点対の個数(特徴点対数K2)を用いて、照合スコアSxを補正する。図13は、図5のステップS18が実行された後、ステップS19が実行されるまでの間に実行される処理である。図13で例示するように、補正部56は、照合スコアSxおよび特徴点対数K2を取得する(ステップS81)。次に、補正部56は、照合スコアSxをSx+α2×K2に補正する(ステップS82)。この補正により、特徴点対数K2が多いほど照合スコアSxを大きくすることができる。それにより、照合スコアの算出精度が向上する。
(ハードウェア構成)
 図14は、情報処理装置100または情報処理装置100aの全体管理部10、データベース部20、メモリ部30、特徴抽出部40、照合処理部50、取得部60のハードウェア構成を例示するブロック図である。図14で例示するように、情報処理装置100,100aは、CPU101、RAM102、記憶装置103、インタフェース104等を備える。
 CPU(Central Processing Unit)101は、中央演算処理装置である。CPU101は、1以上のコアを含む。RAM(Random Access Memory)102は、CPU101が実行するプログラム、CPU101が処理するデータなどを一時的に記憶する揮発性メモリである。記憶装置103は、不揮発性記憶装置である。記憶装置103として、例えば、ROM(Read Only Memory)、フラッシュメモリなどのソリッド・ステート・ドライブ(SSD)、ハードディスクドライブに駆動されるハードディスクなどを用いることができる。記憶装置103は、類似度算出プログラムを記憶している。インタフェース104は、外部機器とのインタフェース装置である。CPU101が認証プログラムを実行することで、情報処理装置100,100aの全体管理部10、データベース部20、メモリ部30、特徴抽出部40、照合処理部50、および取得部60が実現される。なお、全体管理部10、データベース部20、メモリ部30、特徴抽出部40、照合処理部50、および取得部60として、専用の回路などのハードウェアを用いてもよい。
 上記各例において、照合スコアSxが、特徴点対ごとの類似度を用いて算出される複数の照合特徴点の第1スコアの一例である。最良スコアSが、座標変換が実施されるたびに第1スコアから得られる第2スコアの一例である。取得部60が、位置情報を含む複数の照合特徴点を取得する取得部の一例である。座標変換部52が、複数の照合特徴点と、記憶部に記憶された複数の登録特徴点と、のうち少なくともいずれか一方の位置情報の変更を実施する変更部の一例である。データベース部20が、記憶部の一例である。スコア計算部53および照合スコア計算部54が、位置情報が変更された後の複数の照合特徴点および複数の登録特徴点の位置情報に基づく特徴点対数を用いて、位置情報が変更された後の複数の照合特徴点と複数の登録特徴点との類似度を算出する算出部の一例である。
 以上、本発明の実施例について詳述したが、本発明は係る特定の実施例に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。例えば、上記各例では、座標変換を用いて照合データの位置情報を変更しているが、登録データおよび照合データの少なくともいずれか一方の位置情報を変更してもよい。
 10 全体管理部
 20 データベース部
 30 メモリ部
 40 特徴抽出部
 50 照合処理部
 51 照合管理部
 52 座標変換部
 53 スコア計算部
 54 照合スコア計算部
 55 最良スコア更新部
 56 補正部
 60 取得部
 100,100a 情報処理装置
 200 生体センサ
 300 表示装置
 400 ドア制御装置

Claims (17)

  1.  位置情報を含む複数の照合特徴点を取得し、
     前記複数の照合特徴点と、記憶部に記憶された複数の登録特徴点と、のうち少なくともいずれか一方の位置情報の変更を実施し、
     前記位置情報が変更された後の前記複数の照合特徴点および前記複数の登録特徴点の位置情報に基づく特徴点対数を用いて、前記位置情報が変更された後の前記複数の照合特徴点と前記複数の登録特徴点との類似度を算出する、処理をコンピュータが実行することを特徴とする類似度算出方法。
  2.  前記記憶部を参照し、算出された前記類似度に基づいて、前記複数の登録特徴点それぞれに対応する登録ユーザのうち、取得した前記照合特徴点に対応するユーザを特定することを特徴とする請求項1に記載の類似度算出方法。
  3.  前記特徴点対数が閾値以上であるか否かを判定し、
     前記特徴点対数が前記閾値以上であると判定された場合に、前記類似度を算出することを特徴とする請求項1または請求項2に記載の類似度算出方法。
  4.  前記位置情報が変更された後の前記複数の照合特徴点と前記複数の登録特徴点との間で、距離が閾値以下となる特徴点同士を特徴点対とすることを特徴とする請求項1または請求項2に記載の類似度算出方法。
  5.  前記位置情報が変更される前の前記複数の照合特徴点と前記複数の登録特徴点との間でいずれかの特徴点対の位置関係を用いて、前記位置情報を変更することを特徴とする請求項1または請求項2に記載の類似度算出方法。
  6.  前記特徴点対ごとに前記位置情報が変更された後の前記照合特徴点と前記登録特徴点との類似度を算出し、前記特徴点対ごとの前記類似度を用いて前記複数の照合特徴点の第1スコアを算出することを特徴とする請求項1または請求項2に記載の類似度算出方法。
  7.  前記第1スコアの算出に、前記特徴点対ごとの前記類似度のうち上位所定番目までの類似度を用いることを特徴とする請求項6に記載の類似度算出方法。
  8.  前記第1スコアのうち最も高いものを前記第2スコアとして選択することを特徴とする請求項6に記載の類似度算出方法。
  9.  前記特徴点対の個数を用いて、前記第1スコアを補正することを特徴とする請求項6記載の類似度算出方法。
  10.  前記特徴点対の個数が多いほど、前記第1スコアを高くすることを特徴とする請求項9に記載の類似度算出方法。
  11.  前記位置情報の変更に、複数の座標変換を用い、
     前記複数の座標変換のうち、前記位置情報が変更された後の前記複数の照合特徴点と前記複数の登録特徴点との間に所定の条件を満足する座標変換の個数を用いて、前記第2スコアを補正することを特徴とする請求項7に記載の類似度算出方法。
  12.  前記所定の条件を満足する座標変換の個数が多いほど、前記第2スコアを高くすることを特徴とする請求項11に記載の類似度算出方法。
  13.  前記複数の座標変換は、前記位置情報が変更される前の前記複数の照合特徴点と前記複数の登録特徴点との間で得られる特徴点対のうち類似度の高い順に選択した特徴点対の位置関係を用いて、算出されることを特徴とする請求項11に記載の類似度算出方法。
  14.  前記所定の条件とは、前記複数の照合特徴点と前記複数の登録特徴点との間に、距離が閾値以下となる特徴点対数が閾値以上になることを特徴とする請求項11に記載の類似度算出方法。
  15.  前記複数の照合特徴点は、生体から抽出される特徴点であることを特徴とする請求項1または請求項2に記載の類似度算出方法。
  16.  コンピュータに、
     位置情報を含む複数の照合特徴点を取得する処理と、
     前記複数の照合特徴点と、記憶部に記憶された複数の登録特徴点と、のうち少なくともいずれか一方の位置情報の変更を実施する処理と、
     前記位置情報が変更された後の前記複数の照合特徴点および前記複数の登録特徴点の位置情報に基づく特徴点対数を用いて、前記位置情報が変更された後の前記複数の照合特徴点と前記複数の登録特徴点との類似度を算出する処理と、を実行させることを特徴とする類似度算出プログラム。
  17.  位置情報を含む複数の照合特徴点を取得する取得部と、
     前記複数の照合特徴点と、記憶部に記憶された複数の登録特徴点と、のうち少なくともいずれか一方の位置情報の変更を実施する変更部と、
     前記位置情報が変更された後の前記複数の照合特徴点および前記複数の登録特徴点の位置情報に基づく特徴点対数を用いて、前記位置情報が変更された後の前記複数の照合特徴点と前記複数の登録特徴点との類似度を算出する算出部と、を備えることを特徴とする類似度算出装置。
PCT/JP2022/023615 2022-06-13 2022-06-13 類似度算出方法、類似度算出プログラム、および類似度算出装置 WO2023242899A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/023615 WO2023242899A1 (ja) 2022-06-13 2022-06-13 類似度算出方法、類似度算出プログラム、および類似度算出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/023615 WO2023242899A1 (ja) 2022-06-13 2022-06-13 類似度算出方法、類似度算出プログラム、および類似度算出装置

Publications (1)

Publication Number Publication Date
WO2023242899A1 true WO2023242899A1 (ja) 2023-12-21

Family

ID=89192562

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/023615 WO2023242899A1 (ja) 2022-06-13 2022-06-13 類似度算出方法、類似度算出プログラム、および類似度算出装置

Country Status (1)

Country Link
WO (1) WO2023242899A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272568A (ja) * 2006-03-31 2007-10-18 Secom Co Ltd 生体情報照合装置
WO2021250858A1 (ja) * 2020-06-11 2021-12-16 富士通株式会社 認証方法、認証プログラム、および情報処理装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007272568A (ja) * 2006-03-31 2007-10-18 Secom Co Ltd 生体情報照合装置
WO2021250858A1 (ja) * 2020-06-11 2021-12-16 富士通株式会社 認証方法、認証プログラム、および情報処理装置

Similar Documents

Publication Publication Date Title
CN110326001B (zh) 使用利用移动设备捕捉的图像执行基于指纹的用户认证的系统和方法
Matsuda et al. Finger-vein authentication based on deformation-tolerant feature-point matching
Alonso-Fernandez et al. Iris recognition based on sift features
Connaughton et al. Fusion of face and iris biometrics
EP2833294B1 (en) Device to extract biometric feature vector, method to extract biometric feature vector and program to extract biometric feature vector
US20160147987A1 (en) Biometrics-based authentication method and apparatus
CN110945520B (zh) 生物体认证系统
KR101603469B1 (ko) 생체 인증 장치, 생체 인증 방법 및 생체 인증용 컴퓨터 프로그램
US11315341B2 (en) Information processing apparatus, verification method, and computer-readable recording medium recording verification program
US9070025B2 (en) Biometric information processing apparatus, biometric information processing method
JP6648639B2 (ja) 生体情報処理装置、生体情報処理方法および生体情報処理プログラム
JP6197613B2 (ja) 生体情報抽出装置、生体情報抽出方法、および生体情報抽出プログラム
US20180089527A1 (en) Method, apparatus, and non-transitory computer-readable storage medium for verification process
Wu et al. Deformed palmprint matching based on stable regions
JP6908843B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2012256272A (ja) 生体識別装置、及び、生体識別方法
JP6617570B2 (ja) 生体認証装置、生体認証方法、および生体認証プログラム
JP6349817B2 (ja) 位置合わせ装置、位置合わせ方法及び位置合わせ用コンピュータプログラム
WO2023242899A1 (ja) 類似度算出方法、類似度算出プログラム、および類似度算出装置
Matsuda et al. Walkthrough-style multi-finger vein authentication
US20230070660A1 (en) Authentication method, non-transitory computer-readable storage medium for storing authentication program, and information processing device
JP6798285B2 (ja) 生体認証装置、生体認証方法及びプログラム
WO2022185486A1 (ja) 認証方法、認証プログラム、および情報処理装置
JP6488853B2 (ja) 認証処理プログラム、認証処理装置および認証処理方法
JP5914995B2 (ja) 生体識別装置、及び、生体識別方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22946719

Country of ref document: EP

Kind code of ref document: A1