JP2017010419A - Information processing program and information processing device - Google Patents

Information processing program and information processing device Download PDF

Info

Publication number
JP2017010419A
JP2017010419A JP2015127421A JP2015127421A JP2017010419A JP 2017010419 A JP2017010419 A JP 2017010419A JP 2015127421 A JP2015127421 A JP 2015127421A JP 2015127421 A JP2015127421 A JP 2015127421A JP 2017010419 A JP2017010419 A JP 2017010419A
Authority
JP
Japan
Prior art keywords
information
points
acquired
point
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015127421A
Other languages
Japanese (ja)
Other versions
JP6526494B2 (en
Inventor
梅崎 太造
Taizo Umezaki
太造 梅崎
政大 保黒
Masahiro Hoguro
政大 保黒
公央亮 服部
Kosuke HATTORI
公央亮 服部
雄平 原田
Yuhei Harada
雄平 原田
健滋 三吉野
Kenji Miyoshino
健滋 三吉野
徳田 清仁
Kiyohito Tokuda
清仁 徳田
達樹 吉嶺
Tatsuki Yoshimine
達樹 吉嶺
祐平 丹羽
Yuhei Niwa
祐平 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DDS KK
Original Assignee
DDS KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DDS KK filed Critical DDS KK
Priority to JP2015127421A priority Critical patent/JP6526494B2/en
Publication of JP2017010419A publication Critical patent/JP2017010419A/en
Application granted granted Critical
Publication of JP6526494B2 publication Critical patent/JP6526494B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing program and an information processing device with which it is possible to create verification information that is unsusceptible to the effect of a bio-information acquisition condition even when the size of an image representing bio-information is smaller than a conventional one.SOLUTION: The processor of the information processing device executes the processes of: calculating the geometrical feature values of three feature points extracted from an image; acquiring a plurality of first information corresponding to the position of a first reference point on a line segment linking two points of interest (S37); acquiring, for each of the first information, a sample in which the color information of a second reference point and second information are correlated, for a plurality of second reference points, and acquiring sample information (S38); calculating, for each of the first information, the frequency component of a change in color information to the second information, and acquiring frequency information (S40); and making storage means store verification information in which the sample information and frequency information are correlated with the geometrical feature values (S42).SELECTED DRAWING: Figure 7

Description

本発明は、画像を解析して、生体情報の照合に用いられる照合情報を作成する情報処理プログラム及び情報処理装置に関する。   The present invention relates to an information processing program and an information processing apparatus for analyzing images and creating collation information used for collation of biological information.

近年、スマートフォン及びノートパソコンのようなモバイル機器に搭載可能な、指紋認証装置が種々検討されている。例えば、特許文献1には、指紋画像を周波数スペクトル変換した情報を照合に用いる照合情報とすることで、指紋センサーに対する指の傾き等の外乱の影響を受けにくい個人識別装置が開示されている。   In recent years, various fingerprint authentication devices that can be mounted on mobile devices such as smartphones and notebook computers have been studied. For example, Patent Literature 1 discloses a personal identification device that is less susceptible to disturbances such as finger tilt with respect to a fingerprint sensor by using information obtained by frequency spectrum conversion of a fingerprint image as collation information used for collation.

特許第3057590号明細書Japanese Patent No. 3057590

モバイル機器に搭載される指紋センサーの小型化に伴い、取得される指紋の画像は従来に比べ小さくなっている。ユーザーは指紋の入力操作を行う場合、モバイル機器を所持した側の手の指を、モバイル機器に搭載された指紋センサーに接触させることが多い。この場合、ユーザーは指を不自然な向きに移動させなければならないので、指紋の入力操作は不安定になりやすい。つまり、登録時とは位置及び角度が異なる条件で取得された画像が取得されやすい。したがって、従来に比べ画像の大きさが小さい場合であっても、生体情報の取得条件の影響を受けにくい照合情報を作成する技術が要求されている。   Accompanying the miniaturization of fingerprint sensors mounted on mobile devices, acquired fingerprint images are smaller than before. When a user performs a fingerprint input operation, the finger of the hand holding the mobile device often comes into contact with a fingerprint sensor mounted on the mobile device. In this case, since the user has to move the finger in an unnatural direction, the fingerprint input operation tends to be unstable. That is, it is easy to acquire an image acquired under conditions where the position and angle are different from those at the time of registration. Therefore, there is a demand for a technique for creating collation information that is less affected by the biometric information acquisition condition even when the image size is smaller than that of the conventional art.

本発明の目的は、生体情報を表す画像の大きさが従来に比べ小さい場合であっても、生体情報の取得条件の影響を受けにくい照合情報を作成可能な情報処理プログラム及び情報処理装置を提供することである。   An object of the present invention is to provide an information processing program and an information processing apparatus capable of creating collation information that is not easily affected by the biometric information acquisition condition even when the size of an image representing the biometric information is smaller than the conventional size. It is to be.

本発明の第1態様に係る情報処理プログラムは、プロセッサと、記憶手段とを備えたコンピュータに、画像を取得する画像取得ステップと、前記画像取得ステップで取得された前記画像を解析して、特徴点を抽出する抽出ステップと、前記抽出ステップで抽出された前記特徴点を3つ取得する特徴点取得ステップと、前記特徴点取得ステップで取得された3つの前記特徴点によって表される三角形の幾何学的特徴量を算出する特徴量算出ステップと、前記特徴点取得ステップで取得された前記3つの特徴点の中から、2つの特徴点をそれぞれ注目点として選択する選択ステップと、前記選択ステップで選択された2つの前記注目点を結ぶ線分上の点であって、前記幾何学的特徴量に基づき決定された点である第1参照点の位置に対応する第1情報を、互いに位置が異なる複数の前記第1参照点のそれぞれについて取得する参照点取得ステップと、前記参照点取得ステップで取得された複数の前記第1情報のそれぞれについて、前記第1情報に対応する前記第1参照点を中心とする所定半径の円の周上の点であって、前記幾何学的特徴量に基づき決定された点である第2参照点に対応する色情報と、前記第2参照点の位置に対応する第2情報とを対応づけた情報であるサンプルを、互いに位置が異なる複数の前記第2参照点のそれぞれについて取得し、取得された複数の前記サンプルと、前記第1情報とを対応づけた情報をサンプル情報とする処理を行うサンプル情報取得ステップと、前記サンプル情報取得ステップで取得された前記サンプル情報に基づき、前記複数の第1参照点のそれぞれについて、前記第2情報に対する前記色情報の変化の周波数成分を算出し、前記複数の第1参照点のそれぞれについて算出された前記周波数成分を前記第1情報と対応づけた情報である周波数情報を取得する周波数情報取得ステップと、前記サンプル情報及び前記周波数情報を、前記幾何学的特徴量と対応づけた情報を、生体情報の照合に用いる照合情報として前記記憶手段に記憶させる記憶制御ステップとを実行させるためのプログラムである。   An information processing program according to the first aspect of the present invention is characterized in that a computer having a processor and a storage means analyzes an image acquisition step of acquiring an image, and analyzes the image acquired in the image acquisition step. An extraction step for extracting points; a feature point acquisition step for acquiring three feature points extracted in the extraction step; and a geometry of a triangle represented by the three feature points acquired in the feature point acquisition step A feature amount calculating step for calculating a geometric feature amount; a selection step for selecting two feature points as attention points from the three feature points acquired in the feature point acquisition step; and A first point corresponding to a position of a first reference point, which is a point on a line segment connecting the two selected points of interest and determined based on the geometric feature amount. A reference point acquiring step for acquiring information for each of the plurality of first reference points having different positions, and a plurality of the first information acquired in the reference point acquiring step corresponding to the first information Color information corresponding to a second reference point that is a point on the circumference of a circle having a predetermined radius centered on the first reference point and determined based on the geometric feature amount; and A sample that is information that associates the second information corresponding to the position of the two reference points is acquired for each of the plurality of second reference points that have different positions, and the plurality of acquired samples, A sample information acquisition step for performing processing in which information associated with one information is used as sample information, and based on the sample information acquired in the sample information acquisition step, the plurality of first reference points For each, information is obtained by calculating a frequency component of the color information change with respect to the second information and associating the frequency component calculated for each of the plurality of first reference points with the first information. A frequency information acquisition step for acquiring frequency information, and a storage control for storing the sample information and the frequency information in association with the geometric feature amount in the storage means as verification information used for verification of biological information Is a program for executing steps.

第1態様の情報処理プログラムに基づき照合情報を生成すれば、画像から抽出された特徴点に基づきサンプル情報及び周波数情報を含む照合情報が取得される。サンプル情報及び周波数情報は、抽出された特徴点の中から選択された2つの注目点を結ぶ線分の周囲の点の色情報の変化を表す情報である。このため、画像から抽出された特徴点の数が少ない場合にも、精度よく照合可能な情報を生成することができる。サンプル情報及び周波数情報は、幾何学的特徴量に基づき決定された点について取得された情報である。したがって、本プログラムに基づき照合情報を生成すれば、幾何学的特徴量が考慮されない点について情報が取得された場合に比べ、画像によって表される情報(例えば、指紋画像又は静脈画像によって表される生体情報)が基準に対して回転したり、移動したりした影響が低減された照合情報を生成することができる。   If collation information is generated based on the information processing program of the 1st mode, collation information including sample information and frequency information is acquired based on the feature point extracted from the image. The sample information and the frequency information are information representing changes in color information of points around a line segment connecting two attention points selected from the extracted feature points. For this reason, even when the number of feature points extracted from the image is small, it is possible to generate information that can be accurately collated. The sample information and the frequency information are information acquired for points determined based on the geometric feature amount. Therefore, if collation information is generated based on this program, information represented by an image (for example, represented by a fingerprint image or a vein image), compared to a case where information is acquired about a point where a geometric feature amount is not considered. It is possible to generate collation information in which the influence of rotation or movement of (biological information) with respect to the reference is reduced.

第1態様の情報処理プログラムの前記選択ステップは、前記3つの特徴点の全ての2点の組み合わせに対応する3組の前記2つの注目点のそれぞれを選択してもよい。この場合の情報処理プログラムに基づき照合情報が生成されれば、1組の2つの注目点が選択される場合に比べ、多くの照合情報が生成される。   The selection step of the information processing program according to the first aspect may select each of three sets of the two attention points corresponding to a combination of all two points of the three feature points. If collation information is generated based on the information processing program in this case, a lot of collation information is generated as compared with a case where a set of two attention points is selected.

第1態様の情報処理プログラムは、照合の対象となるテスト用の前記照合情報と、前記記憶手段に記憶された参照用の前記照合情報と照合する照合ステップを備えてもよい。この場合の情報処理プログラムに基づき生体情報の照合が実行されれば、画像から抽出された特徴点に基づきサンプル情報及び周波数情報を取得するため、画像から抽出された特徴点の数が少ない場合にも、精度よく照合可能である。サンプル情報及び周波数情報は、幾何学的特徴量に基づき決定された点について取得された情報である。したがって、本プログラムに基づき照合すれば、幾何学的特徴量が考慮されない点について情報が取得された場合に比べ、生体情報が基準に対して回転したり、移動したりした影響が低減された、精度のよい照合結果を得ることができる。   The information processing program according to the first aspect may include a collation step for collating the collation information for testing to be collated with the collation information for reference stored in the storage unit. If biometric information is collated based on the information processing program in this case, sample information and frequency information are acquired based on the feature points extracted from the image, and therefore the number of feature points extracted from the image is small. Can be collated with high accuracy. The sample information and the frequency information are information acquired for points determined based on the geometric feature amount. Therefore, if collation is performed based on this program, the effect of the biological information rotating or moving relative to the reference is reduced compared to the case where information is acquired about the point where the geometric feature amount is not considered. A highly accurate collation result can be obtained.

第1態様の情報処理プログラムの前記特徴点取得ステップは、前記抽出ステップで抽出された複数の前記特徴点のうち、前記所定半径に基づき決定された所定範囲内にある複数の特徴点から前記3つの特徴点を選択する場合の、全ての組み合わせに対応する複数組の前記3つの特徴点を取得し、前記選択ステップは、前記特徴点取得ステップで取得された前記複数組の3つの特徴点のうち、前記特徴量算出ステップで算出された前記幾何学的特徴量に基づき、前記三角形の面積が所定値以上となる前記3つの特徴点について、前記2つの注目点を選択する処理を実行し、前記照合ステップは、前記テスト用の照合情報で表されるテスト用の前記三角形と、前記参照用の照合情報で表される参照用の前記三角形とのそれぞれの前記幾何学的特徴量を、前記三角形の面積が大きい順に比較して、類似度が閾値以下となる、前記テスト用の三角形と、前記参照用の三角形とのペアを抽出するペア抽出ステップと、前記ペア抽出ステップで抽出された前記テスト用の三角形に対応する前記サンプル情報及び前記周波数情報と、前記参照用の三角形に対応する前記サンプル情報及び前記周波数情報とを照合する抽出後照合ステップとを備えてもよい。   The feature point acquisition step of the information processing program according to the first aspect includes the plurality of feature points within the predetermined range determined based on the predetermined radius among the plurality of feature points extracted in the extraction step. In the case of selecting one feature point, a plurality of sets of the three feature points corresponding to all combinations are acquired, and the selection step includes the plurality of sets of the three feature points acquired in the feature point acquisition step. Of these, based on the geometric feature amount calculated in the feature amount calculation step, for the three feature points where the area of the triangle is equal to or greater than a predetermined value, the process of selecting the two attention points, The collation step includes the geometric feature of each of the test triangle represented by the test collation information and the reference triangle represented by the reference collation information. Are extracted in the pair extraction step and the pair extraction step for extracting the pair of the test triangle and the reference triangle whose similarity is equal to or less than a threshold value. The sample information and the frequency information corresponding to the test triangle, and the post-extraction verification step for verifying the sample information and the frequency information corresponding to the reference triangle may be provided.

特徴点取得ステップで取得された3つの特徴点のそれぞれの位置が互いに近接し、3つの特徴点で表される三角形の面積が所定値未満の場合には、三角形の面積が所定値以上の場合に比べ、サンプル情報が示す色情報の変化が少ない。このため、この場合の情報処理プログラムに基づき生体情報の照合が実行されれば、3つの特徴点で表される三角形の面積が所定値未満の場合には、それら3つの特徴点に基づき、照合情報は取得されない。したがって本発明のプログラムによれば、三角形の面積が所定値未満となる3つの特徴点に基づき照合情報が生成される場合に比べ、照合情報を用いた照合の精度を高めることができる。   When the positions of the three feature points acquired in the feature point acquisition step are close to each other and the area of the triangle represented by the three feature points is less than a predetermined value, the area of the triangle is greater than or equal to the predetermined value Compared to the above, there is little change in the color information indicated by the sample information. Therefore, if biometric information is collated based on the information processing program in this case, if the area of the triangle represented by the three feature points is less than a predetermined value, the collation is performed based on the three feature points. Information is not acquired. Therefore, according to the program of the present invention, it is possible to improve the accuracy of collation using the collation information, compared to the case where the collation information is generated based on three feature points whose triangle area is less than a predetermined value.

本発明の第2態様に係る情報処理装置は、情報を記憶する記憶手段と、画像を取得する画像取得手段と、前記画像取得手段によって取得された前記画像を解析して、特徴点を抽出する抽出手段と、前記抽出手段によって抽出された前記特徴点を3つ取得する特徴点取得手段と、前記特徴点取得手段によって取得された3つの前記特徴点によって表される三角形の幾何学的特徴量を算出する特徴量算出手段と、前記特徴点取得手段によって取得された前記3つの特徴点の中から、2つの特徴点をそれぞれ注目点として選択する選択手段と、前記選択手段によって選択された2つの前記注目点を結ぶ線分上の点であって、前記幾何学的特徴量に基づき決定された点である第1参照点の位置に対応する第1情報を、互いに位置が異なる複数の前記第1参照点のそれぞれについて取得する参照点取得手段と、前記参照点取得手段によって取得された複数の前記第1情報のそれぞれについて、前記第1情報に対応する前記第1参照点を中心とする所定半径の円の周上の点であって、前記幾何学的特徴量に基づき決定された点である第2参照点に対応する色情報と、前記第2参照点の位置に対応する第2情報とを対応づけた情報であるサンプルを、互いに位置が異なる複数の前記第2参照点のそれぞれについて取得し、取得した複数の前記サンプルと、前記第1情報とを対応づけた情報をサンプル情報とする処理を行うサンプル情報取得手段と、前記サンプル情報取得手段によって取得された前記サンプル情報に基づき、前記複数の第1参照点のそれぞれについて、前記第2情報に対する前記色情報の変化の周波数成分を算出し、前記複数の第1参照点のそれぞれについて算出された前記周波数成分を前記第1情報と対応づけた情報である周波数情報を取得する周波数情報取得手段と、前記サンプル情報及び前記周波数情報を、前記幾何学的特徴量と対応づけた情報を、生体情報の照合に用いる照合情報として前記記憶手段に記憶させる記憶制御手段と
を備える。
An information processing apparatus according to a second aspect of the present invention extracts a feature point by analyzing a storage unit that stores information, an image acquisition unit that acquires an image, and the image acquired by the image acquisition unit. An extraction means; a feature point acquisition means for acquiring three feature points extracted by the extraction means; and a geometric feature amount of a triangle represented by the three feature points acquired by the feature point acquisition means A feature quantity calculating means for calculating the feature point; a selecting means for selecting two feature points as attention points from the three feature points acquired by the feature point acquiring means; and 2 selected by the selecting means. First information corresponding to the position of a first reference point, which is a point on a line segment connecting the two points of interest and determined based on the geometric feature amount, First A reference point acquisition unit that acquires each of the reference points, and a predetermined radius centered on the first reference point corresponding to the first information for each of the plurality of first information acquired by the reference point acquisition unit Color information corresponding to a second reference point that is a point on the circumference of the circle and determined based on the geometric feature, and second information corresponding to a position of the second reference point Is obtained for each of the plurality of second reference points at different positions, and the information obtained by associating the obtained plurality of samples with the first information is used as sample information. Sample information acquisition means for performing processing, and the color for the second information for each of the plurality of first reference points based on the sample information acquired by the sample information acquisition means Frequency information acquisition means for calculating a frequency component of a change in information and acquiring frequency information that is information obtained by associating the frequency component calculated for each of the plurality of first reference points with the first information; And storage control means for storing, in the storage means, information that associates the sample information and the frequency information with the geometric feature value as collation information used for collation of biological information.

第2態様の情報処理装置は、画像から抽出された特徴点に基づきサンプル情報及び周波数情報を取得するため、画像から抽出された特徴点の数が少ない場合にも、精度よく照合可能な照合情報を生成することができる。サンプル情報及び周波数情報は、幾何学的特徴量に基づき決定された点について取得された情報である。したがって、情報処理装置は、幾何学的特徴量が考慮されない点について情報が取得された場合に比べ、画像によって表される情報(例えば、指紋画像又は静脈画像によって表される生体情報)が基準に対して回転したり、移動したりした影響が低減された照合情報を生成することができる。   Since the information processing apparatus according to the second aspect acquires sample information and frequency information based on the feature points extracted from the image, the collation information that can be accurately collated even when the number of feature points extracted from the image is small Can be generated. The sample information and the frequency information are information acquired for points determined based on the geometric feature amount. Therefore, the information processing apparatus is based on information represented by an image (for example, biological information represented by a fingerprint image or a vein image), compared to a case where information is acquired about a point where a geometric feature is not considered. On the other hand, it is possible to generate collation information in which the influence of rotation or movement is reduced.

情報処理装置10のブロック図である。2 is a block diagram of the information processing apparatus 10. FIG. 情報処理装置10の機能ブロック図である。2 is a functional block diagram of the information processing apparatus 10. FIG. 照合情報処理のフローチャートである。It is a flowchart of collation information processing. 図3の照合情報処理で実行される画像解析処理のフローチャートである。It is a flowchart of the image analysis process performed by the collation information processing of FIG. 生体情報取得装置8から取得された参照用の生体情報を表す画像41である。It is the image 41 showing the biometric information for reference acquired from the biometric information acquisition apparatus 8. FIG. 図5の画像41から特徴点P1からP11を抽出する過程を説明する図である。It is a figure explaining the process in which the feature points P1 to P11 are extracted from the image 41 of FIG. 図4の画像解析処理で実行される。照合情報取得処理のフローチャートである。This is executed in the image analysis process of FIG. It is a flowchart of collation information acquisition processing. 局所座標系60の説明図である。It is explanatory drawing of the local coordinate system. 第1参照点及び第2参照点の設定方法の説明図である。It is explanatory drawing of the setting method of a 1st reference point and a 2nd reference point. サンプル71,サンプルデータ72及びサンプル情報73の説明図である。It is explanatory drawing of the sample 71, the sample data 72, and the sample information 73. FIG. 2つの注目点毎に取得された、サンプル情報、サンプル画像、周波数情報、及び周波数画像を含む参照用の照合情報75の説明図である。It is explanatory drawing of the collation information 75 for the reference containing the sample information, sample image, frequency information, and frequency image which were acquired for every two attention points. サンプルデータによって表される、第2情報に対する色情報の変化に基づき周波数成分を算出する過程の説明図である。It is explanatory drawing of the process which calculates a frequency component based on the change of the color information with respect to 2nd information represented by sample data. DB28に登録される照合情報の説明図である。It is explanatory drawing of the collation information registered into DB28. テスト用の画像51と、画像51に含まれる特徴点PT1からPT3を示す図である。FIG. 3 is a diagram showing a test image 51 and feature points PT1 to PT3 included in the image 51. 画像51について、2つの注目点毎に取得された、サンプル情報、サンプル画像、周波数情報、及び周波数画像を含むテスト用の照合情報85の説明図である。It is explanatory drawing of the collation information 85 for the test containing the sample information, sample image, frequency information, and frequency image which were acquired for every two attention points about the image 51. FIG. 図3の照合情報処理で実行される照合処理のフローチャートである。It is a flowchart of the collation process performed by the collation information processing of FIG. テスト用の照合情報と、参照用の照合情報とを照合する過程の説明図である。It is explanatory drawing of the process in which the collation information for a test and the collation information for a reference are collated. テスト用の周波数情報と、参照用の周波数情報との類似度を算出する過程の説明図である。It is explanatory drawing of the process of calculating the similarity of the frequency information for a test, and the frequency information for a reference. テスト用の周波数情報と、参照用の周波数情報との類似度を算出する過程の説明図である。It is explanatory drawing of the process of calculating the similarity of the frequency information for a test, and the frequency information for a reference. テスト用の周波数情報と、参照用の周波数情報との類似度を算出する過程の説明図である。It is explanatory drawing of the process of calculating the similarity of the frequency information for a test, and the frequency information for a reference. テスト用のサンプル情報と、参照用のサンプル情報との類似度を算出する過程の説明図である。It is explanatory drawing of the process of calculating the similarity of the sample information for a test, and the sample information for a reference. テスト用のサンプル情報と、参照用のサンプル情報との類似度を算出する過程の説明図である。It is explanatory drawing of the process of calculating the similarity of the sample information for a test, and the sample information for a reference. テスト用のサンプル情報と、参照用のサンプル情報との類似度を算出する過程の説明図である。It is explanatory drawing of the process of calculating the similarity of the sample information for a test, and the sample information for a reference.

本発明の一実施形態について、図面を参照して説明する。以下の実施形態において例示した具体的な複数の数値は一例であり、本発明はこれらの複数の数値に限定されない。以下の説明では、画像データを単に「画像」という。   An embodiment of the present invention will be described with reference to the drawings. The specific numerical values exemplified in the following embodiments are examples, and the present invention is not limited to these numerical values. In the following description, the image data is simply referred to as “image”.

図1を参照して、情報処理装置10について説明する。情報処理装置10は、生体情報によってユーザーを認証する機能を備えた電子機器である。生体情報は、例えば、顔画像、指紋、静脈、及び虹彩のような種々の生体情報から選択される。本実施形態の生体情報は指紋である。本実施形態において、情報処理装置10は、周知のスマートフォンである。情報処理装置10は、指紋を撮影した画像を解析して、指紋を用いた照合に必要な参照用の照合情報を生成し、情報処理装置10のフラッシュメモリ4に記憶されたデータベース(DB)28に記憶する機能を備える。情報処理装置10は、指紋を撮影した画像を解析して、指紋を用いた照合に必要なテスト用の照合情報を生成し、生成されたテスト用の照合情報と、DB28に記憶された参照用の照合情報とを照合する機能を備える。   The information processing apparatus 10 will be described with reference to FIG. The information processing apparatus 10 is an electronic device having a function of authenticating a user with biometric information. The biological information is selected from various biological information such as face images, fingerprints, veins, and irises. The biometric information of this embodiment is a fingerprint. In the present embodiment, the information processing apparatus 10 is a known smartphone. The information processing apparatus 10 analyzes an image obtained by capturing a fingerprint, generates reference collation information necessary for collation using the fingerprint, and a database (DB) 28 stored in the flash memory 4 of the information processing apparatus 10. The function to memorize is provided. The information processing apparatus 10 analyzes an image obtained by capturing a fingerprint, generates test verification information necessary for verification using the fingerprint, and generates the test verification information and the reference information stored in the DB 28. The function of collating with the collation information is provided.

図1に示すように、情報処理装置10は、CPU1,ROM2,RAM3,フラッシュメモリ4,通信I/F5,表示部6,タッチパネル7,及び生体情報取得装置8を備える。CPU1は、情報処理装置10の制御を行うプロセッサである。CPU1は、ROM2,RAM3,フラッシュメモリ4,通信I/F5,表示部6,タッチパネル7,及び生体情報取得装置8と電気的に接続する。ROM2は、BIOS,ブートプログラム、及び初期設定値を記憶する。RAM3は、種々の一時データを記憶する。フラッシュメモリ4は、CPU1が情報処理装置10を制御するために実行するプログラム、OS(Operating System)、及びDB28を記憶する。通信I/F5は、外部の機器と通信を実行するためのコントローラである。表示部6は、液晶ディスプレイである。タッチパネル7は、表示部6の表面に設けられる。生体情報取得装置8は、生体情報を撮影した画像を取得する。本実施形態の生体情報取得装置8は、静電容量方式のエリア型センサーである。詳細には、生体情報取得装置8は、マトリクス状の表面電極の電荷量から指紋の凹凸を判定するセンサーであり、1ピクセル毎に色情報を256階調の諧調値で表す。色情報は、色を表す情報である。解像度は、例えば、508dpi(dots per inch)である。   As illustrated in FIG. 1, the information processing apparatus 10 includes a CPU 1, a ROM 2, a RAM 3, a flash memory 4, a communication I / F 5, a display unit 6, a touch panel 7, and a biological information acquisition device 8. The CPU 1 is a processor that controls the information processing apparatus 10. The CPU 1 is electrically connected to the ROM 2, RAM 3, flash memory 4, communication I / F 5, display unit 6, touch panel 7, and biological information acquisition device 8. The ROM 2 stores a BIOS, a boot program, and initial setting values. The RAM 3 stores various temporary data. The flash memory 4 stores a program executed by the CPU 1 to control the information processing apparatus 10, an OS (Operating System), and a DB 28. The communication I / F 5 is a controller for executing communication with an external device. The display unit 6 is a liquid crystal display. The touch panel 7 is provided on the surface of the display unit 6. The biometric information acquisition device 8 acquires an image obtained by capturing biometric information. The biometric information acquisition apparatus 8 of this embodiment is a capacitive area type sensor. Specifically, the biometric information acquisition device 8 is a sensor that determines the unevenness of the fingerprint from the amount of charges on the surface electrode in the form of a matrix, and expresses color information as a gradation value of 256 gradations for each pixel. The color information is information representing a color. The resolution is, for example, 508 dpi (dots per inch).

図2を参照して、情報処理装置10の機能の概要について説明する。情報処理装置10は、生体情報取得装置8,画像取得部21,特徴点抽出部22,幾何学的特徴量算出部23,サンプル情報取得部24,周波数情報取得部25,照合部27,登録部26,及びDB28を有し、それぞれの機能ブロックに対応する処理を、CPU1(図1参照)によって実行する。   An overview of functions of the information processing apparatus 10 will be described with reference to FIG. The information processing apparatus 10 includes a biological information acquisition device 8, an image acquisition unit 21, a feature point extraction unit 22, a geometric feature amount calculation unit 23, a sample information acquisition unit 24, a frequency information acquisition unit 25, a collation unit 27, and a registration unit. 26 and DB 28, and processing corresponding to each functional block is executed by the CPU 1 (see FIG. 1).

生体情報取得装置8は、画像取得部21に画像を出力する。画像取得部21は、生体情報取得装置8から出力された画像を取得する。特徴点抽出部22は、画像取得部21から取得された画像に基づき、画像座標系の特徴点の二次元座標を抽出する。本実施形態の画像座標系の二次元座標は、画像中のピクセルの位置に基づき、ピクセル単位で設定される座標であるとする。画像座標系の二次元座標については後述する。特徴点は、例えば、マニューシャの抽出方法(例えば、特許第1289457号明細書参照)に従って抽出された点及びSIFT(Scale−Invariant Feature Transform)(例えば、米国特許第6,711,293号明細書参照)に従って抽出された点の少なくともいずれかである。本実施形態の特徴点は、特許第1289457号明細書に記載のマニューシャの抽出方法に従って抽出される。   The biometric information acquisition device 8 outputs an image to the image acquisition unit 21. The image acquisition unit 21 acquires the image output from the biological information acquisition device 8. The feature point extraction unit 22 extracts the two-dimensional coordinates of the feature points in the image coordinate system based on the image acquired from the image acquisition unit 21. The two-dimensional coordinates in the image coordinate system of the present embodiment are coordinates set in units of pixels based on the positions of pixels in the image. The two-dimensional coordinates of the image coordinate system will be described later. The feature points are, for example, points extracted according to the minutiae extraction method (see, for example, Japanese Patent No. 1289457) and SIFT (Scale-Invariant Feature Transform) (see, for example, US Pat. No. 6,711,293). ) At least one of the points extracted according to. The feature points of this embodiment are extracted according to the minutiae extraction method described in Japanese Patent No. 1289457.

幾何学的特徴量算出部23は、特徴点抽出部22が抽出した複数の特徴点のうち、所定の範囲内の特徴点の座標を取得する。幾何学的特徴量算出部23は、座標が取得された複数の特徴点の中から3つの特徴点を選択し、選択された3つの特徴点によって表される三角形の幾何学的特徴量を算出する。幾何学的特徴量は、例えば、3つの特徴点の座標、3つの特徴点の中から選択された2つの注目点で表される線分の傾き(ベクトル)、三角形の辺の長さ、三角形の内角、及び三角形の面積の中から適宜選択される。3つの特徴点の座標は、画像座標系の絶対座標又は相対座標で表される。本実施形態の幾何学的特徴量算出部23は、選択された3つの特徴点について、画像座標系の座標に加え、局所座標系を設定し、局所座標系の座標でも3つの特徴点の座標を表す。局所座標系については後述する。本実施形態の幾何学的特徴量算出部23は、所定範囲内にある複数の特徴点から3つの特徴点を選択する場合の、全ての組み合わせに対応する複数組の3つの特徴点を取得し、それぞれについて幾何学的特徴を算出する。   The geometric feature quantity calculation unit 23 acquires the coordinates of the feature points within a predetermined range among the plurality of feature points extracted by the feature point extraction unit 22. The geometric feature amount calculation unit 23 selects three feature points from a plurality of feature points whose coordinates are acquired, and calculates a geometric feature amount of a triangle represented by the selected three feature points. To do. The geometric feature amount is, for example, the coordinates of three feature points, the slope (vector) of a line segment represented by two attention points selected from the three feature points, the length of the sides of the triangle, the triangle Are appropriately selected from the interior angles and the triangular areas. The coordinates of the three feature points are represented by absolute coordinates or relative coordinates in the image coordinate system. The geometric feature amount calculation unit 23 of the present embodiment sets a local coordinate system for the selected three feature points in addition to the coordinates of the image coordinate system, and the coordinates of the three feature points also in the coordinates of the local coordinate system. Represents. The local coordinate system will be described later. The geometric feature quantity calculation unit 23 of the present embodiment acquires a plurality of sets of three feature points corresponding to all combinations when selecting three feature points from a plurality of feature points within a predetermined range. , Calculate geometric features for each.

サンプル情報取得部24は、幾何学的特徴量算出部23が取得した3つの特徴点の幾何学的特徴量と所定の取得条件とに基づき、サンプル情報を取得する。サンプル情報は、色情報を、色情報の取得条件を示す位置に対応する情報(第1情報及び第2情報)と対応づけた情報である。サンプル情報は、例えば、以下の手順で取得される。3つの特徴点の中から、2つの特徴点がそれぞれ注目点として選択される。本実施形態のサンプル情報取得部24は、幾何学的特徴量算出部23によって取得された複数組の3つの特徴点のうち、幾何学的特徴量に基づき、3つの特徴点によって表される三角形の面積が所定値以上となる3つの特徴点について、2つの注目点を選択する処理を実行する。サンプル情報取得部24は、選択された2つの注目点を結ぶ線分上の点であって、幾何学的特徴量に基づき決定された点を第1参照点として決定する。互いに位置が異なる複数の第1参照点のそれぞれについて、第1情報が取得される。第1情報は、第1参照点の位置に対応する情報である。第1情報は、基準に対する第1参照点の位置を規定する情報であればよく、例えば、絶対座標(例えば、画像座標系の座標)、相対座標(例えば、局所座標系の座標)、及び基準に対する角度などでもよい。第1参照点の取得順序が、基準に対して決められている場合には、第1情報は第1参照点の取得順序でもよい。取得された複数の第1情報のそれぞれについて、複数のサンプルが取得される。サンプルは、第2参照点に対応する色情報と、第2情報とを対応づけた情報である。第2参照点は、第1情報に対応する第1参照点を中心とする所定半径の円の周上の点であって、幾何学的特徴量に基づき決定された点である。第2情報は、第2参照点の位置に対応する情報である。第2情報は、基準に対する第2参照点の位置を規定する情報であればよく、例えば、絶対座標(例えば、画像座標系の座標)、相対座標(例えば、局所座標系の座標)、及び基準に対する角度などでもよい。第2参照点の取得順序が、基準に対して決められている場合には、第2情報は第2参照点の取得順序でもよい。複数のサンプルは、互いに位置が異なる複数の第2参照点のそれぞれについて取得されたサンプルである。取得された複数のサンプルと、第1情報とを対応づけた情報がサンプル情報とされる。   The sample information acquisition unit 24 acquires sample information based on the geometric feature amounts of the three feature points acquired by the geometric feature amount calculation unit 23 and predetermined acquisition conditions. The sample information is information in which color information is associated with information (first information and second information) corresponding to a position indicating the acquisition condition of the color information. The sample information is acquired by the following procedure, for example. Of the three feature points, two feature points are respectively selected as points of interest. The sample information acquisition unit 24 of the present embodiment is a triangle represented by three feature points based on a geometric feature amount among a plurality of sets of three feature points acquired by the geometric feature amount calculation unit 23. A process of selecting two attention points is executed for three feature points whose area is equal to or greater than a predetermined value. The sample information acquisition unit 24 determines a point on the line segment connecting the two selected points of interest and determined based on the geometric feature amount as the first reference point. First information is acquired for each of a plurality of first reference points whose positions are different from each other. The first information is information corresponding to the position of the first reference point. The first information may be information that defines the position of the first reference point with respect to the standard. For example, absolute coordinates (for example, coordinates in the image coordinate system), relative coordinates (for example, coordinates in the local coordinate system), and standard It may be an angle with respect to. When the acquisition order of the first reference points is determined with respect to the standard, the first information may be the acquisition order of the first reference points. A plurality of samples are acquired for each of the acquired plurality of pieces of first information. The sample is information in which the color information corresponding to the second reference point is associated with the second information. The second reference point is a point on the circumference of a circle having a predetermined radius centered on the first reference point corresponding to the first information, and is determined based on the geometric feature amount. The second information is information corresponding to the position of the second reference point. The second information may be information that defines the position of the second reference point with respect to the standard. For example, absolute coordinates (for example, coordinates in the image coordinate system), relative coordinates (for example, coordinates in the local coordinate system), and standards It may be an angle with respect to. When the acquisition order of the second reference points is determined with respect to the standard, the second information may be the acquisition order of the second reference points. A plurality of samples are samples acquired about each of a plurality of 2nd reference points from which a position mutually differs. Information obtained by associating the plurality of acquired samples with the first information is sample information.

周波数情報取得部25は、サンプル情報取得部24から取得されたサンプル情報に基づき、周波数情報を取得する。周波数情報は、複数の第1参照点のそれぞれについて、第2情報に対する色情報の変化の周波数成分を算出し、複数の第1参照点のそれぞれについて算出された周波数成分を第1情報と対応づけた情報である。本実施形態の周波数成分は、公知の方法(特許第3057590号明細書及び特許第3799057号明細書参照)に従って算出された一次元群遅延スペクトルである。   The frequency information acquisition unit 25 acquires frequency information based on the sample information acquired from the sample information acquisition unit 24. For the frequency information, for each of the plurality of first reference points, the frequency component of the color information change with respect to the second information is calculated, and the frequency components calculated for each of the plurality of first reference points are associated with the first information. Information. The frequency component of the present embodiment is a one-dimensional group delay spectrum calculated in accordance with a known method (see Japanese Patent Nos. 3057590 and 3799057).

登録部26は、生体情報の照合に用いる参照用の照合情報をDB28に記憶させる。照合情報は、サンプル情報及び周波数情報を、幾何学的特徴量と対応づけた情報である。本実施形態では、有効な特徴点の中から選択された全ての組み合わせの3つの特徴点のそれぞれについて、照合情報が記憶される。照合部27は、テスト用の照合情報を、DB28に記憶された参照用の照合情報と照合する。より詳細には、照合部27は、テスト用の照合情報で表されるテスト用の三角形と、参照用の照合情報で表される参照用の三角形とのそれぞれの幾何学的特徴量を、三角形の面積が大きい順に比較して、類似度が閾値以下となる、テスト用の三角形と、参照用の三角形とのペアを抽出する。照合部27は、抽出されたテスト用の三角形に対応するサンプル情報及び周波数情報と、参照用の三角形に対応するサンプル情報及び周波数情報とを照合する。   The registration unit 26 stores reference verification information used for verification of biometric information in the DB 28. The collation information is information in which sample information and frequency information are associated with geometric feature amounts. In the present embodiment, collation information is stored for each of the three feature points of all combinations selected from effective feature points. The collation unit 27 collates the test collation information with the reference collation information stored in the DB 28. More specifically, the collation unit 27 calculates the geometric feature amounts of the test triangle represented by the test collation information and the reference triangle represented by the reference collation information as triangles. Compared in descending order of area, a pair of a test triangle and a reference triangle having a similarity equal to or less than a threshold is extracted. The collating unit 27 collates the sample information and frequency information corresponding to the extracted test triangle with the sample information and frequency information corresponding to the reference triangle.

1.登録時の処理
図3を参照して、情報処理装置10で実行される照合情報処理について、照合情報を登録する場合を例に説明する。照合情報処理は、ユーザーが開始指示を入力した場合に開始される。開始指示には、画像から取得した照合情報を参照用の照合情報としてDB28に登録するのか、それとも、照合情報をDB28に登録された参照用の照合情報と照合するのかに関する指示を含む。情報処理装置10のCPU1は、照合情報処理の開始指示の入力を検知すると、フラッシュメモリ4に記憶された照合情報処理を実行するための情報処理プログラムをRAM3に読み出し、情報処理プログラムに含まれる指示に従って、以下に説明する各ステップの処理を実行する。本実施形態では、特徴点を抽出する要件(例えば、画像の鮮明さ)を満たす生体情報が取得されるまで、再入力を促すフィードバック処理が実行される。照合情報処理で取得される生体情報は、生体情報からアルゴリズムを用いて照合情報を抽出する要件を満たすものとする。処理の過程で取得されたり、生成されたりした情報及びデータは、適宜RAM3に記憶されるものとする。処理に必要な各種設定値は、予めフラッシュメモリ4に記憶されている。以下、ステップを「S」と略記する。
1. Processing at the time of registration With reference to FIG. 3, a case where collation information is registered will be described as an example for collation information processing executed by the information processing apparatus 10. The verification information processing is started when the user inputs a start instruction. The start instruction includes an instruction regarding whether the collation information acquired from the image is registered in the DB 28 as reference collation information or whether the collation information is collated with the reference collation information registered in the DB 28. When the CPU 1 of the information processing apparatus 10 detects the input of the collation information processing start instruction, the CPU 1 reads out the information processing program for executing the collation information processing stored in the flash memory 4 into the RAM 3, and the instruction included in the information processing program The processing of each step described below is executed according to the above. In the present embodiment, feedback processing that prompts re-input is executed until biometric information that satisfies the requirement for extracting feature points (for example, image clarity) is acquired. The biometric information acquired by the collation information processing satisfies the requirement for extracting the collation information from the biometric information using an algorithm. Information and data acquired or generated in the course of processing are stored in the RAM 3 as appropriate. Various setting values necessary for processing are stored in the flash memory 4 in advance. Hereinafter, the step is abbreviated as “S”.

図3に示すように、CPU1は画像解析処理を実行する(S1)。図4を参照して画像解析処理について説明する。生体情報取得装置8は、指の接触を検知した場合、指紋を撮影した画像を特定可能な信号をCPU1に出力する。CPU1は、生体情報取得装置8から出力される信号を受信する。図4に示すように、CPU1は、受信した信号に基づいて、画像を取得する(S11)。S11では、例えば、図5に示す画像41が取得される。画像41には、図5のXp,Ypで示す画像座標系の二次元座標が設定される。画像41の左上の画素の位置を、画像座標系の二次元座標45(図6参照)の原点とする。二次元座標45の原点からXpプラス方向にx画素分離隔し、原点からYpプラス方向にy画素分離隔した画素の位置を、座標(x,y)と表記する。画像41は、1cm角の正方形の撮影範囲を表す、Xp方向(左右方向)が192ピクセル、Yp方向(上下方向)が192ピクセルの正方形の画像である。画像座標系の二次元座標45では、点P1からP11のそれぞれは画像41の大きさを表す範囲43内にある。図示しないが、S11で取得された画像に対して適宜公知の前処理が実行される。   As shown in FIG. 3, the CPU 1 executes image analysis processing (S1). The image analysis process will be described with reference to FIG. When the biometric information acquisition device 8 detects a finger contact, the biometric information acquisition device 8 outputs to the CPU 1 a signal that can specify an image obtained by capturing a fingerprint. The CPU 1 receives a signal output from the biological information acquisition device 8. As shown in FIG. 4, the CPU 1 acquires an image based on the received signal (S11). In S11, for example, an image 41 shown in FIG. 5 is acquired. In the image 41, two-dimensional coordinates of an image coordinate system indicated by Xp and Yp in FIG. 5 are set. The position of the upper left pixel of the image 41 is the origin of the two-dimensional coordinate 45 (see FIG. 6) of the image coordinate system. The position of a pixel that is separated by x pixels in the Xp plus direction from the origin of the two-dimensional coordinate 45 and separated by y pixels in the Yp plus direction from the origin is denoted as coordinates (x, y). The image 41 is a square image with a 192 pixel in the Xp direction (left and right direction) and 192 pixels in the Yp direction (up and down direction), which represents a 1 cm square square imaging range. In the two-dimensional coordinates 45 of the image coordinate system, each of the points P1 to P11 is within a range 43 representing the size of the image 41. Although not shown, well-known preprocessing is appropriately performed on the image acquired in S11.

CPU1は、S11で取得された画像から特徴点を抽出する(S12)。本実施形態のCPU1は、公知の方法に従って(例えば、特許第1289457号明細書参照)、指紋の凸部の連なりである隆線の行き止まりの端点を表す点、及び2つに分かれる分岐点を表す点のそれぞれを特徴点として抽出する。図6に示すように、画像41からは円42で囲んだ端点を表す点及び分岐点を表す点のそれぞれが特徴点として抽出される。図41から抽出された11の特徴点を点P1からP11とする。   The CPU 1 extracts feature points from the image acquired in S11 (S12). The CPU 1 of the present embodiment represents a point representing a dead end point of a ridge that is a series of convex portions of a fingerprint and a branching point divided into two according to a known method (for example, see Japanese Patent No. 1289457). Each point is extracted as a feature point. As shown in FIG. 6, from the image 41, points representing end points and points representing branch points surrounded by a circle 42 are extracted as feature points. Eleven feature points extracted from FIG. 41 are designated as points P1 to P11.

CPU1は、S12で抽出された特徴点のうち、有効な特徴点を抽出し、有効な特徴点の数J(Jは0以上の整数)を取得する処理を実行する(S13からS16)。本実施形態のCPU1は、範囲44内にある特徴点を有効な特徴点とし、範囲44外にある特徴点を無効な特徴点とする。範囲44は、画像41の大きさを表す範囲43を示す矩形よりも四方が15ピクセル内側となる矩形範囲である。範囲44内にある特徴点を有効な特徴点とするのは、後述する第2参照点を範囲43内に設定可能な特徴点を取得するためである。範囲44を特定するための情報は、後述する第2参照点の取得条件に基づき予め定められ、フラッシュメモリ4に記憶されている。   The CPU 1 extracts a valid feature point from the feature points extracted in S12, and executes a process of obtaining the number J of valid feature points (J is an integer equal to or greater than 0) (S13 to S16). The CPU 1 according to the present embodiment sets a feature point within the range 44 as an effective feature point, and sets a feature point outside the range 44 as an invalid feature point. The range 44 is a rectangular range whose four sides are 15 pixels inside the rectangle indicating the range 43 representing the size of the image 41. The reason why the feature point in the range 44 is an effective feature point is to acquire a feature point that can set a second reference point to be described later in the range 43. Information for specifying the range 44 is determined in advance based on a second reference point acquisition condition described later, and is stored in the flash memory 4.

具体的には、CPU1は、S12で抽出された特徴点の中から、S13の処理を実行されていない特徴点の座標を1つ取得する(S13)。CPU1は、S13で取得した座標が、範囲44内にあるか否かを判断する(S14)。CPU1は、範囲44の境界線の内側及び範囲44の境界線上の点を、範囲44内とする。座標が範囲44内にある場合(S14:YES)、CPU1は、S13で取得した座標で示される特徴点を有効な特徴点とし、数Jを1だけインクリメントする(S15)。数Jの初期値は0である。具体例の点P1からP11は全て、範囲44内にある(S14:YES)。したがって、具体例での数Jは、最終的に11となる。座標が範囲44外にある場合(S14:NO)、又はS15の次に、CPU1はS12で抽出された特徴点の全てについて、S13の処理を実行したか否かを判断する(S16)。S13の処理で座標を取得されていない特徴点がある場合(S16:NO)、CPU1は処理をS13に戻す。S12で抽出された特徴点の全てについて、S13の処理が実行された場合(S16:YES)、CPU1は数Jが2より大きいか否かを判断する(S17)。数Jが2以下の場合(S17:NO)、CPU1は、画像解析処理を終了し、処理を図3の照合情報処理に戻す。   Specifically, the CPU 1 acquires one coordinate of the feature point that has not been subjected to the process of S13 from the feature points extracted in S12 (S13). The CPU 1 determines whether or not the coordinates acquired in S13 are within the range 44 (S14). The CPU 1 sets points inside the boundary line of the range 44 and points on the boundary line of the range 44 within the range 44. When the coordinates are within the range 44 (S14: YES), the CPU 1 sets the feature point indicated by the coordinates acquired in S13 as an effective feature point, and increments the number J by 1 (S15). The initial value of the number J is 0. The points P1 to P11 in the specific example are all within the range 44 (S14: YES). Therefore, the number J in the specific example finally becomes 11. When the coordinates are outside the range 44 (S14: NO), or after S15, the CPU 1 determines whether or not the process of S13 has been executed for all the feature points extracted in S12 (S16). If there is a feature point whose coordinates have not been acquired in the process of S13 (S16: NO), the CPU 1 returns the process to S13. When the process of S13 is executed for all the feature points extracted in S12 (S16: YES), the CPU 1 determines whether or not the number J is larger than 2 (S17). When the number J is 2 or less (S17: NO), the CPU 1 ends the image analysis process and returns the process to the collation information process of FIG.

具体例の数Jは11であり、2より大きい(S17:YES)。この場合CPU1は、数Jの有効な特徴点の中から、3つの特徴点を選ぶ場合の全ての組み合わせを算出する(S18)。具体例では数Jが11であり、CPU1は、11の165個の組み合わせを算出する。CPU1は、S18で算出された組み合わせの中からS19が実行されていない1つの組み合わせを選択し、選択された組み合わせで示される3つの特徴点の座標を取得する(S19)。CPU1が、3つの特徴点として、図6の点P1,P4,及びP8のそれぞれについて画像座標系の二次元座標を取得した場合を具体例として説明する。CPU1は、S19で取得された座標に基づき、3つの特徴点を結ぶ三角形の面積を算出する(S20)。CPU1は、S20で算出された面積が閾値よりも大きいか否かを判断する(S21)。S20及びS21は、後述の照合情報取得処理を実行する対象となる3つの特徴点を抽出する処理である。S19で取得される3つの特徴点が、例えば、点P1,P2,及びP3のように互いに比較的近い位置にある場合がある。点P1,P2,及びP4のように、ほぼ同じ直線上にある場合がある。これらの場合、後述する手順で照合情報を取得した場合、サンプル数が少なくなったり、同じようなサンプルが複数取得されたりして、照合に適した照合情報が得られない可能性がある。このため本実施形態のCPU1は、三角形の面積が閾値以下となる場合には、それら3つの特徴点の座標に基づき照合情報を取得しない。面積が閾値以下の場合(S21:NO)、CPU1はS19で座標を取得した3つの特徴点の組み合わせを破棄し(S24)、後述のS25の処理を実行する。 The number J in the specific example is 11, which is larger than 2 (S17: YES). In this case, the CPU 1 calculates all combinations when selecting three feature points from among the effective feature points of several J (S18). In the specific example, the number J is 11, and the CPU 1 calculates 165 combinations of 11 C 3 . The CPU 1 selects one combination for which S19 has not been executed from the combinations calculated in S18, and acquires the coordinates of the three feature points indicated by the selected combination (S19). The case where the CPU 1 acquires two-dimensional coordinates of the image coordinate system for each of the points P1, P4, and P8 in FIG. 6 as three feature points will be described as a specific example. The CPU 1 calculates the area of a triangle connecting the three feature points based on the coordinates acquired in S19 (S20). The CPU 1 determines whether or not the area calculated in S20 is larger than a threshold value (S21). S20 and S21 are processes for extracting three feature points to be subjected to a collation information acquisition process described later. The three feature points acquired in S19 may be located relatively close to each other, for example, points P1, P2, and P3. The points P1, P2, and P4 may be on substantially the same straight line. In these cases, when collation information is acquired according to the procedure described later, there is a possibility that the number of samples decreases or a plurality of similar samples are acquired, and collation information suitable for collation cannot be obtained. For this reason, CPU1 of this embodiment does not acquire collation information based on the coordinate of these three feature points, when the area of a triangle becomes below a threshold value. When the area is equal to or smaller than the threshold (S21: NO), the CPU 1 discards the combination of the three feature points whose coordinates have been acquired in S19 (S24), and executes the process of S25 described later.

具体例では面積が閾値よりも大きいと判断され(S21:YES)、CPU1は照合情報取得処理を実行する(S22)。照合情報取得処理は、S19で取得した3つの特徴点の座標に基づき、生体情報の照合に用いる照合情報を取得する処理である。図7に示すように、照合情報取得処理ではまず、CPU1は図4のS19で取得した座標に基づき、3つの特徴点の中に含まれる2点間の距離dをそれぞれ計算する(S32)。距離dは、3つの特徴点で表される三角形の各辺の長さである。具体例では、点P1と点P4との間の距離、点P4と点P8との間の距離、点P8と点P1との間の距離がそれぞれ計算される。   In the specific example, it is determined that the area is larger than the threshold (S21: YES), and the CPU 1 executes a collation information acquisition process (S22). The collation information acquisition process is a process for obtaining collation information used for collation of biometric information based on the coordinates of the three feature points acquired in S19. As shown in FIG. 7, in the collation information acquisition process, first, the CPU 1 calculates distances d between two points included in the three feature points based on the coordinates acquired in S19 of FIG. 4 (S32). The distance d is the length of each side of the triangle represented by the three feature points. In the specific example, the distance between the point P1 and the point P4, the distance between the point P4 and the point P8, and the distance between the point P8 and the point P1 are calculated.

CPU1はS32の計算結果に基づき、局所座標系を設定する(S33)。局所座標系は、S19で取得された3つの特徴点の座標に基づき、三角形毎に設定される相対座標である。具体的には、CPU1は、S32で計算された3つの距離dのうち、最も距離が長い2点を結ぶ線分上に局所座標系のXk軸を設定する。CPU1は、残りの1点がある側をYk軸正の向きとし、Xk軸上の2点の内、左側にある点を原点とする。具体例では、点P1,P4及びP8について、図8に示すように局所座標系60が設定される。点P1,P4及びP8がなす三角形TRRに含まれる辺LA,LB,及びLCの内、辺LAが最も長い。つまり、点P4と点P8との間の距離が最も長い。したがって、辺LA上にXk軸が設定され、辺LAに対して点P1がある側がYk軸正の向きとされ、点P4と点P8との内、左側にある点P8が原点とされる。   CPU1 sets a local coordinate system based on the calculation result of S32 (S33). The local coordinate system is a relative coordinate set for each triangle based on the coordinates of the three feature points acquired in S19. Specifically, the CPU 1 sets the Xk axis of the local coordinate system on a line segment connecting two points having the longest distance among the three distances d calculated in S32. The CPU 1 sets the side with the remaining one point as the positive direction of the Yk axis, and sets the point on the left side of the two points on the Xk axis as the origin. In the specific example, a local coordinate system 60 is set for the points P1, P4, and P8 as shown in FIG. Of the sides LA, LB, and LC included in the triangle TRR formed by the points P1, P4, and P8, the side LA is the longest. That is, the distance between the point P4 and the point P8 is the longest. Therefore, the Xk axis is set on the side LA, the side where the point P1 is located with respect to the side LA is the positive direction of the Yk axis, and the point P8 on the left side of the points P4 and P8 is the origin.

CPU1は3つの特徴点の中から、S34で取得されていない組み合わせの2つの特徴点をそれぞれ注目点として取得する(S34)。CPU1は、局所座標系で底辺をなす2点(Xk軸上の2点)をまず取得し、以降は時計回りで2点の組み合わせを取得する。具体例では、CPU1は、点P4及び点P8の組み合わせ、点P8及び点P1の組み合わせ、点P1及び点P4の組み合わせの順に、2つの注目点を取得する。CPU1はS34で取得した2つの注目点のうちの一方を始点、他方を終点とし、始点から終点に向かう方向ベクトルVを算出する(S35)。CPU1は、3つの特徴点がなす三角形の辺を時計回りにたどっていく場合の上流側にある点を始点、下流側にある点を終点とする。CPU1は、画像座標系の二次元座標で方向ベクトルVを算出する。本実施形態のCPU1は、P4及び点P8の組み合わせでは、点P4から点P8に向かうベクトルVA,点P8及び点P1の組み合わせでは、点P8から点P1に向かうベクトルVB,点P1及び点P4の組み合わせでは、点P1から点P4に向かうベクトルVCをそれぞれ算出する(S35)。   The CPU 1 acquires two feature points of the combination not acquired in S34 as attention points from the three feature points (S34). The CPU 1 first acquires two points (two points on the Xk axis) forming the base in the local coordinate system, and thereafter acquires a combination of the two points clockwise. In the specific example, the CPU 1 acquires two attention points in the order of the combination of the point P4 and the point P8, the combination of the point P8 and the point P1, and the combination of the point P1 and the point P4. The CPU 1 calculates a direction vector V from the start point to the end point with one of the two attention points acquired in S34 as the start point and the other as the end point (S35). The CPU 1 sets the point on the upstream side when the triangle side formed by the three feature points is traced clockwise as the start point and the point on the downstream side as the end point. The CPU 1 calculates the direction vector V using the two-dimensional coordinates of the image coordinate system. In the combination of P4 and point P8, the CPU 1 according to the present embodiment uses the vector VA from point P4 to point P8, and the combination of point P8 and point P1 to vector VB from point P8 to point P1, point P1, and point P4. In the combination, each vector VC from the point P1 to the point P4 is calculated (S35).

CPU1は、値Lを算出する(S36)。値Lは、S34で取得した2つの注目点間の距離dの小数点以下を切り捨てた正の整数である。CPU1は、三角形の幾何学的特徴量に基づき第1参照点を決定し、設定された第1参照点の座標を算出する(S37)。第1参照点の座標は、画像座標系の二次元座標で取得される。本実施形態のCPU1は、S34で取得した2つの注目点を結ぶ線分上に、(L+1)個の第1参照点を設定する。(L+1)個の第1参照点は、2つの注目点を結ぶ線分の両端(つまり、2つの注目点)、及び2つの注目点を間隔Uで等分割する点である。間隔Uは、2つの注目点の距離dを数Lで割った値である。本実施形態では間隔Uはほぼ1になる。CPU1は、S35で算出された方向ベクトルと、始点の座標を用い、2つの注目点を結ぶ線分の始点から終点に向かって、間隔Uの等間隔でi番目の第1参照点を順に設定する。iは1から(L+1)までの自然数である。   CPU1 calculates value L (S36). The value L is a positive integer obtained by rounding down the decimal point of the distance d between the two attention points acquired in S34. The CPU 1 determines the first reference point based on the geometric feature amount of the triangle, and calculates the coordinates of the set first reference point (S37). The coordinates of the first reference point are acquired as two-dimensional coordinates in the image coordinate system. The CPU 1 of the present embodiment sets (L + 1) first reference points on the line segment connecting the two attention points acquired in S34. The (L + 1) first reference points are both ends of a line segment connecting two attention points (that is, two attention points), and points at which the two attention points are equally divided by an interval U. The interval U is a value obtained by dividing the distance d between two attention points by a number L. In this embodiment, the interval U is approximately 1. The CPU 1 sequentially sets the i-th first reference point at equal intervals U from the start point to the end point of the line connecting the two attention points using the direction vector calculated in S35 and the coordinates of the start point. To do. i is a natural number from 1 to (L + 1).

CPU1は、サンプル情報を取得する(S38)。本実施形態のCPU1は、図4のS18で算出された全ての組み合わせの3つの特徴点のそれぞれについて、2つの注目点毎にサンプル情報を取得する。具体例を用いて、サンプル情報の取得方法を説明する。CPUI1は、S37で取得された第1参照点の座標に基づき、第2参照点を複数設定し、設定した複数の第2参照点の座標をそれぞれ算出する。本実施形態では、第1参照点を中心とする半径15ピクセルの円の周上に、128個の第2参照点を等間隔で設定する。円の半径R及び第2参照点の数Nは、画像の大きさ、解像度、認証精度、及び処理速度等を考慮して適宜設定されればよい。第2参照点の数Nは、後述する周波数情報を取得する観点から、2のべき乗に設定されることが好ましい。   The CPU 1 acquires sample information (S38). The CPU 1 according to the present embodiment acquires sample information for each of two attention points for each of the three feature points of all combinations calculated in S18 of FIG. A method for acquiring sample information will be described using a specific example. The CPU I1 sets a plurality of second reference points based on the coordinates of the first reference points acquired in S37, and calculates the coordinates of the set plurality of second reference points. In the present embodiment, 128 second reference points are set at equal intervals on the circumference of a circle having a radius of 15 pixels centered on the first reference point. The radius R of the circle and the number N of the second reference points may be appropriately set in consideration of the image size, resolution, authentication accuracy, processing speed, and the like. The number N of the second reference points is preferably set to a power of 2 from the viewpoint of acquiring frequency information described later.

本実施形態のCPU1は、次のようにi番目の第1参照点に対応するj番目の第2参照点の座標を算出する。jは1から128(N)の自然数である。jが1の点を始点SPという。図9に示すように、2つの注目点が点P4,P8である場合、第1参照点P4に対しては、点P4を中心とする半径Rの円C1上にあり、第1参照点P4に対してベクトルVA方向にある点Q11が、始点SPとして設定される。第1参照点P8に対しては、点P8を中心とする半径Rの円C2上にあり、第1参照点P8に対してベクトルVA方向にある点Q12が、始点SPとして設定される。2つの注目点が点P8,P1である場合、第1参照点P8に対しては、円C2上にあり、第1参照点P8に対してベクトルVB方向にある点Q21が、始点SPして設定される。第1参照点P1に対しては、点P1を中心とする半径Rの円C3上にあり、第1参照点P1に対してベクトルVB方向にある点Q22が、始点SPとして設定される。2つの注目点が点P1,P4である場合、第1参照点P1に対しては、円C3上にあり、第1参照点P1に対してベクトルVC方向にある点Q31が、始点SPとして設定される。第1参照点P4に対しては、円C1上にあり、第1参照点P4に対してベクトルVC方向にある点Q32が、始点SPとして設定される。jが2以降の第2参照点は、始点SPから反時計回りにサンプリング間隔毎に設定される。本実施形態のサンプリング間隔を円に対する角度で表すと、360度(2πラジアン)を128で割った角度となる。   The CPU 1 of the present embodiment calculates the coordinates of the j-th second reference point corresponding to the i-th first reference point as follows. j is a natural number from 1 to 128 (N). The point where j is 1 is called the starting point SP. As shown in FIG. 9, when the two points of interest are points P4 and P8, the first reference point P4 is on a circle C1 having a radius R centered on the point P4, and the first reference point P4. A point Q11 in the vector VA direction is set as the starting point SP. For the first reference point P8, a point Q12 on the circle C2 having a radius R centered on the point P8 and in the vector VA direction with respect to the first reference point P8 is set as the start point SP. When the two attention points are points P8 and P1, the point Q21 on the circle C2 with respect to the first reference point P8 and in the vector VB direction with respect to the first reference point P8 is the start point SP. Is set. For the first reference point P1, a point Q22 on the circle C3 having a radius R centered on the point P1 and in the vector VB direction with respect to the first reference point P1 is set as the start point SP. When the two points of interest are the points P1 and P4, the point Q31 on the circle C3 with respect to the first reference point P1 and in the vector VC direction with respect to the first reference point P1 is set as the start point SP. Is done. For the first reference point P4, a point Q32 on the circle C1 and in the vector VC direction with respect to the first reference point P4 is set as the start point SP. The second reference points where j is 2 or later are set at every sampling interval counterclockwise from the starting point SP. When the sampling interval of the present embodiment is represented by an angle with respect to a circle, 360 degrees (2π radians) is divided by 128.

CPU1は、複数の第2参照点のそれぞれについて、サンプルを取得する。サンプルの取得方法について図10を参照して説明する。本実施形態のCPU1は、色情報として、第2参照点で表されるピクセルの諧調値を取得する。第2参照点の座標が、サブピクセル単位の場合(絶対座標が整数ではない場合)、CPU1は、周知のバイリニア補間法によって第2参照点の近傍4つのピクセルの諧調値を用いて、第2参照点の色情報を算出する。CPU1は、1つの第2参照点について取得された色情報を、第2参照点に対応する第2情報と対応づけた情報をサンプル71とする。本実施形態の第2情報は、始点SPに対する第2参照点の位置に対応する取得順序を表すjである。つまり、本実施形態の第2情報は、1から128の自然数で表される。   CPU1 acquires a sample about each of a plurality of 2nd reference points. A sample acquisition method will be described with reference to FIG. The CPU 1 of the present embodiment acquires the gradation value of the pixel represented by the second reference point as color information. When the coordinates of the second reference point are in sub-pixel units (when the absolute coordinates are not an integer), the CPU 1 uses the tone values of the four pixels in the vicinity of the second reference point by the well-known bilinear interpolation method to calculate the second reference point. Reference point color information is calculated. The CPU 1 uses, as a sample 71, information obtained by associating the color information acquired for one second reference point with the second information corresponding to the second reference point. The second information of the present embodiment is j representing the acquisition order corresponding to the position of the second reference point with respect to the start point SP. That is, the second information of the present embodiment is represented by a natural number from 1 to 128.

図10に模式的に示すように、CPU1は、1つの第1参照点について取得された複数のサンプル71を、第1情報と対応付けてサンプルデータ72とする。CPU1は、1組の2つの注目点について設定された(L+1)個の第1参照点のそれぞれについて、以上の処理を行い、サンプル情報73を取得する。つまり、サンプル情報73は、(L+1)個の第1参照点のそれぞれについて算出された、(L+1)個のサンプルデータ72を含む。各サンプルデータ72は、N個の第2参照点のそれぞれについて取得された、N個のサンプル71を含む。サンプル情報73は、2つの注目点毎に取得される。具体例では、図11に示すように、具体例では、点P4,P8についてサンプル情報SDR1が取得され、点P8,P1についてサンプル情報SDR2が取得され、点P1,P4についてサンプル情報SDR3が取得される。   As schematically illustrated in FIG. 10, the CPU 1 sets a plurality of samples 71 acquired for one first reference point as sample data 72 in association with the first information. The CPU 1 acquires the sample information 73 by performing the above processing for each of (L + 1) first reference points set for one set of two attention points. That is, the sample information 73 includes (L + 1) sample data 72 calculated for each of (L + 1) first reference points. Each sample data 72 includes N samples 71 acquired for each of the N second reference points. Sample information 73 is acquired for every two points of interest. In the specific example, as shown in FIG. 11, in the specific example, sample information SDR1 is acquired for points P4 and P8, sample information SDR2 is acquired for points P8 and P1, and sample information SDR3 is acquired for points P1 and P4. The

CPU1は、取得されたサンプル情報に基づき、サンプル画像を生成する(S39)。具体例では、3組の2つの注目点のそれぞれについて、図11で示すサンプル画像76から78がそれぞれ生成される。サンプル画像76から78の長手方向はそれぞれ第1情報に対応し、短手方向はそれぞれ第2情報に対応する。サンプル画像76から78の各ピクセルの色は、第1情報及び第2情報の組み合わせに対応する画素の色情報を表す。   The CPU 1 generates a sample image based on the acquired sample information (S39). In the specific example, sample images 76 to 78 shown in FIG. 11 are generated for each of the three sets of two attention points. The longitudinal directions of the sample images 76 to 78 respectively correspond to the first information, and the lateral direction corresponds to the second information. The color of each pixel in the sample images 76 to 78 represents the color information of the pixel corresponding to the combination of the first information and the second information.

CPU1は、S38で取得されたサンプル情報に基づき、周波数情報を取得する(S40)。本実施形態のCPU1は、前述の公知の方法に従って、第1情報毎に第2情報に対する色情報の変化の一次元群遅延スペクトルを周波数情報として算出する。群遅延スペクトル(GDS)は、パワー伝達関数における位相スペクトルの周波数微分として定義されるものである。図12に例示するように、サンプル情報82に基づき算出されるGDS83は、サンプル情報82の周波数スペクトルの個々のピークを分離し強調する。GDSの配列の要素数は位相スペクトルの要素数から1を減じたものとなる。具体的にはCPU1は、LPC係数に重みづけしたものを高速フーリエ変換して得られたパワースペクトルの位相微分をとることによりGDSを算出し、算出されたGDSを周波数成分とする。具体例では、図11に示すように、点P4,P8について周波数情報FDR1が取得され、点P8,P1について周波数情報FDR2が取得され、点P1,P4について周波数情報FDR3が取得される。   The CPU 1 acquires frequency information based on the sample information acquired in S38 (S40). The CPU 1 according to the present embodiment calculates, as frequency information, a one-dimensional group delay spectrum of changes in color information with respect to the second information for each first information according to the above-described known method. The group delay spectrum (GDS) is defined as the frequency derivative of the phase spectrum in the power transfer function. As illustrated in FIG. 12, the GDS 83 calculated based on the sample information 82 separates and emphasizes individual peaks of the frequency spectrum of the sample information 82. The number of elements in the GDS array is obtained by subtracting 1 from the number of elements in the phase spectrum. Specifically, the CPU 1 calculates the GDS by taking the phase derivative of the power spectrum obtained by performing the fast Fourier transform on the weighted LPC coefficient, and uses the calculated GDS as the frequency component. In the specific example, as shown in FIG. 11, frequency information FDR1 is acquired for points P4 and P8, frequency information FDR2 is acquired for points P8 and P1, and frequency information FDR3 is acquired for points P1 and P4.

CPU1は、取得された周波数情報に基づき、周波数画像を生成する(S41)。具体例では、図11で示す周波数画像79から81がそれぞれ生成される。CPU1は、GDS強度が小さいピクセルを淡く(諧調値を小さく)する。具体例では、周波数画像79から81の短手方向は要素数に対応し、長手方向は第2情報に対応する。周波数画像79から81の各ピクセルの色は、要素数及び第2情報の組み合わせに対応する画素のGDS強度を表す。CPU1は、GDS強度が比較的大きいピクセルを濃く(諧調値を大きく)する。CPU1は、GDS強度が比較的小さいピクセルを淡く(諧調値を小さく)する。   CPU1 produces | generates a frequency image based on the acquired frequency information (S41). In the specific example, frequency images 79 to 81 shown in FIG. 11 are generated. The CPU 1 makes a pixel having a small GDS intensity light (decrease the gradation value). In a specific example, the short direction of the frequency images 79 to 81 corresponds to the number of elements, and the long direction corresponds to the second information. The color of each pixel in the frequency images 79 to 81 represents the GDS intensity of the pixel corresponding to the combination of the number of elements and the second information. The CPU 1 darkens the pixels having a relatively large GDS intensity (increases the gradation value). The CPU 1 makes a pixel having a relatively small GDS intensity light (decrease the gradation value).

CPU1は、サンプル情報及び周波数情報を、幾何学的特徴量と対応づけた情報を、生体情報の照合に用いる照合情報としてRAM3に記憶させる(S42)。図11に示すように、具体例では、サンプル情報SDR1からSDR3及び周波数情報FDR1からFDR3が、幾何学的特徴量GDRと対応づけられた照合情報75がRAM3に記憶される。幾何学的特徴量GDRは、S20で算出された面積、S32で算出された距離、S33で設定された局所座標系の座標、S35で算出された方向ベクトルV及び三角形の内角を含む。本実施形態の照合情報75には、図7のS39で生成されたサンプル画像及びS41で生成された周波数画像も含まれる。CPU1は照合情報取得処理を終了し、処理を図4に示す画像解析処理に戻す。   The CPU 1 stores information in which the sample information and the frequency information are associated with the geometric feature amount in the RAM 3 as collation information used for collation of the biological information (S42). As shown in FIG. 11, in the specific example, collation information 75 in which sample information SDR1 to SDR3 and frequency information FDR1 to FDR3 are associated with the geometric feature amount GDR is stored in the RAM 3. The geometric feature amount GDR includes the area calculated in S20, the distance calculated in S32, the coordinates of the local coordinate system set in S33, the direction vector V calculated in S35, and the interior angle of the triangle. The collation information 75 of this embodiment includes the sample image generated in S39 of FIG. 7 and the frequency image generated in S41. The CPU 1 ends the collation information acquisition process, and returns the process to the image analysis process shown in FIG.

図3に示すようにS22の次に、CPU1は、S18で算出された全ての組み合わせの3つの特徴点がS19の処理で取得されたか否かを判断する(S25)。取得されていない組み合わせがある場合(S25:NO)、CPU1は処理をS19に戻す。全ての組み合わせの3つの特徴点がS19の処理で取得された場合(S25:YES)、CPU1は、画像解析処理を終了し、処理を図3の照合情報処理に戻す。   As shown in FIG. 3, after S22, the CPU 1 determines whether or not three feature points of all combinations calculated in S18 have been acquired in the process of S19 (S25). When there is a combination that has not been acquired (S25: NO), the CPU 1 returns the process to S19. When three feature points of all combinations are acquired in the process of S19 (S25: YES), the CPU 1 ends the image analysis process and returns the process to the collation information process of FIG.

CPU1は、S1で照合情報が取得されたか否かを判断する(S2)。照合情報が取得されていない場合(S2:NO)、CPU1はエラー通知を行う(S6)。CPU1は、例えば、表示部6にエラーメッセージを表示する。照合情報が取得された場合(S2:YES)、S1で取得された照合情報を参照用の照合情報としてDB28(図2参照)に登録するか否かを判断する(S3)。登録するか否か情報は、例えば、開始指示に含まれる。具体例では登録すると判断され(S3:YES)、CPU1は、S1で取得した照合情報をフラッシュメモリ4のDB28に記憶する。本実施形態では、図4のS18で算出された全ての組み合わせの3つの特徴点のうち、S21の要件を満たす組み合わせについて、照合情報が取得される。具体例では図13で示すように、3つの特徴点が点P1,P4及びP8である場合の照合情報75を含む複数個の照合情報がDB28に登録される。登録しない場合(S3:NO)、CPU1は、S1で取得された照合情報は照合の対象となるテスト用の照合情報とする照合処理を実行する(S5)。S4,S5,及びS6のいずれかの次に、CPU1は照合情報処理を終了する。   CPU1 judges whether collation information was acquired by S1 (S2). When collation information is not acquired (S2: NO), CPU1 notifies an error (S6). For example, the CPU 1 displays an error message on the display unit 6. When the collation information is acquired (S2: YES), it is determined whether or not the collation information acquired in S1 is registered in the DB 28 (see FIG. 2) as reference collation information (S3). Information on whether or not to register is included in the start instruction, for example. In the specific example, it is determined to be registered (S3: YES), and the CPU 1 stores the collation information acquired in S1 in the DB 28 of the flash memory 4. In the present embodiment, collation information is acquired for combinations that satisfy the requirements of S21 among the three feature points of all combinations calculated in S18 of FIG. In a specific example, as shown in FIG. 13, a plurality of pieces of collation information including collation information 75 in the case where the three feature points are points P1, P4, and P8 are registered in the DB. When not registering (S3: NO), CPU1 performs the collation process which makes the collation information acquired by S1 the collation information for the test used as the object of collation (S5). Next to any of S4, S5, and S6, the CPU 1 ends the collation information processing.

2.照合時の処理
参照用の照合情報として図5の画像41から抽出された照合情報が用いられ、照合対象となるテスト用の画像として図14の画像51が取得される場合を例に、照合時の照合情報処理について説明する。照合時の照合情報処理では、登録時の照合情報処理と同様に、S1が実行される。例えば、図4のS19において3つの特徴点として図14の点PT1,PT2,及びPT3が取得された場合、図7のS38では図15のサンプル情報SDT1からSDT3が取得され、S39ではサンプル画像86から88が生成される。S40では周波数情報FDT1からFDT3が取得され、S41では周波数画像89から91が生成される。S42では、照合情報85が記憶される。
2. Processing at the time of collation For example, the collation information extracted from the image 41 in FIG. 5 is used as the reference collation information, and the image 51 in FIG. 14 is acquired as the test image to be collated. Will be described. In the collation information processing at the time of collation, S1 is executed similarly to the collation information processing at the time of registration. For example, if the points PT1, PT2, and PT3 in FIG. 14 are acquired as three feature points in S19 in FIG. 4, SDT3 is acquired from the sample information SDT1 in FIG. 15 in S38 in FIG. To 88 are generated. In S40, frequency information FDT1 to FDT3 are acquired, and in S41, frequency images 89 to 91 are generated. In S42, collation information 85 is stored.

S2では、照合情報が取得されたと判断され(S2:YES)、開始指示に基づき登録しないと判断される(S3:NO)。CPU1は照合処理を実行する(S5)。図14に示すように、照合処理では、CPU1は複数組の3つの特徴点のそれぞれに対応する照合情報を、照合情報に含まれる三角形の面積Sに基づきソートし、面積Sが大きい順に照合情報を並べ替える(S51)。CPU1は、DB28に記憶されている参照用の照合情報と、図3のS1で取得されたテスト用の照合情報とのそれぞれについて、S51の処理を実行する。DB28に記憶されている参照用の照合情報が、予めソートされている場合、CPU1は図3のS1で取得されたテスト用の照合情報のみソートする。S51の処理によって、図17に模式的に示すように、テスト用の照合情報と、参照用の照合情報とのそれぞれについて、照合情報に含まれる複数組の3つの特徴点が、3つの特徴点がなす三角形の面積Sが大きい順にソートされる。   In S2, it is determined that the collation information has been acquired (S2: YES), and it is determined not to register based on the start instruction (S3: NO). CPU1 performs a collation process (S5). As shown in FIG. 14, in the collation process, the CPU 1 sorts collation information corresponding to each of a plurality of sets of three feature points based on the area S of the triangles included in the collation information. Are rearranged (S51). The CPU 1 executes the process of S51 for each of the reference verification information stored in the DB 28 and the test verification information acquired in S1 of FIG. When the reference collation information stored in the DB 28 is sorted in advance, the CPU 1 sorts only the test collation information acquired in S1 of FIG. As schematically shown in FIG. 17, by the processing in S <b> 51, for each of the verification information for testing and the verification information for reference, a plurality of sets of three feature points included in the verification information are converted into three feature points. Are sorted in descending order of the area S of the triangles.

CPU1は、テスト用の照合情報に含まれる複数組の3つの特徴点の中から、面積Sが大きい順に、1組の3つの特徴点を選択する(S52)。CPU1は、参照用の照合情報に含まれる複数組の3つの特徴点の中から、面積Sが大きい順に、1組の3つの特徴点を選択する(S53)。CPU1は、S52で取得されたテスト用の3つの特徴点に対応づけられた幾何学的特徴量と、S53で取得された参照用の3つの特徴点に対応づけられた幾何学的特徴量との差を算出する(S54)。S54の処理は、S52で取得されたテスト用の3つの特徴点がなす三角形(以下、「テスト用三角形」という。)と、S53で取得された参照用の3つの特徴点がなす三角形(以下、「参照用三角形」という)とが類似するか否かを判断する処理である。本実施形態では、S54における幾何学的特徴量として、局所座標系の座標と、三角形の内角とが用いられる。   The CPU 1 selects one set of three feature points in descending order of the area S from a plurality of sets of three feature points included in the test verification information (S52). The CPU 1 selects a set of three feature points in descending order of the area S from a plurality of sets of three feature points included in the reference matching information (S53). The CPU 1 includes a geometric feature amount associated with the three test feature points acquired in S52, and a geometric feature amount associated with the three reference feature points acquired in S53. Is calculated (S54). The process of S54 includes a triangle formed by the three feature points for testing acquired in S52 (hereinafter referred to as “test triangle”) and a triangle formed by the three feature points for reference acquired in S53 (hereinafter referred to as “triangle for testing”). , “Reference triangle”) and the like. In the present embodiment, the coordinates of the local coordinate system and the interior angle of the triangle are used as the geometric feature amount in S54.

CPU1は、S54で算出された幾何学的特徴量の差が閾値より小さいか否かを判断する(S55)。3つの特徴点のそれぞれについての局所座標系の座標の差が閾値以上である場合、及び三角形の内角の差が閾値以上である場合の少なくともいずれかの場合(S55:NO)、CPU1は幾何学的特徴量に基づきテスト用三角形と参照用三角形とが類似しない場合の処理を行う。具体的には、CPU1はテスト用三角形について、3つの辺のうち、1番目に長い辺と、2番目に長い辺との長さの差が閾値よりも大きいか否かを判断する(S63)S63の処理は、テスト用の3つの特徴点が表す三角形が、1番目に長い辺と、2番目に長い辺との長さの差が閾値以下になる二等辺三角形に近い三角形である場合を考慮した処理である。図17の点PK1,PK2,及びPK3がなす三角形TRKのように、1番目に長い辺LK1と、2番目に長い辺LK2との長さの差が閾値以下になる場合(S63:NO)、CPU1はテスト用の3つの特徴点に関する局所座標系の座標を再設定する(S64)。具体的には、CPU1は、2番目に長い辺LK2をXk軸上に配置し、点PK2がある側をYk軸プラス側とする局所座標系61を設定する(S64)。CPU1は、S54に処理を戻す。   The CPU 1 determines whether or not the geometric feature amount difference calculated in S54 is smaller than a threshold value (S55). When the difference between the coordinates of the local coordinate system for each of the three feature points is greater than or equal to the threshold value, and / or when the difference between the interior angles of the triangles is greater than or equal to the threshold value (S55: NO), the CPU 1 performs geometric Processing is performed when the test triangle and the reference triangle are not similar based on the target feature amount. Specifically, for the test triangle, the CPU 1 determines whether or not the difference in length between the first long side and the second long side among the three sides is larger than the threshold (S63). The process of S63 is performed when the triangle represented by the three test feature points is a triangle close to an isosceles triangle in which the difference in length between the first long side and the second long side is equal to or less than a threshold value. This is a process that takes into account. When the difference in length between the first long side LK1 and the second longest side LK2 is equal to or less than the threshold value as in the triangle TRK formed by the points PK1, PK2, and PK3 in FIG. 17 (S63: NO) The CPU 1 resets the coordinates of the local coordinate system for the three test feature points (S64). Specifically, the CPU 1 sets the local coordinate system 61 in which the second long side LK2 is arranged on the Xk axis, and the side where the point PK2 is located is the Yk axis plus side (S64). The CPU 1 returns the process to S54.

1番目に長い辺と、2番目に長い辺との長さの差が閾値よりも大きい場合(S63:YES)、CPU1は、S53で選択された参照用の3つの特徴点が読み出し順序が最後の3つの特徴点であるか否かを判断する(S65)。本実施形態のCPU1は、参照用の照合情報の中から三角形の面積Sが大きい順に3つの特徴点を読み出している。読み出し順序が最後ではない場合(S65:NO)、CPU1は処理をS53に戻す。読み出し順序が最後である場合(S65:YES)、CPU1はS52で選択されたテスト用の3つの特徴点を破棄する(S66)。CPU1はS52で選択されたテスト用の3つの特徴点が、読み出し順序が最後の特徴点か否かを判断する(S67)。本実施形態のCPU1は、テスト用の照合情報の中から三角形の面積Sが大きい順に3つの特徴点を読み出している。読み出し順序が最後ではない場合(S67:NO)、CPU1は処理をS52に戻す。読み出し順序が最後である場合(S67:YES)、CPU1は認証失敗と判定する(S68)。CPU1は照合処理を終了し、処理を図3の照合情報処理に戻す。CPU1は、S5の次に照合情報処理を終了する。   When the difference in length between the first long side and the second long side is larger than the threshold value (S63: YES), the CPU 1 reads the last three feature points for reference selected in S53 in the reading order. It is determined whether the three feature points are (S65). The CPU 1 of this embodiment reads three feature points in descending order of the triangular area S from the reference information for reference. When the reading order is not the last (S65: NO), the CPU 1 returns the process to S53. When the reading order is last (S65: YES), the CPU 1 discards the three feature points for testing selected in S52 (S66). The CPU 1 determines whether or not the three feature points for testing selected in S52 are the last feature points in the reading order (S67). The CPU 1 of the present embodiment reads three feature points in descending order of the triangular area S from the test verification information. When the reading order is not the last (S67: NO), the CPU 1 returns the process to S52. When the reading order is last (S67: YES), the CPU 1 determines that the authentication has failed (S68). CPU1 complete | finishes collation process and returns a process to the collation information processing of FIG. CPU1 complete | finishes collation information processing after S5.

S55において、3つの特徴点のそれぞれについての局所座標系の座標の差が閾値より小さく、かつ三角形の内角の差が閾値より小さい場合(S55:YES)、CPU1は周波数情報の類似度を算出する(S58)。具体的には、CPU1は、S52で選択されたテスト用の3つの特徴点に関して取得された周波数情報と、S53で選択された参照用の3つの特徴点に関して取得された周波数情報との類似度を算出する。類似度の算出方法は、公知の方法が適宜用いられればよい。本実施形態のCPU1は、公知のDPマッチングを用い、類似度として距離値を算出する。本実施形態のCPU1は、3つの特徴点の中から選択される3組の2つの注目点のそれぞれについて周波数情報の距離値を算出する。   In S55, when the difference in coordinates of the local coordinate system for each of the three feature points is smaller than the threshold and the difference in the interior angle of the triangle is smaller than the threshold (S55: YES), the CPU 1 calculates the similarity of the frequency information. (S58). Specifically, the CPU 1 determines the similarity between the frequency information acquired for the three test feature points selected in S52 and the frequency information acquired for the three reference feature points selected in S53. Is calculated. As a method for calculating the similarity, a known method may be used as appropriate. The CPU 1 according to the present embodiment calculates a distance value as a similarity using a known DP matching. The CPU 1 of the present embodiment calculates the distance value of the frequency information for each of three sets of two attention points selected from the three feature points.

具体的には、図17に示すように、参照用三角形が三角形TRRであり、テスト用三角形が三角形TRTである場合、参照用の周波数情報は図11の周波数情報FDR1からFDR3であり、テスト用の周波数情報は図15の周波数情報FDT1からFDT3である。この場合、図18に模式的に示すように、CPU1は、周波数画像79と周波数画像89とをDPマッチングに供し、距離値DF1を得る。本実施形態では、ノイズを排除するために低次の成分を優先して選択された1から14に対応する14個の成分に基づき、マッチングコストを求める。図18において、テスト用の周波数情報FDT1を表す周波数画像89は上側に示されている。図18において、参照用の周波数情報FDR1を表す周波数画像79は、周波数画像89と対応する向きで左側に示されている。周波数画像89と対応する向きは、周波数画像79を周波数画像の下端について反転させたのち、反転させた周波数画像79の上左端を起点に、反転させた周波数画像79を90度時計回りに回転させることにより得られる。CPU1は、左上の対応点からパス探索を始め、隣接する対応点のうち、マッチングコストが最小の対応点を辿り、右下の対応点へと至るパスを探索する。図18において、パスは、左上から右下へと略直線状に延びる太線95で示されている。以下のDPマッチングを模式的に示す図でも同様である。図19に模式的に示すように、CPU1は、周波数画像80と周波数画像90とをDPマッチングに供し、距離値DF2を得る。図20に模式的に示すように、CPU1は、周波数画像81と周波数画像91とをDPマッチングに供し、距離値DF3を得る。CPU1は、算出された3つの距離値に基づき標準化された距離値DFDを算出する。
DFD=(DF−DFH)/DFS ・・・式(1)
式(1)において、DFは、周波数情報のDPマッチングにより得られた実際の距離値(DF1からDF3のいずれか)である。DFHは、周波数情報のDPマッチングにより得られる距離値の平均値である。DSSは、周波数情報のDPマッチングにより得られる距離値の標準偏差である。本実施形態のDFH及びDFSは、複数の周波数情報のDPマッチング結果に基づき予め設定された値である。式(1)に基づき、距離値DF1からDF3から、標準化された距離値DFD1からDFD3が算出される。距離値DFDは、値が大きいほど、値が小さい場合に比べ、類似度が小さい。
Specifically, as shown in FIG. 17, when the reference triangle is the triangle TRR and the test triangle is the triangle TRT, the reference frequency information is the frequency information FDR1 to FDR3 in FIG. The frequency information is frequency information FDT1 to FDT3 in FIG. In this case, as schematically shown in FIG. 18, the CPU 1 uses the frequency image 79 and the frequency image 89 for DP matching to obtain a distance value DF1. In the present embodiment, the matching cost is obtained based on 14 components corresponding to 1 to 14 selected with priority on the low-order components in order to eliminate noise. In FIG. 18, the frequency image 89 representing the test frequency information FDT1 is shown on the upper side. In FIG. 18, a frequency image 79 representing the reference frequency information FDR1 is shown on the left side in a direction corresponding to the frequency image 89. The direction corresponding to the frequency image 89 is that the frequency image 79 is inverted about the lower end of the frequency image, and then the inverted frequency image 79 is rotated 90 degrees clockwise from the upper left end of the inverted frequency image 79. Can be obtained. The CPU 1 starts a path search from the upper left corresponding point, searches for a corresponding point with the lowest matching cost among adjacent corresponding points, and searches for a path reaching the lower right corresponding point. In FIG. 18, the path is indicated by a thick line 95 extending substantially linearly from the upper left to the lower right. The same applies to the diagrams schematically showing the following DP matching. As schematically shown in FIG. 19, the CPU 1 uses the frequency image 80 and the frequency image 90 for DP matching to obtain a distance value DF2. As schematically shown in FIG. 20, the CPU 1 uses the frequency image 81 and the frequency image 91 for DP matching to obtain a distance value DF3. The CPU 1 calculates a standardized distance value DFD based on the calculated three distance values.
DFD = (DF−DFH) / DFS (1)
In Expression (1), DF is an actual distance value (any one of DF1 to DF3) obtained by DP matching of frequency information. DFH is an average value of distance values obtained by DP matching of frequency information. DSS is a standard deviation of distance values obtained by DP matching of frequency information. The DFH and DFS of this embodiment are values set in advance based on the DP matching results of a plurality of frequency information. Based on the equation (1), the standardized distance values DFD1 to DFD3 are calculated from the distance values DF1 to DF3. The distance value DFD has a smaller similarity as the value is larger than when the value is smaller.

CPU1はサンプル情報の類似度を算出する(S59)。具体的には、CPU1は、S52で選択されたテスト用の3つの特徴点に関して取得されたサンプル情報と、S53で選択された参照用の3つの特徴点に関して取得されたサンプル情報との類似度を算出する。類似度の算出方法は、公知の方法が適宜選択されればよい。本実施形態では、周波数情報の場合と同様に、公知のDPマッチングを用い、類似度として距離値を算出する。CPU1は、3つの特徴点の中から選択される3組の2つの注目点のそれぞれについてサンプル情報の距離値を算出する。具体例では、参照用のサンプル情報は図11のサンプル情報SDR1からSDR3であり、テスト用のサンプル情報は図15のサンプル情報SDT1からSDT3である。この場合、図21に模式的に示すように、CPU1は、サンプル画像76とサンプル画像86をDPマッチングに供し、距離値DS1を得る。図22に模式的に示すように、CPU1は、サンプル画像77とサンプル画像87をDPマッチングに供し、距離値DS2を得る。図23に模式的に示すように、CPU1は、サンプル画像78とサンプル画像88をDPマッチングに供し、距離値DS3を得る。CPU1は、算出された3つの距離値のそれぞれについて次の式(2)に従って標準化された距離値DSDを算出する。
DSD=(DS−DSH)/DSS ・・・式(2)
式(2)において、DSは、サンプル情報のDPマッチングにより得られた実際の距離値(DS1からDS3のいずれか)である。DSHは、サンプル情報のDPマッチングにより得られる距離値の平均値である。DSSは、DPマッチングにより得られる距離値の標準偏差である。本実施形態のDSH及びDSSは、複数のサンプル情報のDPマッチング結果に基づき予め設定された値である。式(2)に基づき、距離値DS1からDS3から、標準化された距離値DSD1からDSD3が算出される。距離値DSDは、値が大きいほど、値が小さい場合に比べ、類似度が小さい。
The CPU 1 calculates the similarity of the sample information (S59). Specifically, the CPU 1 determines the similarity between the sample information acquired for the three feature points for testing selected in S52 and the sample information acquired for the three feature points for reference selected in S53. Is calculated. As a method for calculating the degree of similarity, a known method may be selected as appropriate. In the present embodiment, as in the case of frequency information, a known DP matching is used, and a distance value is calculated as a similarity. The CPU 1 calculates the distance value of the sample information for each of the three sets of two attention points selected from the three feature points. In the specific example, the reference sample information is sample information SDR1 to SDR3 in FIG. 11, and the test sample information is sample information SDT1 to SDT3 in FIG. In this case, as schematically shown in FIG. 21, the CPU 1 uses the sample image 76 and the sample image 86 for DP matching to obtain a distance value DS1. As schematically shown in FIG. 22, the CPU 1 uses the sample image 77 and the sample image 87 for DP matching to obtain a distance value DS2. As schematically shown in FIG. 23, the CPU 1 uses the sample image 78 and the sample image 88 for DP matching to obtain a distance value DS3. The CPU 1 calculates a standardized distance value DSD according to the following equation (2) for each of the calculated three distance values.
DSD = (DS−DSH) / DSS (2)
In Equation (2), DS is an actual distance value (any one of DS1 to DS3) obtained by DP matching of sample information. DSH is an average value of distance values obtained by DP matching of sample information. DSS is a standard deviation of distance values obtained by DP matching. DSH and DSS of the present embodiment are values set in advance based on the DP matching results of a plurality of sample information. Based on the equation (2), standardized distance values DSD1 to DSD3 are calculated from the distance values DS1 to DS3. The distance value DSD has a smaller similarity as the value is larger than when the value is smaller.

CPU1は、S58で算出された周波数情報の類似度と、S59で算出されたサンプル情報の類似度とに基づき、照合に用いる類似度Dを算出する(S60)。具体的には、CPU1は、S58で算出された周波数情報の類似度と、S59で算出されたサンプル情報の類似度とのそれぞれに係数を乗じた値を足し合わせる。係数は認証結果を考慮して予め設定される。本実施形態のCPU1は、式(3)に従って類似度Dを算出する。ただし、Bは0以上1以下の数である。類似度Dは、2つの注目点毎に算出される。例えば、点P4及びP8について、類似度D1がB×DSD1+(1−B)×DFD1に基づき算出される。
D=B×DSD+(1−B)×DFD ・・・式(3)
The CPU 1 calculates a similarity D used for collation based on the similarity of the frequency information calculated in S58 and the similarity of the sample information calculated in S59 (S60). Specifically, the CPU 1 adds values obtained by multiplying each of the similarity of the frequency information calculated in S58 and the similarity of the sample information calculated in S59 by a coefficient. The coefficient is set in advance in consideration of the authentication result. The CPU 1 of the present embodiment calculates the similarity D according to the equation (3). However, B is a number from 0 to 1. The similarity D is calculated for every two points of interest. For example, for the points P4 and P8, the similarity D1 is calculated based on B × DSD1 + (1−B) × DFD1.
D = B × DSD + (1−B) × DFD Formula (3)

CPU1は、類似度DRが閾値よりも小さいか否かを判断する(S61)。本実施形態では、S60で2つの注目点毎に算出された3つの類似度Dの代表値を、S61の比較に用いる類似度DRとする。類似度DRは、例えば、3つの類似度の平均値、最小値、中間値、及び最大値のいずれかである。S61の閾値は代表値に応じて適宜設定される。類似度DRが閾値よりも小さい場合(S61:YES)、CPU1は認証成功と判定する(S62)。類似度が閾値以上の場合(S61:NO)、CPU1は認証失敗と判定する(S68)。S62又はS68の処理の次に、CPU1は、照合処理を終了し、処理を図3の照合情報処理に戻す。CPU1は、以上で照合情報処理を終了する。図示しないが、本実施形態の照合情報を用いた認証実験と、従来の方法で行った認証実験を行ったところ、本実施形態の照合情報処理によって従来と同等以上の認証精度が確認された。   The CPU 1 determines whether or not the similarity DR is smaller than a threshold value (S61). In the present embodiment, the representative value of the three similarities D calculated for each two attention points in S60 is set as the similarity DR used for the comparison in S61. The similarity DR is, for example, one of an average value, a minimum value, an intermediate value, and a maximum value of three similarities. The threshold value in S61 is appropriately set according to the representative value. When the similarity DR is smaller than the threshold (S61: YES), the CPU 1 determines that the authentication is successful (S62). If the similarity is equal to or greater than the threshold (S61: NO), the CPU 1 determines that the authentication has failed (S68). After the process of S62 or S68, the CPU 1 ends the collation process and returns the process to the collation information process of FIG. CPU1 complete | finishes collation information processing above. Although not shown, when an authentication experiment using the verification information of the present embodiment and an authentication experiment performed by a conventional method were performed, the verification accuracy equal to or higher than the conventional one was confirmed by the verification information processing of the present embodiment.

情報処理装置10において、CPU1は本発明のプロセッサに相当する。RAM3及びフラッシュメモリ4は、本発明の記憶手段に相当する。図4のS11の処理は、本発明の画像取得ステップに相当する。S11において画像取得部21として機能するCPU1は、本発明の画像取得手段に相当する。S12の処理は、本発明の抽出ステップに相当する。S12において特徴点抽出部22として機能するCPU1は、本発明の抽出手段に相当する。S19の処理は、本発明の特徴点取得ステップに相当する。S19の処理を実行するCPU1は、本発明の特徴点取得手段として機能する。S20,図7のS32,及びS35の処理は、本発明の特徴量算出ステップに相当する。S20,図7のS32,及びS35において幾何学的特徴量算出部23として機能するCPU1は、本発明の特徴量算出手段に相当する。S34の処理は、本発明の選択ステップに相当する。S34の処理を実行するCPU1は、本発明の選択手段として機能する。S37の処理は、本発明の参照点取得ステップに相当する。S37の処理を実行するCPU1は、本発明の参照点取得手段として機能する。S38の処理は、本発明のサンプル情報取得ステップに相当する。S38の処理を実行するCPU1は、本発明のサンプル情報取得手段として機能する。S40の処理は、本発明の周波数情報取得ステップに相当する。S40の処理を実行するCPU1は、本発明の周波数情報取得手段として機能する。S42及びS4は本発明の記憶制御ステップに相当する。S42及びS4の処理を実行するCPU1は、本発明の記憶制御手段として機能する。S5の処理は、本発明の照合ステップに相当する。S52からS55の処理は、本発明のペア抽出ステップに相当する。S58からS62及びS68は本発明の抽出後照合ステップに相当する。   In the information processing apparatus 10, the CPU 1 corresponds to the processor of the present invention. The RAM 3 and the flash memory 4 correspond to storage means of the present invention. The process of S11 in FIG. 4 corresponds to the image acquisition step of the present invention. The CPU 1 functioning as the image acquisition unit 21 in S11 corresponds to the image acquisition unit of the present invention. The process of S12 corresponds to the extraction step of the present invention. The CPU 1 functioning as the feature point extraction unit 22 in S12 corresponds to the extraction unit of the present invention. The process of S19 corresponds to a feature point acquisition step of the present invention. CPU1 which performs the process of S19 functions as a feature point acquisition means of this invention. The processes of S20, S32 and S35 of FIG. 7 correspond to the feature amount calculating step of the present invention. The CPU 1 functioning as the geometric feature quantity calculation unit 23 in S20, S32 and S35 in FIG. 7 corresponds to the feature quantity calculation means of the present invention. The process of S34 corresponds to the selection step of the present invention. The CPU 1 that executes the process of S34 functions as selection means of the present invention. The process of S37 corresponds to a reference point acquisition step of the present invention. CPU1 which performs the process of S37 functions as a reference point acquisition means of this invention. The process of S38 corresponds to the sample information acquisition step of the present invention. The CPU 1 that executes the process of S38 functions as sample information acquisition means of the present invention. The process of S40 corresponds to the frequency information acquisition step of the present invention. CPU1 which performs the process of S40 functions as a frequency information acquisition means of this invention. S42 and S4 correspond to the storage control step of the present invention. The CPU 1 that executes the processes of S42 and S4 functions as a storage control unit of the present invention. The process of S5 corresponds to the collation step of the present invention. The processing from S52 to S55 corresponds to the pair extraction step of the present invention. S58 to S62 and S68 correspond to the post-extraction collation step of the present invention.

本実施形態の情報処理プログラムを実行する情報処理装置10は、画像から抽出された特徴点に基づきサンプル情報及び周波数情報を取得する(S38,S40)。サンプル情報及び周波数情報は、画像から抽出された3つの特徴点が表す幾何学的特徴量に基づき決定された第2参照点について取得された情報である。例えば、図5に示す画像41に基づき、3つの特徴点P1,P4及びP8に関して、図11のサンプル情報SDR1からSDR3が取得される。図14に示す画像51に基づき、3つの特徴点PT1,PT2及びPT3に関して、図15のサンプル情報SDT1からSDT3が取得される。画像51は、画像41に対し、生体情報が移動及び回転された状態で撮影された画像である。サンプル情報SDR1からSDR3から生成されるサンプル画像76から78と、サンプル情報SDT1からSDT3から生成されるサンプル画像86から88とは、同様の縞模様のパターンを表す。つまり、本実施形態の照合情報では生体情報が基準に対して回転したり、移動したりした影響が低減されている。このように、情報処理プログラムに基づき照合情報を生成すれば、幾何学的特徴量が考慮されない点について情報が取得された場合に比べ、画像によって表される生体情報が基準に対して回転したり、移動したりした影響が低減された照合情報を生成することができる。   The information processing apparatus 10 that executes the information processing program of the present embodiment acquires sample information and frequency information based on the feature points extracted from the image (S38, S40). The sample information and the frequency information are information acquired for the second reference point determined based on the geometric feature amount represented by the three feature points extracted from the image. For example, based on the image 41 shown in FIG. 5, the sample information SDR1 to SDR3 in FIG. 11 is acquired for the three feature points P1, P4, and P8. Based on the image 51 shown in FIG. 14, the sample information SDT1 to SDT3 in FIG. 15 is acquired for the three feature points PT1, PT2, and PT3. The image 51 is an image taken with the biological information moved and rotated with respect to the image 41. Sample images 76 to 78 generated from the sample information SDR1 to SDR3 and sample images 86 to 88 generated from the sample information SDT1 to SDT3 represent the same striped pattern. That is, in the collation information of this embodiment, the influence of the biological information rotating or moving with respect to the reference is reduced. In this way, if the collation information is generated based on the information processing program, the biological information represented by the image is rotated with respect to the reference as compared to the case where the information is acquired about the point where the geometric feature amount is not considered. Thus, it is possible to generate collation information with reduced influence of movement.

3つの特徴点に基づき取得されるサンプル情報及び周波数情報は、2つの注目点周辺のピクセルの色情報の変化パターンが、情報処理プログラムが規定する条件に従って効率的・効果的に取得された情報である。例えば、第2参照点が、第1参照点を基準として配置される正方形の辺上に設定されるとすると、正方形の辺が配置される向きによっては、隆線と辺とが略平行に配置されることがある。このような場合には、第2参照点が配置される図形を円から正方形に変えて、本実施形態と同様な処理を行ったとしても、CPU1は特徴的な生体情報の変化を表す色情報を取得できない。これに対し、CPU1は、第2参照点を、第1参照点を中心と半径Rの円の周上に設定することで、第1参照点の周囲のピクセルの色情報の特徴的な変化を取得しやすい。このため情報処理装置10は、画像から抽出された特徴点の数が比較的少ない場合にも、精度よく照合可能な照合情報を生成することができる。   The sample information and frequency information acquired based on the three feature points are information obtained by efficiently and effectively acquiring the change pattern of the color information of the pixels around the two points of interest according to the conditions defined by the information processing program. is there. For example, if the second reference point is set on a square side that is arranged with the first reference point as a reference, the ridge and the side are arranged substantially in parallel depending on the direction in which the square side is arranged. May be. In such a case, even if the graphic in which the second reference point is arranged is changed from a circle to a square and the same processing as that of the present embodiment is performed, the CPU 1 does not display color information indicating characteristic biological information changes. Can not get. On the other hand, the CPU 1 sets the second reference point on the circumference of the circle having the center at the first reference point and the radius R, thereby changing the characteristic information of the color information of the pixels around the first reference point. Easy to get. For this reason, the information processing apparatus 10 can generate collation information that can be collated with high accuracy even when the number of feature points extracted from the image is relatively small.

サンプル画像は画像に含まれる色情報を、プログラムで規定する条件に従って再配置した画像であり、実空間の情報を表すといえる。これに対し、周波数画像は、実空間の情報を周波数空間の情報に変換したものである。このため、サンプル情報と、周波数情報とは、異なる意味を持つと考えられる。本実施形態の情報処理装置10は、サンプル情報と、周波数情報との双方を含む照合情報を生成する。したがって、サンプル情報と、周波数情報とのいずれかを含む場合に比べ、情報量を多くすることできる。つまり、本実施形態の照合情報を用いて照合を行うことにより、サンプル情報と、周波数情報とのいずれかのみを含む情報を用いる場合に比べ、より多くの観点から類似しているか否かを適切に判定することができる。本実施形態では、サンプル情報と、周波数情報とのそれぞれを標準化した上で、係数(寄与率)を乗じて類似度Dを算出する。このため、意味が互いに異なるサンプル情報と、周波数情報とを用いて、比較的簡単な計算によって類似度Dを求めることができる。   The sample image is an image in which color information included in the image is rearranged according to the conditions specified by the program, and can be said to represent real space information. On the other hand, the frequency image is obtained by converting real space information into frequency space information. For this reason, sample information and frequency information are considered to have different meanings. The information processing apparatus 10 according to the present embodiment generates collation information including both sample information and frequency information. Therefore, the amount of information can be increased compared to the case where either sample information or frequency information is included. In other words, by performing collation using the collation information of the present embodiment, it is appropriate whether or not it is similar from more viewpoints than when using information including only sample information or frequency information. Can be determined. In the present embodiment, after the sample information and the frequency information are standardized, the similarity D is calculated by multiplying the coefficient (contribution rate). For this reason, the similarity D can be obtained by relatively simple calculation using the sample information and the frequency information having different meanings.

本実施形態のCPU1は、3つの特徴点から2つの特徴点を選択する場合の全ての組み合わせのそれぞれに対応する3組の2つの注目点について、サンプル情報及び周波数情報を取得する。1組の2つの注目点が選択される場合に比べ、取得されるサンプル情報及び周波数情報の数が多くなるので、画像から抽出された特徴点の数が少ない場合にも、精度よく照合可能な情報を生成することができる。   CPU1 of this embodiment acquires sample information and frequency information about three sets of two attention points corresponding to each of all combinations when two feature points are selected from three feature points. Compared to the case where a set of two attention points is selected, the number of sample information and frequency information to be acquired is increased, so that even when the number of feature points extracted from an image is small, it is possible to accurately collate Information can be generated.

情報処理装置10は、照合情報を用いて生体情報の照合を行うため、画像から抽出された特徴点の数が少ない場合にも、精度よく照合可能である。サンプル情報及び周波数情報は、幾何学的特徴量に基づき決定された点について取得された情報である。したがって、情報処理装置10は、幾何学的特徴量が考慮されない点について情報が取得された場合に比べ、生体情報が基準に対して回転したり、移動したりした影響が低減された、精度のよい照合結果を得ることができる。   Since the information processing apparatus 10 collates biometric information using the collation information, collation can be performed with high accuracy even when the number of feature points extracted from the image is small. The sample information and the frequency information are information acquired for points determined based on the geometric feature amount. Therefore, the information processing apparatus 10 can reduce the influence that the biological information is rotated or moved with respect to the reference, compared with the case where information is acquired about the point where the geometric feature amount is not considered. Good matching results can be obtained.

特徴点取得ステップで取得された3つの特徴点のそれぞれの位置が互いに近接し、3つの特徴点で表される三角形の面積が所定値未満の場合には、三角形の面積が所定値以上の場合に比べ、サンプル情報が示す色情報の変化が少ない。このため、情報処理装置10は、3つの特徴点で表される三角形の面積が所定値未満の場合には、それら3つの特徴点に基づき、照合情報を取得しない(S24)。したがって情報処理装置10は、三角形の面積が所定値未満となる3つの特徴点に基づき照合情報が生成される場合に比べ、照合情報を用いた照合の精度を高めることができる。   When the positions of the three feature points acquired in the feature point acquisition step are close to each other and the area of the triangle represented by the three feature points is less than a predetermined value, the area of the triangle is greater than or equal to the predetermined value Compared to the above, there is little change in the color information indicated by the sample information. For this reason, when the area of the triangle represented by the three feature points is less than the predetermined value, the information processing apparatus 10 does not acquire collation information based on the three feature points (S24). Therefore, the information processing apparatus 10 can increase the accuracy of the collation using the collation information as compared with the case where the collation information is generated based on the three feature points whose triangular area is less than the predetermined value.

CPU1は、局所座標系の座標を設定することによって、テスト用の三角形と類似する参照用の三角形を抽出する処理を簡略化することができる。結果としてCPU1は、照合に要する処理時間を短縮できる。   The CPU 1 can simplify the process of extracting a reference triangle similar to the test triangle by setting the coordinates of the local coordinate system. As a result, the CPU 1 can shorten the processing time required for collation.

本実施形態のCPU1は、特に面積が大きい場合を優先して、照合に用いる照合情報を選択している。つまりCPU1は、画像に基づき取得された照合情報の中から、情報量の多い照合情報を優先して照合に用いることで、照合に要する処理時間を短縮しつつ、照合精度をさらに向上できる。   The CPU 1 of the present embodiment selects collation information used for collation, particularly in the case where the area is large. That is, the CPU 1 can further improve collation accuracy while shortening the processing time required for collation by preferentially using collation information with a large amount of information from collation information acquired based on images.

本発明の情報処理プログラム及び情報処理装置は、上記した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更が加えられてもよい。例えば、以下の(A)から(C)までの変形が適宜加えられてもよい。   The information processing program and information processing apparatus of the present invention are not limited to the above-described embodiments, and various changes may be made without departing from the scope of the present invention. For example, the following modifications (A) to (C) may be added as appropriate.

(A)情報処理装置10の構成は適宜変更してよい。例えば、情報処理装置10は、スマートフォンである場合に限定されず、例えば、ノートPC,タブレットPC,及び携帯電話のようなモバイル機器であってもよいし、現金自動預け払い機(ATM)及び入退室管理装置のような機器であってもよい。生体情報取得装置8は、情報処理装置10とは別体に設けられてもよい。その場合、生体情報取得装置8と、情報処理装置10とは、接続ケーブルで接続されていてもよいし、Bluetooth(登録商標)及びNFC(Near Field Communication)のように無線で接続されていてもよい。生体情報取得装置8の検出方式は静電容量方式に限定されず、他の方式(例えば、電界式、圧力式、光学式)であってもよい。生体情報取得装置8は面型に限定されず、線型であってもよい。生体情報取得装置8が生成する画像の大きさ、色情報及び解像度は、適宜変更されてよい。したがって、例えば、色情報は白黒画像に対応する情報の他、カラー画像に対応する情報でもよい。   (A) The configuration of the information processing apparatus 10 may be changed as appropriate. For example, the information processing apparatus 10 is not limited to a smartphone, and may be a mobile device such as a notebook PC, a tablet PC, and a mobile phone, or an automatic teller machine (ATM) and an input / output device. It may be a device such as an exit management device. The biological information acquisition device 8 may be provided separately from the information processing device 10. In that case, the biometric information acquisition apparatus 8 and the information processing apparatus 10 may be connected by a connection cable, or may be connected wirelessly such as Bluetooth (registered trademark) and NFC (Near Field Communication). Good. The detection method of the biological information acquisition device 8 is not limited to the capacitance method, and may be another method (for example, an electric field method, a pressure method, or an optical method). The biological information acquisition device 8 is not limited to a plane type, and may be a linear type. The size, color information, and resolution of the image generated by the biological information acquisition apparatus 8 may be changed as appropriate. Therefore, for example, the color information may be information corresponding to a color image in addition to information corresponding to a black and white image.

(B)情報処理プログラムは、情報処理装置10がプログラムを実行するまでに、情報処理装置10の記憶機器に記憶されればよい。したがって、情報処理プログラムの取得方法、取得経路及び情報処理プログラムを記憶する機器の各々は適宜変更されてよい。情報処理装置10のプロセッサが実行する情報処理プログラムは、ケーブル又は無線通信を介して、他の装置から受信し、フラッシュメモリ等の記憶装置に記憶されてもよい。他の装置は、例えば、PC(パーソナルコンピュータ)、及びネットワーク網を介して接続されるサーバを含む。   (B) The information processing program may be stored in the storage device of the information processing apparatus 10 before the information processing apparatus 10 executes the program. Therefore, each of the information processing program acquisition method, the acquisition route, and the device storing the information processing program may be changed as appropriate. The information processing program executed by the processor of the information processing device 10 may be received from another device via a cable or wireless communication and stored in a storage device such as a flash memory. Other devices include, for example, a PC (personal computer) and a server connected via a network.

(C)図3の照合情報処理の各ステップは、CPU1によって実行される例に限定されず、一部又は全部が他の電子機器(例えば、ASIC)によって実行されてもよい。上記処理の各ステップは、複数の電子機器(例えば、複数のCPU)によって分散処理されてもよい。上記実施形態の照合情報処理の各ステップは、必要に応じて順序の変更、ステップの省略、及び追加が可能である。情報処理装置10のCPU1からの指令に基づき、情報処理装置10上で稼動しているオペレーティングシステム(OS)等が実際の処理の一部又は全部を行い、その処理によって上記実施形態の機能が実現される場合も本開示の範囲に含まれる。例えば、照合情報処理に以下の(C−1)から(C−6)の変更が適宜加えられてもよい。   (C) Each step of the collation information processing in FIG. 3 is not limited to the example executed by the CPU 1, and a part or all of the steps may be executed by another electronic device (for example, ASIC). Each step of the above process may be distributedly processed by a plurality of electronic devices (for example, a plurality of CPUs). Each step of the collation information processing of the above embodiment can be changed in order, omitted or added as necessary. Based on a command from the CPU 1 of the information processing apparatus 10, an operating system (OS) or the like operating on the information processing apparatus 10 performs part or all of the actual processing, and the functions of the above embodiments are realized by the processing. Such cases are also included in the scope of the present disclosure. For example, the following changes (C-1) to (C-6) may be appropriately added to the verification information processing.

(C−1)S11で取得された画像に対して、適宜前処理が実行されてもよい。例えば、画像の高周波成分をノイズとして除去するためのフィルタリング処理が実行されてもよい。フィルタリング処理が実行されることによって、画像のエッジ部分の濃淡変化は緩やかになる。フィルタリング処理に用いられるフィルタとして、周知のローパスフィルタ、ガウシアンフィルタ、移動平均フィルタ、メディアンフィルタ、平均化フィルタのいずれかが用いられてもよい。他の例では、特定の周波数帯成分のみを抽出するためのフィルタリング処理がS11で取得された画像に対して実行されてもよい。特定の周波数帯域として、指紋の凹凸の周期を含む帯域が選択されてもよい。この場合の、フィルタリング処理に用いられるフィルタとしては、周知のバンドパスフィルタが挙げられる。   (C-1) Preprocessing may be appropriately performed on the image acquired in S11. For example, a filtering process for removing high frequency components of an image as noise may be executed. By executing the filtering process, the change in shading of the edge portion of the image is moderated. As a filter used for the filtering process, any of a known low-pass filter, Gaussian filter, moving average filter, median filter, and averaging filter may be used. In another example, a filtering process for extracting only a specific frequency band component may be performed on the image acquired in S11. As a specific frequency band, a band including the period of the concave and convex portions of the fingerprint may be selected. In this case, a known band-pass filter may be used as a filter used for the filtering process.

(C−2)図4のS21における、照合情報を取得する対象となる3つの特徴点を抽出する条件は、適宜変更されてよい。例えば、CPU1は、3点のなす三角形の面積の他、最大内角の値が所定の範囲内かどうかに基づき照合情報を取得するか否かを判定してもよい。CPU1は、S21の処理を省略し、S18で算出された全ての組み合わせに対応する3つの特徴点のそれぞれについて、照合情報を取得してもよい。CPU1は、面積が大きい順に所定組の3つの特徴点について照合情報を取得してもよい。   (C-2) The conditions for extracting the three feature points that are the targets for acquiring the collation information in S21 of FIG. 4 may be changed as appropriate. For example, the CPU 1 may determine whether to acquire collation information based on whether the value of the maximum inner angle is within a predetermined range in addition to the area of the triangle formed by the three points. CPU1 may abbreviate | omit the process of S21 and may acquire collation information about each of the three feature points corresponding to all the combinations calculated by S18. CPU1 may acquire collation information about a predetermined set of three feature points in descending order of area.

(C−3)S58において、周波数情報の類似度の算出方法は適宜変更されてよい。例えば、周波数成分として本実施形態と同様の一次元群遅延スペクトルが用いられる場合、高次の成分にはノイズ成分が強く表れることがある。このような場合を考慮して、低次の成分を優先して選択された所定個の成分を含む周波数情報に基づき、周波数情報が選択されてもよい。所定個は、サンプル数、及び認証精度等を考慮して予め定められればよく、例えば、1つの第1参照点について取得されるサンプルの数Nが128である場合、所定個は10から63のいずれかに設定される。好ましくは、所定個は12から20のいずれかに設定される。サンプル数Nの場合、所定個は、好ましくは(サンプル数N/10)から(サンプル数N/5)に設定される。   (C-3) In S58, the frequency information similarity calculation method may be changed as appropriate. For example, when a one-dimensional group delay spectrum similar to that of the present embodiment is used as a frequency component, a noise component may appear strongly in a higher-order component. In consideration of such a case, the frequency information may be selected based on frequency information including a predetermined number of components selected with priority given to the low-order components. The predetermined number may be determined in advance in consideration of the number of samples and the authentication accuracy. For example, when the number N of samples acquired for one first reference point is 128, the predetermined number is 10 to 63. Set to either. Preferably, the predetermined number is set to any one of 12 to 20. In the case of the sample number N, the predetermined number is preferably set from (sample number N / 10) to (sample number N / 5).

(C−4)周波数成分は、一次元群遅延スペクトルに限定されない。例えば、周波数成分としてはLPCスペクトル、群遅延スペクトル、LPCケプストラム、ケプストラム、自己相関関数、及び相互相関関数など、他の公知の周波数成分が用いられてもよい。   (C-4) The frequency component is not limited to the one-dimensional group delay spectrum. For example, other known frequency components such as an LPC spectrum, a group delay spectrum, an LPC cepstrum, a cepstrum, an autocorrelation function, and a cross correlation function may be used as the frequency component.

(C−5)公知の照合情報と組み合わせて、照合が実行されてもよい。例えば、公知のマニューシャ法により照合結果と、本発明の照合情報方法を用いた照合結果とを組み合わせて、最終的な判定が実行されてもよい。このようにすれば、多様な観点から照合が実行され、照合精度が向上することが期待される。   (C-5) Collation may be executed in combination with known collation information. For example, the final determination may be performed by combining a matching result by a known minutiae method and a matching result using the matching information method of the present invention. In this way, it is expected that collation is performed from various viewpoints and collation accuracy is improved.

(C−6)第1参照点及び第2参照点の設定条件(例えば、数、間隔、及び取得順序等)は適宜変更されてよい。三角形が有する三辺のうち、一辺又は二辺について、サンプル情報及び周波数情報が取得されてもよい。S35の方向ベクトルは、1つの三角形について1つ算出されてもよい。この場合、三角形が有する三辺のうち、複数の辺についてサンプル情報及び周波数情報が取得される場合には、共通の方向ベクトルに基づき始点SPが決められてもよい。三角形が有する三辺のそれぞれについて算出された3つのサンプル情報は、適宜結合され、1つのサンプル情報として取り扱われてもよい。同様に三角形が有する三辺のそれぞれについて算出された3つの周波数情報は、適宜結合され、1つの周波数情報として取り扱われてもよい。このようにした場合には、三辺のそれぞれについて算出された3つのサンプル情報及び3つ周波数情報を全て用いて照合することができる。サンプル画像を生成する処理及び周波数画像を生成する処理は、適宜省略されてよい。幾何学的特徴量、第1情報及び第2情報は適宜変更されてよい。   (C-6) The setting conditions (for example, the number, interval, acquisition order, etc.) of the first reference point and the second reference point may be changed as appropriate. Sample information and frequency information may be acquired for one side or two sides of the three sides of the triangle. One direction vector of S35 may be calculated for one triangle. In this case, when sample information and frequency information are acquired for a plurality of sides among the three sides of the triangle, the start point SP may be determined based on a common direction vector. The three pieces of sample information calculated for each of the three sides of the triangle may be appropriately combined and handled as one piece of sample information. Similarly, the three frequency information calculated for each of the three sides of the triangle may be appropriately combined and handled as one frequency information. In this case, it is possible to collate using all of the three sample information and the three frequency information calculated for each of the three sides. The process of generating the sample image and the process of generating the frequency image may be omitted as appropriate. The geometric feature amount, the first information, and the second information may be changed as appropriate.

1 CPU
2 ROM
3 RAM
4 フラッシュメモリ
10 情報処理装置
21 画像取得部
22 特徴点抽出部
23 幾何学的特徴量算出部
24 サンプル情報取得部
25 周波数情報取得部
26 登録部
27 照合部
28 DB
1 CPU
2 ROM
3 RAM
4 Flash memory 10 Information processing device 21 Image acquisition unit 22 Feature point extraction unit 23 Geometric feature quantity calculation unit 24 Sample information acquisition unit 25 Frequency information acquisition unit 26 Registration unit 27 Collation unit 28 DB

Claims (5)

プロセッサと、記憶手段とを備えたコンピュータに、
画像を取得する画像取得ステップと、
前記画像取得ステップで取得された前記画像を解析して、特徴点を抽出する抽出ステップと、
前記抽出ステップで抽出された前記特徴点を3つ取得する特徴点取得ステップと、
前記特徴点取得ステップで取得された3つの前記特徴点によって表される三角形の幾何学的特徴量を算出する特徴量算出ステップと、
前記特徴点取得ステップで取得された前記3つの特徴点の中から、2つの特徴点をそれぞれ注目点として選択する選択ステップと、
前記選択ステップで選択された2つの前記注目点を結ぶ線分上の点であって、前記幾何学的特徴量に基づき決定された点である第1参照点の位置に対応する第1情報を、互いに位置が異なる複数の前記第1参照点のそれぞれについて取得する参照点取得ステップと、
前記参照点取得ステップで取得された複数の前記第1情報のそれぞれについて、
前記第1情報に対応する前記第1参照点を中心とする所定半径の円の周上の点であって、前記幾何学的特徴量に基づき決定された点である第2参照点に対応する色情報と、前記第2参照点の位置に対応する第2情報とを対応づけた情報であるサンプルを、互いに位置が異なる複数の前記第2参照点のそれぞれについて取得し、
取得された複数の前記サンプルと、前記第1情報とを対応づけた情報をサンプル情報とする処理を行うサンプル情報取得ステップと、
前記サンプル情報取得ステップで取得された前記サンプル情報に基づき、前記複数の第1参照点のそれぞれについて、
前記第2情報に対する前記色情報の変化の周波数成分を算出し、
前記複数の第1参照点のそれぞれについて算出された前記周波数成分を前記第1情報と対応づけた情報である周波数情報を取得する周波数情報取得ステップと、
前記サンプル情報及び前記周波数情報を、前記幾何学的特徴量と対応づけた情報を、生体情報の照合に用いる照合情報として前記記憶手段に記憶させる記憶制御ステップと
を実行させるための情報処理プログラム。
In a computer having a processor and storage means,
An image acquisition step of acquiring an image;
Extracting the feature point by analyzing the image acquired in the image acquisition step;
A feature point acquisition step of acquiring three of the feature points extracted in the extraction step;
A feature amount calculating step of calculating a geometric feature amount of a triangle represented by the three feature points acquired in the feature point acquiring step;
A selection step of selecting two feature points as attention points from among the three feature points acquired in the feature point acquisition step;
First information corresponding to a position of a first reference point, which is a point on a line segment connecting the two points of interest selected in the selection step and determined based on the geometric feature amount. A reference point obtaining step for obtaining each of the plurality of first reference points having different positions from each other;
For each of the plurality of first information acquired in the reference point acquisition step,
A point on a circumference of a circle having a predetermined radius centered on the first reference point corresponding to the first information, and corresponding to a second reference point determined based on the geometric feature amount Samples that are information in which color information and second information corresponding to the position of the second reference point are associated with each other are acquired for each of the plurality of second reference points having different positions,
A sample information acquisition step for performing processing in which sample information is obtained by associating a plurality of acquired samples with the first information;
Based on the sample information acquired in the sample information acquisition step, for each of the plurality of first reference points,
Calculating a frequency component of the color information change with respect to the second information;
A frequency information acquisition step of acquiring frequency information, which is information in which the frequency component calculated for each of the plurality of first reference points is associated with the first information;
An information processing program for executing a storage control step of storing, in the storage unit, information in which the sample information and the frequency information are associated with the geometric feature amount as verification information used for verification of biological information.
前記選択ステップは、前記3つの特徴点の全ての2点の組み合わせに対応する3組の前記2つの注目点のそれぞれを選択することを特徴とする請求項1に記載の情報処理プログラム。   2. The information processing program according to claim 1, wherein the selection step selects each of three sets of the two attention points corresponding to a combination of all two of the three feature points. 照合の対象となるテスト用の前記照合情報と、前記記憶手段に記憶された参照用の前記照合情報と照合する照合ステップをさらに備えることを特徴とする請求項1又は2に記載の情報処理プログラム。   The information processing program according to claim 1, further comprising a collation step of collating the collation information for testing to be collated with the collation information for reference stored in the storage unit. . 前記特徴点取得ステップは、前記抽出ステップで抽出された複数の前記特徴点のうち、前記所定半径に基づき決定された所定範囲内にある複数の特徴点から前記3つの特徴点を選択する場合の、全ての組み合わせに対応する複数組の前記3つの特徴点を取得し、
前記選択ステップは、前記特徴点取得ステップで取得された前記複数組の3つの特徴点のうち、前記特徴量算出ステップで算出された前記幾何学的特徴量に基づき、前記三角形の面積が所定値以上となる前記3つの特徴点について、前記2つの注目点を選択する処理を実行し、
前記照合ステップは、
前記テスト用の照合情報で表されるテスト用の前記三角形と、前記参照用の照合情報で表される参照用の前記三角形とのそれぞれの前記幾何学的特徴量を、前記三角形の面積が大きい順に比較して、類似度が閾値以下となる、前記テスト用の三角形と、前記参照用の三角形とのペアを抽出するペア抽出ステップと、
前記ペア抽出ステップで抽出された前記テスト用の三角形に対応する前記サンプル情報及び前記周波数情報と、前記参照用の三角形に対応する前記サンプル情報及び前記周波数情報とを照合する抽出後照合ステップと
を備えることを特徴とする請求項3に記載の情報処理プログラム。
The feature point acquisition step includes a case where the three feature points are selected from a plurality of feature points within a predetermined range determined based on the predetermined radius among the plurality of feature points extracted in the extraction step. , Obtain a plurality of sets of the three feature points corresponding to all combinations,
In the selection step, an area of the triangle is a predetermined value based on the geometric feature amount calculated in the feature amount calculation step among the plurality of sets of three feature points acquired in the feature point acquisition step. For the above three feature points, a process of selecting the two attention points is executed,
The matching step includes
The geometric feature amount of each of the test triangle represented by the test collation information and the reference triangle represented by the reference collation information is large in the area of the triangle. A pair extraction step of extracting a pair of the test triangle and the reference triangle, the similarity of which is compared in order, and the similarity is equal to or less than a threshold;
A post-extraction collation step of collating the sample information and the frequency information corresponding to the test triangle extracted in the pair extraction step with the sample information and the frequency information corresponding to the reference triangle. The information processing program according to claim 3, further comprising:
情報を記憶する記憶手段と、
画像を取得する画像取得手段と、
前記画像取得手段によって取得された前記画像を解析して、特徴点を抽出する抽出手段と、
前記抽出手段によって抽出された前記特徴点を3つ取得する特徴点取得手段と、
前記特徴点取得手段によって取得された3つの前記特徴点によって表される三角形の幾何学的特徴量を算出する特徴量算出手段と、
前記特徴点取得手段によって取得された前記3つの特徴点の中から、2つの特徴点をそれぞれ注目点として選択する選択手段と、
前記選択手段によって選択された2つの前記注目点を結ぶ線分上の点であって、前記幾何学的特徴量に基づき決定された点である第1参照点の位置に対応する第1情報を、互いに位置が異なる複数の前記第1参照点のそれぞれについて取得する参照点取得手段と、
前記参照点取得手段によって取得された複数の前記第1情報のそれぞれについて、
前記第1情報に対応する前記第1参照点を中心とする所定半径の円の周上の点であって、前記幾何学的特徴量に基づき決定された点である第2参照点に対応する色情報と、前記第2参照点の位置に対応する第2情報とを対応づけた情報であるサンプルを、互いに位置が異なる複数の前記第2参照点のそれぞれについて取得し、
取得した複数の前記サンプルと、前記第1情報とを対応づけた情報をサンプル情報とする処理を行うサンプル情報取得手段と、
前記サンプル情報取得手段によって取得された前記サンプル情報に基づき、前記複数の第1参照点のそれぞれについて、
前記第2情報に対する前記色情報の変化の周波数成分を算出し、
前記複数の第1参照点のそれぞれについて算出された前記周波数成分を前記第1情報と対応づけた情報である周波数情報を取得する周波数情報取得手段と、
前記サンプル情報及び前記周波数情報を、前記幾何学的特徴量と対応づけた情報を、生体情報の照合に用いる照合情報として前記記憶手段に記憶させる記憶制御手段と
を備えることを特徴とする情報処理装置。
Storage means for storing information;
Image acquisition means for acquiring images;
Analyzing the image acquired by the image acquisition means, extracting the feature points;
Feature point acquisition means for acquiring three feature points extracted by the extraction means;
Feature amount calculating means for calculating a geometric feature amount of a triangle represented by the three feature points acquired by the feature point acquiring means;
Selection means for selecting two feature points as attention points from among the three feature points acquired by the feature point acquisition means;
First information corresponding to a position of a first reference point, which is a point on a line segment connecting the two points of interest selected by the selection means and determined based on the geometric feature amount, Reference point acquisition means for acquiring each of the plurality of first reference points whose positions are different from each other;
For each of the plurality of first information acquired by the reference point acquisition means,
A point on a circumference of a circle having a predetermined radius centered on the first reference point corresponding to the first information, and corresponding to a second reference point determined based on the geometric feature amount Samples that are information in which color information and second information corresponding to the position of the second reference point are associated with each other are acquired for each of the plurality of second reference points having different positions,
Sample information acquisition means for performing a process using the information obtained by associating the plurality of acquired samples with the first information as sample information;
Based on the sample information acquired by the sample information acquisition means, for each of the plurality of first reference points,
Calculating a frequency component of the color information change with respect to the second information;
Frequency information acquisition means for acquiring frequency information which is information in which the frequency component calculated for each of the plurality of first reference points is associated with the first information;
Storage control means for storing information in which the sample information and the frequency information are associated with the geometric feature amount in the storage means as collation information used for collation of biometric information. apparatus.
JP2015127421A 2015-06-25 2015-06-25 INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING DEVICE Active JP6526494B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015127421A JP6526494B2 (en) 2015-06-25 2015-06-25 INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015127421A JP6526494B2 (en) 2015-06-25 2015-06-25 INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING DEVICE

Publications (2)

Publication Number Publication Date
JP2017010419A true JP2017010419A (en) 2017-01-12
JP6526494B2 JP6526494B2 (en) 2019-06-05

Family

ID=57763703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015127421A Active JP6526494B2 (en) 2015-06-25 2015-06-25 INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING DEVICE

Country Status (1)

Country Link
JP (1) JP6526494B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018207573A1 (en) * 2017-05-09 2018-11-15 株式会社ディー・ディー・エス Authentication information processing program and authentication information processing apparatus
EP3506152A1 (en) 2017-12-28 2019-07-03 Fujitsu Limited Information processing apparatus, recording medium for recording biometric authentication program, and biometric authentication method
US11106890B2 (en) 2017-05-09 2021-08-31 Kabushiki Kaisha Dds Authentication information processing method, authentication information processing device, and non-transitory computer-readable medium
US11368843B2 (en) 2017-05-09 2022-06-21 Kabushiki Kaisha Dds Authentication information processing method, authentication information processing device, and non-transitory computer-readable medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157778A (en) * 2002-11-06 2004-06-03 Advanced Telecommunication Research Institute International Nose position extraction method, program for operating it on computer, and nose position extraction device
JP2004213252A (en) * 2002-12-27 2004-07-29 Seiko Epson Corp Fingerprint verification method and fingerprint verification device
JP2004213395A (en) * 2003-01-06 2004-07-29 Sony Corp Fingerprint collating device and method, recording medium and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004157778A (en) * 2002-11-06 2004-06-03 Advanced Telecommunication Research Institute International Nose position extraction method, program for operating it on computer, and nose position extraction device
JP2004213252A (en) * 2002-12-27 2004-07-29 Seiko Epson Corp Fingerprint verification method and fingerprint verification device
JP2004213395A (en) * 2003-01-06 2004-07-29 Sony Corp Fingerprint collating device and method, recording medium and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018207573A1 (en) * 2017-05-09 2018-11-15 株式会社ディー・ディー・エス Authentication information processing program and authentication information processing apparatus
US11106890B2 (en) 2017-05-09 2021-08-31 Kabushiki Kaisha Dds Authentication information processing method, authentication information processing device, and non-transitory computer-readable medium
US11368843B2 (en) 2017-05-09 2022-06-21 Kabushiki Kaisha Dds Authentication information processing method, authentication information processing device, and non-transitory computer-readable medium
US11586718B2 (en) 2017-05-09 2023-02-21 Kabushiki Kaisha Dds Authentication information processing method, authentication information processing device, and non-transitory computer-readable medium
EP3506152A1 (en) 2017-12-28 2019-07-03 Fujitsu Limited Information processing apparatus, recording medium for recording biometric authentication program, and biometric authentication method
US10949516B2 (en) 2017-12-28 2021-03-16 Fujitsu Limited Information processing apparatus, recording medium for recording biometric authentication program, and biometric authentication method

Also Published As

Publication number Publication date
JP6526494B2 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
US10740589B2 (en) Skin information processing method, skin information processing device, and non-transitory computer-readable medium
US10255477B2 (en) Feature-based matcher for distorted fingerprint matching
JP6526494B2 (en) INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING DEVICE
US10740590B2 (en) Skin information processing method, skin information processing device, and non-transitory computer-readable medium
EP3617993B1 (en) Collation device, collation method and collation program
KR102205495B1 (en) Method and apparatus for recognizing finger print
US10430629B2 (en) Non-transitory computer-readable medium storing information processing program and information processing device
JP6879524B2 (en) Authentication information processing program and authentication information processing device
KR102558736B1 (en) Method and apparatus for recognizing finger print
JP6894102B2 (en) Authentication information processing program and authentication information processing device
JP6448253B2 (en) Data creation program, data creation method, and data creation device
JP6366420B2 (en) Data creation program, data creation method, and data creation device
KR102189610B1 (en) Information processing program and information processing device
JP2015228070A (en) Fingerprint image processor, fingerprint image processing method and program
CN110678900A (en) Authentication information processing program and authentication information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190508

R150 Certificate of patent or registration of utility model

Ref document number: 6526494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350