JP6526494B2 - INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING DEVICE - Google Patents

INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING DEVICE Download PDF

Info

Publication number
JP6526494B2
JP6526494B2 JP2015127421A JP2015127421A JP6526494B2 JP 6526494 B2 JP6526494 B2 JP 6526494B2 JP 2015127421 A JP2015127421 A JP 2015127421A JP 2015127421 A JP2015127421 A JP 2015127421A JP 6526494 B2 JP6526494 B2 JP 6526494B2
Authority
JP
Japan
Prior art keywords
information
points
point
feature
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015127421A
Other languages
Japanese (ja)
Other versions
JP2017010419A (en
Inventor
梅崎 太造
太造 梅崎
政大 保黒
政大 保黒
公央亮 服部
公央亮 服部
雄平 原田
雄平 原田
健滋 三吉野
健滋 三吉野
徳田 清仁
清仁 徳田
達樹 吉嶺
達樹 吉嶺
祐平 丹羽
祐平 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DDS KK
Original Assignee
DDS KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DDS KK filed Critical DDS KK
Priority to JP2015127421A priority Critical patent/JP6526494B2/en
Publication of JP2017010419A publication Critical patent/JP2017010419A/en
Application granted granted Critical
Publication of JP6526494B2 publication Critical patent/JP6526494B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像を解析して、生体情報の照合に用いられる照合情報を作成する情報処理プログラム及び情報処理装置に関する。   The present invention relates to an information processing program and an information processing apparatus that analyze an image and create collation information used for collation of biological information.

近年、スマートフォン及びノートパソコンのようなモバイル機器に搭載可能な、指紋認証装置が種々検討されている。例えば、特許文献1には、指紋画像を周波数スペクトル変換した情報を照合に用いる照合情報とすることで、指紋センサーに対する指の傾き等の外乱の影響を受けにくい個人識別装置が開示されている。   In recent years, various fingerprint authentication apparatuses that can be mounted on mobile devices such as smartphones and notebook computers have been studied. For example, Patent Document 1 discloses a personal identification apparatus that is less susceptible to disturbances such as the inclination of a finger with respect to a fingerprint sensor by using information obtained by frequency spectrum converting a fingerprint image as collation information used for collation.

特許第3057590号明細書Patent No. 3057590 specification

モバイル機器に搭載される指紋センサーの小型化に伴い、取得される指紋の画像は従来に比べ小さくなっている。ユーザーは指紋の入力操作を行う場合、モバイル機器を所持した側の手の指を、モバイル機器に搭載された指紋センサーに接触させることが多い。この場合、ユーザーは指を不自然な向きに移動させなければならないので、指紋の入力操作は不安定になりやすい。つまり、登録時とは位置及び角度が異なる条件で取得された画像が取得されやすい。したがって、従来に比べ画像の大きさが小さい場合であっても、生体情報の取得条件の影響を受けにくい照合情報を作成する技術が要求されている。   With the miniaturization of fingerprint sensors mounted on mobile devices, the images of fingerprints acquired are smaller than before. When the user performs a fingerprint input operation, the finger of the hand holding the mobile device often contacts the fingerprint sensor mounted on the mobile device. In this case, the user must move the finger in an unnatural direction, so the fingerprint input operation tends to be unstable. That is, an image acquired under the condition that the position and the angle are different from those at the time of registration is easily acquired. Therefore, there is a need for a technique for creating matching information that is less susceptible to biological information acquisition conditions even when the size of the image is smaller than in the past.

本発明の目的は、生体情報を表す画像の大きさが従来に比べ小さい場合であっても、生体情報の取得条件の影響を受けにくい照合情報を作成可能な情報処理プログラム及び情報処理装置を提供することである。   An object of the present invention is to provide an information processing program and an information processing apparatus capable of creating collation information which is not easily influenced by acquisition conditions of biometric information even when the size of an image representing biometric information is smaller than the conventional one. It is to be.

本発明の第1態様に係る情報処理プログラムは、プロセッサと、記憶手段とを備えたコンピュータに、画像を取得する画像取得ステップと、前記画像取得ステップで取得された前記画像を解析して、特徴点を抽出する抽出ステップと、前記抽出ステップで抽出された前記特徴点を3つ取得する特徴点取得ステップと、前記特徴点取得ステップで取得された3つの前記特徴点によって表される三角形の幾何学的特徴量を算出する特徴量算出ステップと、前記特徴点取得ステップで取得された前記3つの特徴点の中から、2つの特徴点をそれぞれ注目点として選択する選択ステップと、前記選択ステップで選択された2つの前記注目点を結ぶ線分上の点であって、前記幾何学的特徴量に基づき決定された点である第1参照点の位置に対応する第1情報を、互いに位置が異なる複数の前記第1参照点のそれぞれについて取得する参照点取得ステップと、前記参照点取得ステップで取得された複数の前記第1情報のそれぞれについて、前記第1情報に対応する前記第1参照点を中心とする所定半径の円の周上の点であって、前記幾何学的特徴量に基づき決定された点である第2参照点に対応する色情報と、前記第2参照点の位置に対応する第2情報とを対応づけた情報であるサンプルを、互いに位置が異なる複数の前記第2参照点のそれぞれについて取得し、取得された複数の前記サンプルと、前記第1情報とを対応づけた情報をサンプル情報とする処理を行うサンプル情報取得ステップと、前記サンプル情報取得ステップで取得された前記サンプル情報に基づき、前記複数の第1参照点のそれぞれについて、前記第2情報に対する前記色情報の変化の周波数成分を算出し、前記複数の第1参照点のそれぞれについて算出された前記周波数成分を前記第1情報と対応づけた情報である周波数情報を取得する周波数情報取得ステップと、前記サンプル情報及び前記周波数情報を、前記幾何学的特徴量と対応づけた情報を、生体情報の照合に用いる照合情報として前記記憶手段に記憶させる記憶制御ステップとを実行させるためのプログラムである。   An information processing program according to a first aspect of the present invention is characterized in that an image acquisition step of acquiring an image, and the image acquired in the image acquisition step is analyzed in a computer provided with a processor and storage means. Extraction step of extracting points, feature point acquisition step of acquiring three of the feature points extracted in the extraction step, and geometry of a triangle represented by the three feature points acquired in the feature point acquisition step Calculation step of calculating a scientific feature amount, a selection step of selecting two feature points as attention points from the three feature points obtained in the feature point acquisition step, and the selection step A first point on a line segment connecting the two selected target points, the first point corresponding to the position of the first reference point being a point determined based on the geometric feature quantity Corresponding to the first information for each of the plurality of first information acquired in the reference point acquiring step of acquiring information for each of the plurality of first reference points different in position and the plurality of first information acquired in the reference point acquiring step Color information corresponding to a second reference point, which is a point on the circumference of a circle having a predetermined radius centered on the first reference point to be extracted, which is a point determined based on the geometrical feature value; 2. A sample, which is information in which the second information corresponding to the position of the two reference points is associated, is acquired for each of the plurality of second reference points whose positions are different from each other, and the plurality of acquired samples; A sample information acquiring step for performing processing of using information associated with one information as sample information, and the plurality of first reference points based on the sample information acquired in the sample information acquiring step Each of them is information in which a frequency component of change of the color information with respect to the second information is calculated, and the frequency component calculated for each of the plurality of first reference points is associated with the first information. Storage control for storing frequency information acquisition step for acquiring frequency information, and information associating the sample information and the frequency information with the geometric feature amount as collation information used for collation of biological information It is a program for executing steps.

第1態様の情報処理プログラムに基づき照合情報を生成すれば、画像から抽出された特徴点に基づきサンプル情報及び周波数情報を含む照合情報が取得される。サンプル情報及び周波数情報は、抽出された特徴点の中から選択された2つの注目点を結ぶ線分の周囲の点の色情報の変化を表す情報である。このため、画像から抽出された特徴点の数が少ない場合にも、精度よく照合可能な情報を生成することができる。サンプル情報及び周波数情報は、幾何学的特徴量に基づき決定された点について取得された情報である。したがって、本プログラムに基づき照合情報を生成すれば、幾何学的特徴量が考慮されない点について情報が取得された場合に比べ、画像によって表される情報(例えば、指紋画像又は静脈画像によって表される生体情報)が基準に対して回転したり、移動したりした影響が低減された照合情報を生成することができる。   If collation information is generated based on the information processing program of the first aspect, collation information including sample information and frequency information is acquired based on the feature points extracted from the image. The sample information and the frequency information are information representing a change in color information of points around a line segment connecting two focused points selected from among the extracted feature points. For this reason, even when the number of feature points extracted from the image is small, it is possible to generate information that can be accurately collated. The sample information and the frequency information are information acquired about the point determined based on the geometric feature. Therefore, if the verification information is generated based on this program, the information represented by the image (for example, represented by a fingerprint image or a vein image) as compared to the case where the information is acquired regarding the point where the geometric feature is not considered. It is possible to generate verification information in which the influence of rotation or movement of the biometric information) with respect to the reference is reduced.

第1態様の情報処理プログラムの前記選択ステップは、前記3つの特徴点の全ての2点の組み合わせに対応する3組の前記2つの注目点のそれぞれを選択してもよい。この場合の情報処理プログラムに基づき照合情報が生成されれば、1組の2つの注目点が選択される場合に比べ、多くの照合情報が生成される。   The selection step of the information processing program according to the first aspect may select each of the three sets of two attention points corresponding to a combination of all two points of the three feature points. If the collation information is generated based on the information processing program in this case, more collation information is generated as compared with the case where one set of two attention points is selected.

第1態様の情報処理プログラムは、照合の対象となるテスト用の前記照合情報と、前記記憶手段に記憶された参照用の前記照合情報と照合する照合ステップを備えてもよい。この場合の情報処理プログラムに基づき生体情報の照合が実行されれば、画像から抽出された特徴点に基づきサンプル情報及び周波数情報を取得するため、画像から抽出された特徴点の数が少ない場合にも、精度よく照合可能である。サンプル情報及び周波数情報は、幾何学的特徴量に基づき決定された点について取得された情報である。したがって、本プログラムに基づき照合すれば、幾何学的特徴量が考慮されない点について情報が取得された場合に比べ、生体情報が基準に対して回転したり、移動したりした影響が低減された、精度のよい照合結果を得ることができる。   The information processing program according to the first aspect may include a collating step of collating the collation information for test to be collated with the collation information for reference stored in the storage unit. If collation of biological information is executed based on the information processing program in this case, sample information and frequency information are acquired based on the feature points extracted from the image, so the number of feature points extracted from the image is small. Also, it is possible to match with high accuracy. The sample information and the frequency information are information acquired about the point determined based on the geometric feature. Therefore, when collating based on this program, the influence of rotation or movement of the biological information with respect to the reference is reduced compared to the case where information is acquired about the point where the geometric feature is not considered. Accurate matching results can be obtained.

第1態様の情報処理プログラムの前記特徴点取得ステップは、前記抽出ステップで抽出された複数の前記特徴点のうち、前記所定半径に基づき決定された所定範囲内にある複数の特徴点から前記3つの特徴点を選択する場合の、全ての組み合わせに対応する複数組の前記3つの特徴点を取得し、前記選択ステップは、前記特徴点取得ステップで取得された前記複数組の3つの特徴点のうち、前記特徴量算出ステップで算出された前記幾何学的特徴量に基づき、前記三角形の面積が所定値以上となる前記3つの特徴点について、前記2つの注目点を選択する処理を実行し、前記照合ステップは、前記テスト用の照合情報で表されるテスト用の前記三角形と、前記参照用の照合情報で表される参照用の前記三角形とのそれぞれの前記幾何学的特徴量を、前記三角形の面積が大きい順に比較して、類似度が閾値以下となる、前記テスト用の三角形と、前記参照用の三角形とのペアを抽出するペア抽出ステップと、前記ペア抽出ステップで抽出された前記テスト用の三角形に対応する前記サンプル情報及び前記周波数情報と、前記参照用の三角形に対応する前記サンプル情報及び前記周波数情報とを照合する抽出後照合ステップとを備えてもよい。   The feature point acquiring step of the information processing program according to the first aspect is characterized in that, among the plurality of feature points extracted in the extracting step, the plurality of feature points within a predetermined range determined based on the predetermined radius. In the case of selecting one feature point, a plurality of sets of the three feature points corresponding to all combinations are acquired, and the selecting step is performed by using the plurality of sets of three feature points acquired in the feature point acquiring step. Among these, based on the geometric feature quantity calculated in the feature quantity calculation step, processing is performed to select the two attention points for the three feature points whose area of the triangle is equal to or larger than a predetermined value, In the matching step, the geometric features of the test triangle represented by the test matching information and the reference triangle represented by the reference matching information. A pair extraction step of extracting a pair of the test triangle and the reference triangle whose similarity is equal to or less than a threshold value by comparing in order of decreasing area of the triangle; and extracting the pair extraction step The information processing apparatus may further include a post extraction extraction step of collating the sample information and the frequency information corresponding to the test triangle and the sample information and the frequency information corresponding to the reference triangle.

特徴点取得ステップで取得された3つの特徴点のそれぞれの位置が互いに近接し、3つの特徴点で表される三角形の面積が所定値未満の場合には、三角形の面積が所定値以上の場合に比べ、サンプル情報が示す色情報の変化が少ない。このため、この場合の情報処理プログラムに基づき生体情報の照合が実行されれば、3つの特徴点で表される三角形の面積が所定値未満の場合には、それら3つの特徴点に基づき、照合情報は取得されない。したがって本発明のプログラムによれば、三角形の面積が所定値未満となる3つの特徴点に基づき照合情報が生成される場合に比べ、照合情報を用いた照合の精度を高めることができる。   When the positions of the three feature points acquired in the feature point acquisition step are close to each other, and the area of the triangle represented by the three feature points is less than a predetermined value, the area of the triangle is greater than or equal to the predetermined value There is less change in the color information indicated by the sample information than in the case of. For this reason, if matching of biometric information is executed based on the information processing program in this case, if the area of the triangle represented by the three feature points is less than a predetermined value, the matching is performed based on the three feature points. No information is obtained. Therefore, according to the program of the present invention, compared with the case where the matching information is generated based on the three feature points where the area of the triangle is less than the predetermined value, the accuracy of the matching using the matching information can be enhanced.

本発明の第2態様に係る情報処理装置は、情報を記憶する記憶手段と、画像を取得する画像取得手段と、前記画像取得手段によって取得された前記画像を解析して、特徴点を抽出する抽出手段と、前記抽出手段によって抽出された前記特徴点を3つ取得する特徴点取得手段と、前記特徴点取得手段によって取得された3つの前記特徴点によって表される三角形の幾何学的特徴量を算出する特徴量算出手段と、前記特徴点取得手段によって取得された前記3つの特徴点の中から、2つの特徴点をそれぞれ注目点として選択する選択手段と、前記選択手段によって選択された2つの前記注目点を結ぶ線分上の点であって、前記幾何学的特徴量に基づき決定された点である第1参照点の位置に対応する第1情報を、互いに位置が異なる複数の前記第1参照点のそれぞれについて取得する参照点取得手段と、前記参照点取得手段によって取得された複数の前記第1情報のそれぞれについて、前記第1情報に対応する前記第1参照点を中心とする所定半径の円の周上の点であって、前記幾何学的特徴量に基づき決定された点である第2参照点に対応する色情報と、前記第2参照点の位置に対応する第2情報とを対応づけた情報であるサンプルを、互いに位置が異なる複数の前記第2参照点のそれぞれについて取得し、取得した複数の前記サンプルと、前記第1情報とを対応づけた情報をサンプル情報とする処理を行うサンプル情報取得手段と、前記サンプル情報取得手段によって取得された前記サンプル情報に基づき、前記複数の第1参照点のそれぞれについて、前記第2情報に対する前記色情報の変化の周波数成分を算出し、前記複数の第1参照点のそれぞれについて算出された前記周波数成分を前記第1情報と対応づけた情報である周波数情報を取得する周波数情報取得手段と、前記サンプル情報及び前記周波数情報を、前記幾何学的特徴量と対応づけた情報を、生体情報の照合に用いる照合情報として前記記憶手段に記憶させる記憶制御手段と
を備える。
An information processing apparatus according to a second aspect of the present invention extracts feature points by analyzing storage means for storing information, image acquisition means for acquiring an image, and the image acquired by the image acquisition means. Extraction means, feature point acquisition means for acquiring three of the feature points extracted by the extraction means, and geometrical feature quantities of triangles represented by the three feature points acquired by the feature point acquisition means Among the three feature points acquired by the feature point acquisition means, selection means for selecting two feature points as the focus points, and 2 selected by the selection means First information corresponding to a position of a first reference point which is a point on a line segment connecting the two attention points and which is a point determined based on the geometrical feature amount, Second A predetermined radius centered on the first reference point corresponding to the first information for each of the plurality of first information acquired by the reference point acquisition means acquired for each of the reference points and the plurality of first information acquired by the reference point acquisition means Color information corresponding to a second reference point which is a point on the circumference of the circle and is a point determined based on the geometric feature, and second information corresponding to the position of the second reference point Is obtained for each of the plurality of second reference points whose positions are different from each other, and information obtained by associating the plurality of obtained samples with the first information is used as sample information. Said color for said second information for each of said plurality of first reference points based on sample information acquisition means for performing processing and said sample information acquired by said sample information acquisition means Frequency information acquiring means for calculating frequency components of change of information, and acquiring frequency information which is information in which the frequency components calculated for each of the plurality of first reference points are associated with the first information; Storage control means for storing information in which sample information and the frequency information are associated with the geometric feature amount as collation information used for collation of biological information.

第2態様の情報処理装置は、画像から抽出された特徴点に基づきサンプル情報及び周波数情報を取得するため、画像から抽出された特徴点の数が少ない場合にも、精度よく照合可能な照合情報を生成することができる。サンプル情報及び周波数情報は、幾何学的特徴量に基づき決定された点について取得された情報である。したがって、情報処理装置は、幾何学的特徴量が考慮されない点について情報が取得された場合に比べ、画像によって表される情報(例えば、指紋画像又は静脈画像によって表される生体情報)が基準に対して回転したり、移動したりした影響が低減された照合情報を生成することができる。   The information processing apparatus according to the second aspect acquires sample information and frequency information based on feature points extracted from an image, so that matching information can be accurately collated even when the number of feature points extracted from an image is small. Can be generated. The sample information and the frequency information are information acquired about the point determined based on the geometric feature. Therefore, the information processing apparatus is based on the information represented by the image (for example, the biometric information represented by the fingerprint image or the vein image) as compared to the case where the information is acquired about the point where the geometric feature is not considered. It is possible to generate verification information in which the influence of rotation or movement with respect to the user is reduced.

情報処理装置10のブロック図である。FIG. 2 is a block diagram of an information processing apparatus 10; 情報処理装置10の機能ブロック図である。FIG. 2 is a functional block diagram of the information processing apparatus 10. 照合情報処理のフローチャートである。It is a flowchart of collation information processing. 図3の照合情報処理で実行される画像解析処理のフローチャートである。It is a flowchart of the image-analysis process performed by the collation information processing of FIG. 生体情報取得装置8から取得された参照用の生体情報を表す画像41である。It is an image 41 representing the reference biometric information acquired from the biometric information acquisition device 8. 図5の画像41から特徴点P1からP11を抽出する過程を説明する図である。It is a figure explaining the process of extracting the feature points P1 to P11 from the image 41 of FIG. 図4の画像解析処理で実行される。照合情報取得処理のフローチャートである。It is executed in the image analysis process of FIG. It is a flowchart of collation information acquisition processing. 局所座標系60の説明図である。It is explanatory drawing of the local coordinate system 60. FIG. 第1参照点及び第2参照点の設定方法の説明図である。It is explanatory drawing of the setting method of a 1st reference point and a 2nd reference point. サンプル71,サンプルデータ72及びサンプル情報73の説明図である。FIG. 7 is an explanatory diagram of a sample 71, sample data 72, and sample information 73. 2つの注目点毎に取得された、サンプル情報、サンプル画像、周波数情報、及び周波数画像を含む参照用の照合情報75の説明図である。It is explanatory drawing of the collation information 75 for a reference containing the sample information, the sample image, the frequency information, and the frequency image acquired for every two attention points. サンプルデータによって表される、第2情報に対する色情報の変化に基づき周波数成分を算出する過程の説明図である。It is explanatory drawing of the process of calculating a frequency component based on the change of the color information with respect to 2nd information represented by sample data. DB28に登録される照合情報の説明図である。It is explanatory drawing of collation information registered into DB28. テスト用の画像51と、画像51に含まれる特徴点PT1からPT3を示す図である。It is a figure which shows the image 51 for a test, and the feature points PT1 to PT3 contained in the image 51. FIG. 画像51について、2つの注目点毎に取得された、サンプル情報、サンプル画像、周波数情報、及び周波数画像を含むテスト用の照合情報85の説明図である。It is explanatory drawing of the collation information 85 for a test including the sample information, the sample image, the frequency information, and the frequency image which were acquired for every two attention points about the image 51. FIG. 図3の照合情報処理で実行される照合処理のフローチャートである。It is a flowchart of the collation process performed by collation information processing of FIG. テスト用の照合情報と、参照用の照合情報とを照合する過程の説明図である。It is explanatory drawing of the process of collating the collation information for a test, and the collation information for a reference. テスト用の周波数情報と、参照用の周波数情報との類似度を算出する過程の説明図である。It is explanatory drawing of the process of calculating the similarity of the frequency information for a test, and the frequency information for a reference. テスト用の周波数情報と、参照用の周波数情報との類似度を算出する過程の説明図である。It is explanatory drawing of the process of calculating the similarity of the frequency information for a test, and the frequency information for a reference. テスト用の周波数情報と、参照用の周波数情報との類似度を算出する過程の説明図である。It is explanatory drawing of the process of calculating the similarity of the frequency information for a test, and the frequency information for a reference. テスト用のサンプル情報と、参照用のサンプル情報との類似度を算出する過程の説明図である。It is explanatory drawing of the process of calculating the similarity of the sample information for a test, and the sample information for a reference. テスト用のサンプル情報と、参照用のサンプル情報との類似度を算出する過程の説明図である。It is explanatory drawing of the process of calculating the similarity of the sample information for a test, and the sample information for a reference. テスト用のサンプル情報と、参照用のサンプル情報との類似度を算出する過程の説明図である。It is explanatory drawing of the process of calculating the similarity of the sample information for a test, and the sample information for a reference.

本発明の一実施形態について、図面を参照して説明する。以下の実施形態において例示した具体的な複数の数値は一例であり、本発明はこれらの複数の数値に限定されない。以下の説明では、画像データを単に「画像」という。   One embodiment of the present invention will be described with reference to the drawings. The specific plural numerical values exemplified in the following embodiments are one example, and the present invention is not limited to these plural numerical values. In the following description, image data is simply referred to as an "image".

図1を参照して、情報処理装置10について説明する。情報処理装置10は、生体情報によってユーザーを認証する機能を備えた電子機器である。生体情報は、例えば、顔画像、指紋、静脈、及び虹彩のような種々の生体情報から選択される。本実施形態の生体情報は指紋である。本実施形態において、情報処理装置10は、周知のスマートフォンである。情報処理装置10は、指紋を撮影した画像を解析して、指紋を用いた照合に必要な参照用の照合情報を生成し、情報処理装置10のフラッシュメモリ4に記憶されたデータベース(DB)28に記憶する機能を備える。情報処理装置10は、指紋を撮影した画像を解析して、指紋を用いた照合に必要なテスト用の照合情報を生成し、生成されたテスト用の照合情報と、DB28に記憶された参照用の照合情報とを照合する機能を備える。   The information processing apparatus 10 will be described with reference to FIG. The information processing apparatus 10 is an electronic device provided with a function of authenticating a user by biometric information. The biometric information is selected from various biometric information such as, for example, a face image, a fingerprint, a vein, and an iris. The biometric information of the present embodiment is a fingerprint. In the present embodiment, the information processing apparatus 10 is a known smart phone. The information processing apparatus 10 analyzes an image obtained by capturing a fingerprint, generates matching information for reference necessary for matching using the fingerprint, and stores the database (DB) 28 stored in the flash memory 4 of the information processing apparatus 10 Have a function to store in The information processing apparatus 10 analyzes an image obtained by capturing a fingerprint, generates test verification information necessary for verification using the fingerprint, and generates the generated test verification information and the reference information stored in the DB 28. It has a function of collating with the collation information of

図1に示すように、情報処理装置10は、CPU1,ROM2,RAM3,フラッシュメモリ4,通信I/F5,表示部6,タッチパネル7,及び生体情報取得装置8を備える。CPU1は、情報処理装置10の制御を行うプロセッサである。CPU1は、ROM2,RAM3,フラッシュメモリ4,通信I/F5,表示部6,タッチパネル7,及び生体情報取得装置8と電気的に接続する。ROM2は、BIOS,ブートプログラム、及び初期設定値を記憶する。RAM3は、種々の一時データを記憶する。フラッシュメモリ4は、CPU1が情報処理装置10を制御するために実行するプログラム、OS(Operating System)、及びDB28を記憶する。通信I/F5は、外部の機器と通信を実行するためのコントローラである。表示部6は、液晶ディスプレイである。タッチパネル7は、表示部6の表面に設けられる。生体情報取得装置8は、生体情報を撮影した画像を取得する。本実施形態の生体情報取得装置8は、静電容量方式のエリア型センサーである。詳細には、生体情報取得装置8は、マトリクス状の表面電極の電荷量から指紋の凹凸を判定するセンサーであり、1ピクセル毎に色情報を256階調の諧調値で表す。色情報は、色を表す情報である。解像度は、例えば、508dpi(dots per inch)である。   As shown in FIG. 1, the information processing apparatus 10 includes a CPU 1, a ROM 2, a RAM 3, a flash memory 4, a communication I / F 5, a display unit 6, a touch panel 7, and a biological information acquisition apparatus 8. The CPU 1 is a processor that controls the information processing apparatus 10. The CPU 1 is electrically connected to the ROM 2, the RAM 3, the flash memory 4, the communication I / F 5, the display unit 6, the touch panel 7, and the biological information acquisition apparatus 8. The ROM 2 stores a BIOS, a boot program, and initial setting values. The RAM 3 stores various temporary data. The flash memory 4 stores a program that the CPU 1 executes to control the information processing apparatus 10, an OS (Operating System), and a DB 28. The communication I / F 5 is a controller for performing communication with an external device. The display unit 6 is a liquid crystal display. The touch panel 7 is provided on the surface of the display unit 6. The biometric information acquisition device 8 acquires an image obtained by imaging the biometric information. The biological information acquisition device 8 of the present embodiment is a capacitive type area sensor. In detail, the biological information acquisition device 8 is a sensor that determines the unevenness of the fingerprint from the charge amount of the matrix surface electrode, and represents color information with a gradation value of 256 gradations for each pixel. Color information is information representing a color. The resolution is, for example, 508 dpi (dots per inch).

図2を参照して、情報処理装置10の機能の概要について説明する。情報処理装置10は、生体情報取得装置8,画像取得部21,特徴点抽出部22,幾何学的特徴量算出部23,サンプル情報取得部24,周波数情報取得部25,照合部27,登録部26,及びDB28を有し、それぞれの機能ブロックに対応する処理を、CPU1(図1参照)によって実行する。   An overview of the functions of the information processing apparatus 10 will be described with reference to FIG. The information processing apparatus 10 includes a biological information acquisition apparatus 8, an image acquisition unit 21, a feature point extraction unit 22, a geometric feature quantity calculation unit 23, a sample information acquisition unit 24, a frequency information acquisition unit 25, a collation unit 27, and a registration unit. 26, and the DB 28, and the processing corresponding to each functional block is executed by the CPU 1 (see FIG. 1).

生体情報取得装置8は、画像取得部21に画像を出力する。画像取得部21は、生体情報取得装置8から出力された画像を取得する。特徴点抽出部22は、画像取得部21から取得された画像に基づき、画像座標系の特徴点の二次元座標を抽出する。本実施形態の画像座標系の二次元座標は、画像中のピクセルの位置に基づき、ピクセル単位で設定される座標であるとする。画像座標系の二次元座標については後述する。特徴点は、例えば、マニューシャの抽出方法(例えば、特許第1289457号明細書参照)に従って抽出された点及びSIFT(Scale−Invariant Feature Transform)(例えば、米国特許第6,711,293号明細書参照)に従って抽出された点の少なくともいずれかである。本実施形態の特徴点は、特許第1289457号明細書に記載のマニューシャの抽出方法に従って抽出される。   The biometric information acquisition device 8 outputs an image to the image acquisition unit 21. The image acquisition unit 21 acquires an image output from the biological information acquisition device 8. The feature point extraction unit 22 extracts two-dimensional coordinates of feature points in the image coordinate system based on the image acquired from the image acquisition unit 21. The two-dimensional coordinates of the image coordinate system of this embodiment are coordinates set in pixel units based on the position of the pixel in the image. The two-dimensional coordinates of the image coordinate system will be described later. The feature points are, for example, points extracted according to the method of extraction of magazines (see, for example, Japanese Patent No. 1289457) and Scale-Invariant Feature Transform (SIFT) (see, for example, US Patent No. 6,711,293). Or at least one of the points extracted according to. The feature points of this embodiment are extracted according to the method of extracting minutia described in Japanese Patent No. 1289457.

幾何学的特徴量算出部23は、特徴点抽出部22が抽出した複数の特徴点のうち、所定の範囲内の特徴点の座標を取得する。幾何学的特徴量算出部23は、座標が取得された複数の特徴点の中から3つの特徴点を選択し、選択された3つの特徴点によって表される三角形の幾何学的特徴量を算出する。幾何学的特徴量は、例えば、3つの特徴点の座標、3つの特徴点の中から選択された2つの注目点で表される線分の傾き(ベクトル)、三角形の辺の長さ、三角形の内角、及び三角形の面積の中から適宜選択される。3つの特徴点の座標は、画像座標系の絶対座標又は相対座標で表される。本実施形態の幾何学的特徴量算出部23は、選択された3つの特徴点について、画像座標系の座標に加え、局所座標系を設定し、局所座標系の座標でも3つの特徴点の座標を表す。局所座標系については後述する。本実施形態の幾何学的特徴量算出部23は、所定範囲内にある複数の特徴点から3つの特徴点を選択する場合の、全ての組み合わせに対応する複数組の3つの特徴点を取得し、それぞれについて幾何学的特徴を算出する。   The geometric feature amount calculation unit 23 acquires coordinates of feature points within a predetermined range among the plurality of feature points extracted by the feature point extraction unit 22. The geometric feature quantity calculation unit 23 selects three feature points from among a plurality of feature points whose coordinates are acquired, and calculates a geometric feature quantity of a triangle represented by the selected three feature points. Do. For example, geometric feature quantities include coordinates of three feature points, inclination (vector) of a line segment represented by two notable points selected from among the three feature points, side length of triangle, triangle It is suitably selected from the inside angle of and the area of a triangle. The coordinates of the three feature points are represented by absolute coordinates or relative coordinates of the image coordinate system. In addition to the coordinates of the image coordinate system, the geometric feature quantity calculation unit 23 of the present embodiment sets a local coordinate system in addition to the coordinates of the image coordinate system, and the coordinates of the three feature points in the local coordinate system Represents The local coordinate system will be described later. The geometric feature amount calculation unit 23 according to the present embodiment acquires a plurality of sets of three feature points corresponding to all combinations in the case of selecting three feature points from a plurality of feature points within a predetermined range. , Calculate geometric features for each.

サンプル情報取得部24は、幾何学的特徴量算出部23が取得した3つの特徴点の幾何学的特徴量と所定の取得条件とに基づき、サンプル情報を取得する。サンプル情報は、色情報を、色情報の取得条件を示す位置に対応する情報(第1情報及び第2情報)と対応づけた情報である。サンプル情報は、例えば、以下の手順で取得される。3つの特徴点の中から、2つの特徴点がそれぞれ注目点として選択される。本実施形態のサンプル情報取得部24は、幾何学的特徴量算出部23によって取得された複数組の3つの特徴点のうち、幾何学的特徴量に基づき、3つの特徴点によって表される三角形の面積が所定値以上となる3つの特徴点について、2つの注目点を選択する処理を実行する。サンプル情報取得部24は、選択された2つの注目点を結ぶ線分上の点であって、幾何学的特徴量に基づき決定された点を第1参照点として決定する。互いに位置が異なる複数の第1参照点のそれぞれについて、第1情報が取得される。第1情報は、第1参照点の位置に対応する情報である。第1情報は、基準に対する第1参照点の位置を規定する情報であればよく、例えば、絶対座標(例えば、画像座標系の座標)、相対座標(例えば、局所座標系の座標)、及び基準に対する角度などでもよい。第1参照点の取得順序が、基準に対して決められている場合には、第1情報は第1参照点の取得順序でもよい。取得された複数の第1情報のそれぞれについて、複数のサンプルが取得される。サンプルは、第2参照点に対応する色情報と、第2情報とを対応づけた情報である。第2参照点は、第1情報に対応する第1参照点を中心とする所定半径の円の周上の点であって、幾何学的特徴量に基づき決定された点である。第2情報は、第2参照点の位置に対応する情報である。第2情報は、基準に対する第2参照点の位置を規定する情報であればよく、例えば、絶対座標(例えば、画像座標系の座標)、相対座標(例えば、局所座標系の座標)、及び基準に対する角度などでもよい。第2参照点の取得順序が、基準に対して決められている場合には、第2情報は第2参照点の取得順序でもよい。複数のサンプルは、互いに位置が異なる複数の第2参照点のそれぞれについて取得されたサンプルである。取得された複数のサンプルと、第1情報とを対応づけた情報がサンプル情報とされる。   The sample information acquisition unit 24 acquires sample information based on the geometrical feature quantities of the three feature points acquired by the geometrical feature quantity calculation unit 23 and a predetermined acquisition condition. The sample information is information in which color information is associated with information (first information and second information) corresponding to a position indicating an acquisition condition of the color information. The sample information is acquired, for example, by the following procedure. Two feature points are respectively selected as focus points from the three feature points. The sample information acquiring unit 24 of the present embodiment is a triangle represented by three feature points based on the geometric feature amount among the plurality of sets of three feature points acquired by the geometric feature amount calculating unit 23. A process of selecting two notable points is executed for three feature points whose area is greater than or equal to a predetermined value. The sample information acquisition unit 24 determines a point on a line segment connecting the two selected target points, which is determined based on the geometric feature as a first reference point. First information is acquired for each of a plurality of first reference points whose positions are different from each other. The first information is information corresponding to the position of the first reference point. The first information may be information defining the position of the first reference point with respect to the reference, for example, absolute coordinates (for example, coordinates of the image coordinate system), relative coordinates (for example, coordinates of the local coordinate system), and the reference It may be an angle to the If the acquisition order of the first reference points is determined with respect to the reference, the first information may be the acquisition order of the first reference points. A plurality of samples are acquired for each of the plurality of acquired first information. The sample is information in which color information corresponding to the second reference point is associated with the second information. The second reference point is a point on the circumference of a circle having a predetermined radius centered on the first reference point corresponding to the first information, and is a point determined based on the geometric feature quantity. The second information is information corresponding to the position of the second reference point. The second information may be information defining the position of the second reference point with respect to the reference, for example, absolute coordinates (for example, coordinates of the image coordinate system), relative coordinates (for example, coordinates of the local coordinate system), and the reference It may be an angle to the If the acquisition order of the second reference points is determined with respect to the reference, the second information may be the acquisition order of the second reference points. The plurality of samples are samples obtained for each of a plurality of second reference points that are different in position from each other. Information in which the plurality of acquired samples are associated with the first information is used as sample information.

周波数情報取得部25は、サンプル情報取得部24から取得されたサンプル情報に基づき、周波数情報を取得する。周波数情報は、複数の第1参照点のそれぞれについて、第2情報に対する色情報の変化の周波数成分を算出し、複数の第1参照点のそれぞれについて算出された周波数成分を第1情報と対応づけた情報である。本実施形態の周波数成分は、公知の方法(特許第3057590号明細書及び特許第3799057号明細書参照)に従って算出された一次元群遅延スペクトルである。   The frequency information acquisition unit 25 acquires frequency information based on the sample information acquired from the sample information acquisition unit 24. The frequency information calculates, for each of the plurality of first reference points, frequency components of the change in color information with respect to the second information, and associates the calculated frequency component for each of the plurality of first reference points with the first information. Information. The frequency component of the present embodiment is a one-dimensional group delay spectrum calculated according to a known method (see Patents Nos. 3057590 and 379 9057).

登録部26は、生体情報の照合に用いる参照用の照合情報をDB28に記憶させる。照合情報は、サンプル情報及び周波数情報を、幾何学的特徴量と対応づけた情報である。本実施形態では、有効な特徴点の中から選択された全ての組み合わせの3つの特徴点のそれぞれについて、照合情報が記憶される。照合部27は、テスト用の照合情報を、DB28に記憶された参照用の照合情報と照合する。より詳細には、照合部27は、テスト用の照合情報で表されるテスト用の三角形と、参照用の照合情報で表される参照用の三角形とのそれぞれの幾何学的特徴量を、三角形の面積が大きい順に比較して、類似度が閾値以下となる、テスト用の三角形と、参照用の三角形とのペアを抽出する。照合部27は、抽出されたテスト用の三角形に対応するサンプル情報及び周波数情報と、参照用の三角形に対応するサンプル情報及び周波数情報とを照合する。   The registration unit 26 causes the DB 28 to store reference verification information used for verification of biometric information. The matching information is information in which sample information and frequency information are associated with geometric feature quantities. In the present embodiment, collation information is stored for each of three feature points of all combinations selected from valid feature points. The collation unit 27 collates the test collation information with the reference collation information stored in the DB 28. More specifically, the matching unit 27 sets each geometric feature of the test triangle represented by the test match information and the reference triangle represented by the reference match information to a triangle. A pair of test triangles and reference triangles whose similarity is equal to or less than a threshold value is extracted by comparing them in descending order of area. The collation unit 27 collates sample information and frequency information corresponding to the extracted test triangle with sample information and frequency information corresponding to the reference triangle.

1.登録時の処理
図3を参照して、情報処理装置10で実行される照合情報処理について、照合情報を登録する場合を例に説明する。照合情報処理は、ユーザーが開始指示を入力した場合に開始される。開始指示には、画像から取得した照合情報を参照用の照合情報としてDB28に登録するのか、それとも、照合情報をDB28に登録された参照用の照合情報と照合するのかに関する指示を含む。情報処理装置10のCPU1は、照合情報処理の開始指示の入力を検知すると、フラッシュメモリ4に記憶された照合情報処理を実行するための情報処理プログラムをRAM3に読み出し、情報処理プログラムに含まれる指示に従って、以下に説明する各ステップの処理を実行する。本実施形態では、特徴点を抽出する要件(例えば、画像の鮮明さ)を満たす生体情報が取得されるまで、再入力を促すフィードバック処理が実行される。照合情報処理で取得される生体情報は、生体情報からアルゴリズムを用いて照合情報を抽出する要件を満たすものとする。処理の過程で取得されたり、生成されたりした情報及びデータは、適宜RAM3に記憶されるものとする。処理に必要な各種設定値は、予めフラッシュメモリ4に記憶されている。以下、ステップを「S」と略記する。
1. 3. Process at the time of registration Referring to FIG. 3, the collation information processing executed by the information processing apparatus 10 will be described by way of an example in which collation information is registered. The verification information processing is started when the user inputs a start instruction. The start instruction includes an instruction as to whether the collation information acquired from the image is registered in the DB 28 as collation information for reference, or whether the collation information is to be collated with the collation information for reference registered in the DB 28. When the CPU 1 of the information processing apparatus 10 detects the input of the start instruction of the collation information processing, the CPU 1 reads out the information processing program for executing the collation information processing stored in the flash memory 4 to the RAM 3 and instructs Then, the processing of each step described below is performed. In the present embodiment, feedback processing that prompts re-input is performed until biological information that satisfies the requirements for extracting feature points (for example, the sharpness of an image) is acquired. The biometric information acquired by collation information processing shall satisfy the requirement which extracts collation information using an algorithm from biometric information. The information and data acquired or generated in the process of processing are stored in the RAM 3 as appropriate. Various setting values necessary for the process are stored in advance in the flash memory 4. Hereinafter, the steps are abbreviated as "S".

図3に示すように、CPU1は画像解析処理を実行する(S1)。図4を参照して画像解析処理について説明する。生体情報取得装置8は、指の接触を検知した場合、指紋を撮影した画像を特定可能な信号をCPU1に出力する。CPU1は、生体情報取得装置8から出力される信号を受信する。図4に示すように、CPU1は、受信した信号に基づいて、画像を取得する(S11)。S11では、例えば、図5に示す画像41が取得される。画像41には、図5のXp,Ypで示す画像座標系の二次元座標が設定される。画像41の左上の画素の位置を、画像座標系の二次元座標45(図6参照)の原点とする。二次元座標45の原点からXpプラス方向にx画素分離隔し、原点からYpプラス方向にy画素分離隔した画素の位置を、座標(x,y)と表記する。画像41は、1cm角の正方形の撮影範囲を表す、Xp方向(左右方向)が192ピクセル、Yp方向(上下方向)が192ピクセルの正方形の画像である。画像座標系の二次元座標45では、点P1からP11のそれぞれは画像41の大きさを表す範囲43内にある。図示しないが、S11で取得された画像に対して適宜公知の前処理が実行される。   As shown in FIG. 3, the CPU 1 executes an image analysis process (S1). The image analysis process will be described with reference to FIG. When the biological information acquisition device 8 detects a touch of a finger, the biological information acquisition device 8 outputs, to the CPU 1, a signal capable of specifying an image obtained by photographing a fingerprint. The CPU 1 receives a signal output from the biological information acquisition device 8. As shown in FIG. 4, the CPU 1 acquires an image based on the received signal (S11). In S11, for example, an image 41 shown in FIG. 5 is acquired. In the image 41, two-dimensional coordinates of an image coordinate system indicated by Xp and Yp in FIG. 5 are set. The position of the upper left pixel of the image 41 is set as the origin of the two-dimensional coordinates 45 (see FIG. 6) of the image coordinate system. The positions of pixels separated from the origin of the two-dimensional coordinate 45 by x pixels in the Xp plus direction and separated from the origin by y pixels in the Yp plus direction are denoted as coordinates (x, y). The image 41 is a square image representing a shooting range of a square of 1 cm square and having 192 pixels in the Xp direction (horizontal direction) and 192 pixels in the Yp direction (vertical direction). In the two-dimensional coordinates 45 of the image coordinate system, each of the points P1 to P11 is within the range 43 representing the size of the image 41. Although not shown, known preprocessing is appropriately performed on the image acquired in S11.

CPU1は、S11で取得された画像から特徴点を抽出する(S12)。本実施形態のCPU1は、公知の方法に従って(例えば、特許第1289457号明細書参照)、指紋の凸部の連なりである隆線の行き止まりの端点を表す点、及び2つに分かれる分岐点を表す点のそれぞれを特徴点として抽出する。図6に示すように、画像41からは円42で囲んだ端点を表す点及び分岐点を表す点のそれぞれが特徴点として抽出される。図41から抽出された11の特徴点を点P1からP11とする。   The CPU 1 extracts feature points from the image acquired in S11 (S12). The CPU 1 of the present embodiment represents a point representing an end point of a dead end of a ridge, which is a series of convex portions of a fingerprint, and a bifurcated branch point according to a known method (see, for example, Japanese Patent No. 1289457). Extract each of the points as feature points. As shown in FIG. 6, from the image 41, each of a point representing an end point surrounded by a circle 42 and a point representing a branch point is extracted as a feature point. The eleven feature points extracted from FIG. 41 are referred to as points P1 to P11.

CPU1は、S12で抽出された特徴点のうち、有効な特徴点を抽出し、有効な特徴点の数J(Jは0以上の整数)を取得する処理を実行する(S13からS16)。本実施形態のCPU1は、範囲44内にある特徴点を有効な特徴点とし、範囲44外にある特徴点を無効な特徴点とする。範囲44は、画像41の大きさを表す範囲43を示す矩形よりも四方が15ピクセル内側となる矩形範囲である。範囲44内にある特徴点を有効な特徴点とするのは、後述する第2参照点を範囲43内に設定可能な特徴点を取得するためである。範囲44を特定するための情報は、後述する第2参照点の取得条件に基づき予め定められ、フラッシュメモリ4に記憶されている。   The CPU 1 extracts valid feature points from the feature points extracted in S12, and executes processing for obtaining the number J of valid feature points (J is an integer of 0 or more) (S13 to S16). The CPU 1 of the present embodiment sets feature points within the range 44 as valid feature points, and sets feature points outside the range 44 as invalid feature points. The range 44 is a rectangular range in which four sides are 15 pixels inside of the rectangle indicating the range 43 representing the size of the image 41. The feature points within the range 44 are regarded as effective feature points in order to obtain feature points that can be set within the range 43 with a second reference point to be described later. Information for specifying the range 44 is predetermined based on acquisition conditions of the second reference point described later, and is stored in the flash memory 4.

具体的には、CPU1は、S12で抽出された特徴点の中から、S13の処理を実行されていない特徴点の座標を1つ取得する(S13)。CPU1は、S13で取得した座標が、範囲44内にあるか否かを判断する(S14)。CPU1は、範囲44の境界線の内側及び範囲44の境界線上の点を、範囲44内とする。座標が範囲44内にある場合(S14:YES)、CPU1は、S13で取得した座標で示される特徴点を有効な特徴点とし、数Jを1だけインクリメントする(S15)。数Jの初期値は0である。具体例の点P1からP11は全て、範囲44内にある(S14:YES)。したがって、具体例での数Jは、最終的に11となる。座標が範囲44外にある場合(S14:NO)、又はS15の次に、CPU1はS12で抽出された特徴点の全てについて、S13の処理を実行したか否かを判断する(S16)。S13の処理で座標を取得されていない特徴点がある場合(S16:NO)、CPU1は処理をS13に戻す。S12で抽出された特徴点の全てについて、S13の処理が実行された場合(S16:YES)、CPU1は数Jが2より大きいか否かを判断する(S17)。数Jが2以下の場合(S17:NO)、CPU1は、画像解析処理を終了し、処理を図3の照合情報処理に戻す。   Specifically, the CPU 1 acquires one coordinate of a feature point not subjected to the process of S13 from the feature points extracted in S12 (S13). The CPU 1 determines whether the coordinates acquired in S13 are within the range 44 (S14). The CPU 1 sets the point inside the boundary of the range 44 and the point on the boundary of the range 44 within the range 44. If the coordinates are within the range 44 (S14: YES), the CPU 1 sets the feature point indicated by the coordinates obtained in S13 as a valid feature point and increments the number J by 1 (S15). The initial value of the number J is zero. The points P1 to P11 of the specific example are all within the range 44 (S14: YES). Therefore, the number J in the specific example is finally 11. If the coordinates are out of the range 44 (S14: NO), or after S15, the CPU 1 determines whether the process of S13 has been performed for all of the feature points extracted in S12 (S16). If there is a feature point whose coordinates are not acquired in the process of S13 (S16: NO), the CPU 1 returns the process to S13. When the process of S13 is executed for all of the feature points extracted in S12 (S16: YES), the CPU 1 determines whether the number J is larger than 2 (S17). When the number J is 2 or less (S17: NO), the CPU 1 ends the image analysis processing, and returns the processing to the collation information processing of FIG.

具体例の数Jは11であり、2より大きい(S17:YES)。この場合CPU1は、数Jの有効な特徴点の中から、3つの特徴点を選ぶ場合の全ての組み合わせを算出する(S18)。具体例では数Jが11であり、CPU1は、11の165個の組み合わせを算出する。CPU1は、S18で算出された組み合わせの中からS19が実行されていない1つの組み合わせを選択し、選択された組み合わせで示される3つの特徴点の座標を取得する(S19)。CPU1が、3つの特徴点として、図6の点P1,P4,及びP8のそれぞれについて画像座標系の二次元座標を取得した場合を具体例として説明する。CPU1は、S19で取得された座標に基づき、3つの特徴点を結ぶ三角形の面積を算出する(S20)。CPU1は、S20で算出された面積が閾値よりも大きいか否かを判断する(S21)。S20及びS21は、後述の照合情報取得処理を実行する対象となる3つの特徴点を抽出する処理である。S19で取得される3つの特徴点が、例えば、点P1,P2,及びP3のように互いに比較的近い位置にある場合がある。点P1,P2,及びP4のように、ほぼ同じ直線上にある場合がある。これらの場合、後述する手順で照合情報を取得した場合、サンプル数が少なくなったり、同じようなサンプルが複数取得されたりして、照合に適した照合情報が得られない可能性がある。このため本実施形態のCPU1は、三角形の面積が閾値以下となる場合には、それら3つの特徴点の座標に基づき照合情報を取得しない。面積が閾値以下の場合(S21:NO)、CPU1はS19で座標を取得した3つの特徴点の組み合わせを破棄し(S24)、後述のS25の処理を実行する。 The number J in the specific example is 11 and is larger than 2 (S17: YES). In this case, the CPU 1 calculates all combinations in the case of selecting three feature points from the number J of valid feature points (S18). In the specific example, the number J is 11, and the CPU 1 calculates 165 combinations of 11 C 3 . The CPU 1 selects one combination for which S19 is not executed from among the combinations calculated in S18, and acquires coordinates of three feature points indicated by the selected combination (S19). The case where the CPU 1 acquires two-dimensional coordinates of the image coordinate system for each of the points P1, P4, and P8 in FIG. 6 as three feature points will be described as a specific example. The CPU 1 calculates the area of a triangle connecting the three feature points based on the coordinates obtained in S19 (S20). The CPU 1 determines whether the area calculated in S20 is larger than the threshold (S21). S <b> 20 and S <b> 21 are processing for extracting three feature points to be subjected to matching information acquisition processing described later. The three feature points acquired in S19 may be in positions relatively close to one another, such as points P1, P2, and P3, for example. Like points P1, P2 and P4, they may be on substantially the same straight line. In these cases, when the collation information is acquired according to the procedure described later, the number of samples may be reduced or a plurality of similar samples may be acquired, so that collation information suitable for collation may not be obtained. Therefore, when the area of the triangle is equal to or less than the threshold, the CPU 1 of the present embodiment does not acquire the matching information based on the coordinates of the three feature points. If the area is equal to or less than the threshold (S21: NO), the CPU 1 discards the combination of the three feature points whose coordinates are obtained in S19 (S24), and executes the process of S25 described later.

具体例では面積が閾値よりも大きいと判断され(S21:YES)、CPU1は照合情報取得処理を実行する(S22)。照合情報取得処理は、S19で取得した3つの特徴点の座標に基づき、生体情報の照合に用いる照合情報を取得する処理である。図7に示すように、照合情報取得処理ではまず、CPU1は図4のS19で取得した座標に基づき、3つの特徴点の中に含まれる2点間の距離dをそれぞれ計算する(S32)。距離dは、3つの特徴点で表される三角形の各辺の長さである。具体例では、点P1と点P4との間の距離、点P4と点P8との間の距離、点P8と点P1との間の距離がそれぞれ計算される。   In the specific example, it is determined that the area is larger than the threshold (S21: YES), and the CPU 1 executes the collation information acquisition process (S22). The collation information acquisition processing is processing for acquiring collation information used for collation of biological information based on the coordinates of the three feature points acquired in S19. As shown in FIG. 7, in the matching information acquisition process, first, the CPU 1 calculates the distance d between two points included in the three feature points based on the coordinates acquired in S19 of FIG. 4 (S32). The distance d is the length of each side of the triangle represented by the three feature points. In the specific example, the distance between points P1 and P4, the distance between points P4 and P8, and the distance between points P8 and P1 are calculated.

CPU1はS32の計算結果に基づき、局所座標系を設定する(S33)。局所座標系は、S19で取得された3つの特徴点の座標に基づき、三角形毎に設定される相対座標である。具体的には、CPU1は、S32で計算された3つの距離dのうち、最も距離が長い2点を結ぶ線分上に局所座標系のXk軸を設定する。CPU1は、残りの1点がある側をYk軸正の向きとし、Xk軸上の2点の内、左側にある点を原点とする。具体例では、点P1,P4及びP8について、図8に示すように局所座標系60が設定される。点P1,P4及びP8がなす三角形TRRに含まれる辺LA,LB,及びLCの内、辺LAが最も長い。つまり、点P4と点P8との間の距離が最も長い。したがって、辺LA上にXk軸が設定され、辺LAに対して点P1がある側がYk軸正の向きとされ、点P4と点P8との内、左側にある点P8が原点とされる。   The CPU 1 sets a local coordinate system based on the calculation result of S32 (S33). The local coordinate system is relative coordinates set for each triangle based on the coordinates of the three feature points acquired in S19. Specifically, the CPU 1 sets the Xk axis of the local coordinate system on the line segment connecting the two longest points among the three distances d calculated in S32. The CPU 1 sets the side with the remaining one point as the positive direction of the Yk axis, and the point on the left side of the two points on the Xk axis as the origin. In the specific example, the local coordinate system 60 is set for the points P1, P4 and P8 as shown in FIG. Of the sides LA, LB, and LC included in the triangle TRR formed by the points P1, P4, and P8, the side LA is the longest. That is, the distance between the point P4 and the point P8 is the longest. Therefore, the Xk axis is set on the side LA, the side with the point P1 with respect to the side LA is the positive direction of the Yk axis, and the point P8 on the left side of the points P4 and P8 is the origin.

CPU1は3つの特徴点の中から、S34で取得されていない組み合わせの2つの特徴点をそれぞれ注目点として取得する(S34)。CPU1は、局所座標系で底辺をなす2点(Xk軸上の2点)をまず取得し、以降は時計回りで2点の組み合わせを取得する。具体例では、CPU1は、点P4及び点P8の組み合わせ、点P8及び点P1の組み合わせ、点P1及び点P4の組み合わせの順に、2つの注目点を取得する。CPU1はS34で取得した2つの注目点のうちの一方を始点、他方を終点とし、始点から終点に向かう方向ベクトルVを算出する(S35)。CPU1は、3つの特徴点がなす三角形の辺を時計回りにたどっていく場合の上流側にある点を始点、下流側にある点を終点とする。CPU1は、画像座標系の二次元座標で方向ベクトルVを算出する。本実施形態のCPU1は、P4及び点P8の組み合わせでは、点P4から点P8に向かうベクトルVA,点P8及び点P1の組み合わせでは、点P8から点P1に向かうベクトルVB,点P1及び点P4の組み合わせでは、点P1から点P4に向かうベクトルVCをそれぞれ算出する(S35)。   The CPU 1 acquires two feature points of the combination not acquired in S34 as the focus points from among the three feature points (S34). The CPU 1 first acquires two points (two points on the Xk axis) forming the base in the local coordinate system, and thereafter acquires a combination of two points clockwise. In the specific example, the CPU 1 acquires two notable points in the order of the combination of the point P4 and the point P8, the combination of the point P8 and the point P1, and the combination of the point P1 and the point P4. The CPU 1 uses one of the two points of interest acquired in S34 as the start point and the other as the end point, and calculates a direction vector V from the start point to the end point (S35). The CPU 1 starts from a point on the upstream side when following the sides of a triangle formed by three feature points clockwise, and ends to a point on the downstream side. The CPU 1 calculates the direction vector V in two-dimensional coordinates in the image coordinate system. The CPU 1 according to the present embodiment, in the combination of P4 and P8, the vector VA from the point P4 to the point P8, and in the combination of the point P8 and the point P1, the vector VB from the point P8 to the point P1 In the combination, vectors VC moving from the point P1 to the point P4 are respectively calculated (S35).

CPU1は、値Lを算出する(S36)。値Lは、S34で取得した2つの注目点間の距離dの小数点以下を切り捨てた正の整数である。CPU1は、三角形の幾何学的特徴量に基づき第1参照点を決定し、設定された第1参照点の座標を算出する(S37)。第1参照点の座標は、画像座標系の二次元座標で取得される。本実施形態のCPU1は、S34で取得した2つの注目点を結ぶ線分上に、(L+1)個の第1参照点を設定する。(L+1)個の第1参照点は、2つの注目点を結ぶ線分の両端(つまり、2つの注目点)、及び2つの注目点を間隔Uで等分割する点である。間隔Uは、2つの注目点の距離dを数Lで割った値である。本実施形態では間隔Uはほぼ1になる。CPU1は、S35で算出された方向ベクトルと、始点の座標を用い、2つの注目点を結ぶ線分の始点から終点に向かって、間隔Uの等間隔でi番目の第1参照点を順に設定する。iは1から(L+1)までの自然数である。   The CPU 1 calculates the value L (S36). The value L is a positive integer obtained by rounding off the decimal part of the distance d between the two points of interest acquired in S34. The CPU 1 determines the first reference point based on the geometric feature of the triangle, and calculates the coordinates of the set first reference point (S37). The coordinates of the first reference point are obtained by two-dimensional coordinates of the image coordinate system. The CPU 1 of the present embodiment sets (L + 1) first reference points on the line connecting the two points of interest acquired in S34. The (L + 1) first reference points are both ends of a line segment connecting two focus points (that is, two focus points) and points which equally divide the two focus points by the interval U. The interval U is a value obtained by dividing the distance d between two focus points by the number L. In the present embodiment, the interval U is approximately one. The CPU 1 sequentially sets the i-th first reference points at equal intervals U from the start point to the end point of the line segment connecting the two points of interest using the direction vector calculated in S35 and the coordinates of the start point Do. i is a natural number from 1 to (L + 1).

CPU1は、サンプル情報を取得する(S38)。本実施形態のCPU1は、図4のS18で算出された全ての組み合わせの3つの特徴点のそれぞれについて、2つの注目点毎にサンプル情報を取得する。具体例を用いて、サンプル情報の取得方法を説明する。CPUI1は、S37で取得された第1参照点の座標に基づき、第2参照点を複数設定し、設定した複数の第2参照点の座標をそれぞれ算出する。本実施形態では、第1参照点を中心とする半径15ピクセルの円の周上に、128個の第2参照点を等間隔で設定する。円の半径R及び第2参照点の数Nは、画像の大きさ、解像度、認証精度、及び処理速度等を考慮して適宜設定されればよい。第2参照点の数Nは、後述する周波数情報を取得する観点から、2のべき乗に設定されることが好ましい。   The CPU 1 acquires sample information (S38). The CPU 1 of the present embodiment acquires sample information for each of two attention points for each of the three feature points of all combinations calculated in S18 of FIG. 4. A method of acquiring sample information will be described using a specific example. The CPU I1 sets a plurality of second reference points based on the coordinates of the first reference point acquired in S37, and calculates the coordinates of the set second reference points. In this embodiment, 128 second reference points are set at equal intervals on the circumference of a circle with a radius of 15 pixels centered on the first reference point. The radius R of the circle and the number N of second reference points may be appropriately set in consideration of the size of the image, the resolution, the authentication accuracy, the processing speed, and the like. The number N of second reference points is preferably set to a power of 2 from the viewpoint of acquiring frequency information described later.

本実施形態のCPU1は、次のようにi番目の第1参照点に対応するj番目の第2参照点の座標を算出する。jは1から128(N)の自然数である。jが1の点を始点SPという。図9に示すように、2つの注目点が点P4,P8である場合、第1参照点P4に対しては、点P4を中心とする半径Rの円C1上にあり、第1参照点P4に対してベクトルVA方向にある点Q11が、始点SPとして設定される。第1参照点P8に対しては、点P8を中心とする半径Rの円C2上にあり、第1参照点P8に対してベクトルVA方向にある点Q12が、始点SPとして設定される。2つの注目点が点P8,P1である場合、第1参照点P8に対しては、円C2上にあり、第1参照点P8に対してベクトルVB方向にある点Q21が、始点SPして設定される。第1参照点P1に対しては、点P1を中心とする半径Rの円C3上にあり、第1参照点P1に対してベクトルVB方向にある点Q22が、始点SPとして設定される。2つの注目点が点P1,P4である場合、第1参照点P1に対しては、円C3上にあり、第1参照点P1に対してベクトルVC方向にある点Q31が、始点SPとして設定される。第1参照点P4に対しては、円C1上にあり、第1参照点P4に対してベクトルVC方向にある点Q32が、始点SPとして設定される。jが2以降の第2参照点は、始点SPから反時計回りにサンプリング間隔毎に設定される。本実施形態のサンプリング間隔を円に対する角度で表すと、360度(2πラジアン)を128で割った角度となる。   The CPU 1 of the present embodiment calculates the coordinates of the j-th second reference point corresponding to the i-th first reference point as follows. j is a natural number of 1 to 128 (N). A point where j is 1 is called a start point SP. As shown in FIG. 9, when the two attention points are the points P4 and P8, the first reference point P4 is on the circle C1 of the radius R centering on the point P4, and the first reference point P4 On the other hand, a point Q11 in the vector VA direction is set as the start point SP. For the first reference point P8, a point Q12 located on the circle C2 of radius R centered on the point P8 and in the vector VA direction with respect to the first reference point P8 is set as the start point SP. When the two attention points are the points P8 and P1, the point Q21 which is on the circle C2 for the first reference point P8 and in the vector VB direction with respect to the first reference point P8 is the start point SP It is set. For the first reference point P1, a point Q22 located on a circle C3 of radius R centered on the point P1 and in the vector VB direction with respect to the first reference point P1 is set as the start point SP. When the two attention points are the points P1 and P4, the point Q31 which is on the circle C3 for the first reference point P1 and in the vector VC direction with respect to the first reference point P1 is set as the start point SP Be done. For the first reference point P4, a point Q32 located on the circle C1 and in the vector VC direction with respect to the first reference point P4 is set as the start point SP. The second reference points after j = 2 are set for each sampling interval counterclockwise from the start point SP. When the sampling interval of this embodiment is expressed by an angle with respect to a circle, it is an angle obtained by dividing 360 degrees (2π radians) by 128.

CPU1は、複数の第2参照点のそれぞれについて、サンプルを取得する。サンプルの取得方法について図10を参照して説明する。本実施形態のCPU1は、色情報として、第2参照点で表されるピクセルの諧調値を取得する。第2参照点の座標が、サブピクセル単位の場合(絶対座標が整数ではない場合)、CPU1は、周知のバイリニア補間法によって第2参照点の近傍4つのピクセルの諧調値を用いて、第2参照点の色情報を算出する。CPU1は、1つの第2参照点について取得された色情報を、第2参照点に対応する第2情報と対応づけた情報をサンプル71とする。本実施形態の第2情報は、始点SPに対する第2参照点の位置に対応する取得順序を表すjである。つまり、本実施形態の第2情報は、1から128の自然数で表される。   The CPU 1 obtains a sample for each of the plurality of second reference points. The sample acquisition method will be described with reference to FIG. The CPU 1 of the present embodiment acquires the gradation value of the pixel represented by the second reference point as color information. If the coordinates of the second reference point are in units of sub-pixels (if the absolute coordinates are not integers), the CPU 1 uses the tone values of the four pixels in the vicinity of the second reference point by the well-known bilinear interpolation method. Calculate the color information of the reference point. The CPU 1 sets, as a sample 71, information in which color information acquired for one second reference point is associated with second information corresponding to the second reference point. The second information in the present embodiment is j representing the acquisition order corresponding to the position of the second reference point with respect to the start point SP. That is, the second information of the present embodiment is represented by a natural number of 1 to 128.

図10に模式的に示すように、CPU1は、1つの第1参照点について取得された複数のサンプル71を、第1情報と対応付けてサンプルデータ72とする。CPU1は、1組の2つの注目点について設定された(L+1)個の第1参照点のそれぞれについて、以上の処理を行い、サンプル情報73を取得する。つまり、サンプル情報73は、(L+1)個の第1参照点のそれぞれについて算出された、(L+1)個のサンプルデータ72を含む。各サンプルデータ72は、N個の第2参照点のそれぞれについて取得された、N個のサンプル71を含む。サンプル情報73は、2つの注目点毎に取得される。具体例では、図11に示すように、具体例では、点P4,P8についてサンプル情報SDR1が取得され、点P8,P1についてサンプル情報SDR2が取得され、点P1,P4についてサンプル情報SDR3が取得される。   As schematically shown in FIG. 10, the CPU 1 associates a plurality of samples 71 obtained for one first reference point with the first information to generate sample data 72. The CPU 1 performs the above processing for each of (L + 1) first reference points set for one set of two attention points, and acquires sample information 73. That is, the sample information 73 includes (L + 1) sample data 72 calculated for each of the (L + 1) first reference points. Each sample data 72 includes N samples 71 obtained for each of the N second reference points. The sample information 73 is acquired for every two attention points. In the specific example, as shown in FIG. 11, in the specific example, the sample information SDR1 is obtained for the points P4 and P8, the sample information SDR2 is obtained for the points P8 and P1, and the sample information SDR3 is obtained for the points P1 and P4. Ru.

CPU1は、取得されたサンプル情報に基づき、サンプル画像を生成する(S39)。具体例では、3組の2つの注目点のそれぞれについて、図11で示すサンプル画像76から78がそれぞれ生成される。サンプル画像76から78の長手方向はそれぞれ第1情報に対応し、短手方向はそれぞれ第2情報に対応する。サンプル画像76から78の各ピクセルの色は、第1情報及び第2情報の組み合わせに対応する画素の色情報を表す。   The CPU 1 generates a sample image based on the acquired sample information (S39). In the specific example, sample images 76 to 78 shown in FIG. 11 are respectively generated for each of the three sets of two attention points. The longitudinal directions of the sample images 76 to 78 correspond to the first information, and the lateral directions correspond to the second information. The color of each pixel of the sample images 76 to 78 represents color information of the pixel corresponding to the combination of the first information and the second information.

CPU1は、S38で取得されたサンプル情報に基づき、周波数情報を取得する(S40)。本実施形態のCPU1は、前述の公知の方法に従って、第1情報毎に第2情報に対する色情報の変化の一次元群遅延スペクトルを周波数情報として算出する。群遅延スペクトル(GDS)は、パワー伝達関数における位相スペクトルの周波数微分として定義されるものである。図12に例示するように、サンプル情報82に基づき算出されるGDS83は、サンプル情報82の周波数スペクトルの個々のピークを分離し強調する。GDSの配列の要素数は位相スペクトルの要素数から1を減じたものとなる。具体的にはCPU1は、LPC係数に重みづけしたものを高速フーリエ変換して得られたパワースペクトルの位相微分をとることによりGDSを算出し、算出されたGDSを周波数成分とする。具体例では、図11に示すように、点P4,P8について周波数情報FDR1が取得され、点P8,P1について周波数情報FDR2が取得され、点P1,P4について周波数情報FDR3が取得される。   The CPU 1 acquires frequency information based on the sample information acquired in S38 (S40). The CPU 1 of the present embodiment calculates, as frequency information, a one-dimensional group delay spectrum of a change in color information with respect to the second information for each of the first information according to the known method described above. Group delay spectrum (GDS) is defined as the frequency derivative of the phase spectrum in the power transfer function. As illustrated in FIG. 12, GDS 83 calculated based on sample information 82 separates and emphasizes individual peaks of the frequency spectrum of sample information 82. The number of elements in the GDS array is the number of elements in the phase spectrum minus one. Specifically, the CPU 1 calculates GDS by taking the phase differentiation of the power spectrum obtained by subjecting the weighted LPC coefficient to fast Fourier transform, and calculates the calculated GDS as a frequency component. In the specific example, as shown in FIG. 11, frequency information FDR1 is acquired for points P4 and P8, frequency information FDR2 is acquired for points P8 and P1, and frequency information FDR3 is acquired for points P1 and P4.

CPU1は、取得された周波数情報に基づき、周波数画像を生成する(S41)。具体例では、図11で示す周波数画像79から81がそれぞれ生成される。CPU1は、GDS強度が小さいピクセルを淡く(諧調値を小さく)する。具体例では、周波数画像79から81の短手方向は要素数に対応し、長手方向は第2情報に対応する。周波数画像79から81の各ピクセルの色は、要素数及び第2情報の組み合わせに対応する画素のGDS強度を表す。CPU1は、GDS強度が比較的大きいピクセルを濃く(諧調値を大きく)する。CPU1は、GDS強度が比較的小さいピクセルを淡く(諧調値を小さく)する。   The CPU 1 generates a frequency image based on the acquired frequency information (S41). In the specific example, frequency images 79 to 81 shown in FIG. 11 are respectively generated. The CPU 1 thins pixels with small GDS intensity (decreases gradation value). In the specific example, the short direction of the frequency images 79 to 81 corresponds to the number of elements, and the longitudinal direction corresponds to the second information. The color of each pixel of the frequency images 79 to 81 represents the GDS intensity of the pixel corresponding to the combination of the number of elements and the second information. The CPU 1 darkens pixels with relatively large GDS intensities (increases gradation values). The CPU 1 dims pixels with relatively small GDS intensity (decreases the gradation value).

CPU1は、サンプル情報及び周波数情報を、幾何学的特徴量と対応づけた情報を、生体情報の照合に用いる照合情報としてRAM3に記憶させる(S42)。図11に示すように、具体例では、サンプル情報SDR1からSDR3及び周波数情報FDR1からFDR3が、幾何学的特徴量GDRと対応づけられた照合情報75がRAM3に記憶される。幾何学的特徴量GDRは、S20で算出された面積、S32で算出された距離、S33で設定された局所座標系の座標、S35で算出された方向ベクトルV及び三角形の内角を含む。本実施形態の照合情報75には、図7のS39で生成されたサンプル画像及びS41で生成された周波数画像も含まれる。CPU1は照合情報取得処理を終了し、処理を図4に示す画像解析処理に戻す。   The CPU 1 stores the information in which the sample information and the frequency information are associated with the geometric feature amount in the RAM 3 as collation information used for collation of biological information (S42). As shown in FIG. 11, in the specific example, the matching information 75 in which the sample information SDR1 to SDR3 and the frequency information FDR1 to FDR3 are associated with the geometric feature GDR is stored in the RAM 3. The geometric feature GDR includes the area calculated in S20, the distance calculated in S32, the coordinates of the local coordinate system set in S33, the direction vector V calculated in S35, and the internal angle of the triangle. The collation information 75 of the present embodiment includes the sample image generated in S39 of FIG. 7 and the frequency image generated in S41. The CPU 1 ends the verification information acquisition process, and returns the process to the image analysis process shown in FIG.

図3に示すようにS22の次に、CPU1は、S18で算出された全ての組み合わせの3つの特徴点がS19の処理で取得されたか否かを判断する(S25)。取得されていない組み合わせがある場合(S25:NO)、CPU1は処理をS19に戻す。全ての組み合わせの3つの特徴点がS19の処理で取得された場合(S25:YES)、CPU1は、画像解析処理を終了し、処理を図3の照合情報処理に戻す。   As shown in FIG. 3, after S22, the CPU 1 determines whether three feature points of all combinations calculated in S18 are acquired in the process of S19 (S25). If there is a combination that has not been acquired (S25: NO), the CPU 1 returns the process to S19. If three feature points of all combinations are acquired in the process of S19 (S25: YES), the CPU 1 ends the image analysis process, and returns the process to the collation information process of FIG.

CPU1は、S1で照合情報が取得されたか否かを判断する(S2)。照合情報が取得されていない場合(S2:NO)、CPU1はエラー通知を行う(S6)。CPU1は、例えば、表示部6にエラーメッセージを表示する。照合情報が取得された場合(S2:YES)、S1で取得された照合情報を参照用の照合情報としてDB28(図2参照)に登録するか否かを判断する(S3)。登録するか否か情報は、例えば、開始指示に含まれる。具体例では登録すると判断され(S3:YES)、CPU1は、S1で取得した照合情報をフラッシュメモリ4のDB28に記憶する。本実施形態では、図4のS18で算出された全ての組み合わせの3つの特徴点のうち、S21の要件を満たす組み合わせについて、照合情報が取得される。具体例では図13で示すように、3つの特徴点が点P1,P4及びP8である場合の照合情報75を含む複数個の照合情報がDB28に登録される。登録しない場合(S3:NO)、CPU1は、S1で取得された照合情報は照合の対象となるテスト用の照合情報とする照合処理を実行する(S5)。S4,S5,及びS6のいずれかの次に、CPU1は照合情報処理を終了する。   The CPU 1 determines whether the collation information is acquired in S1 (S2). When collation information is not acquired (S2: NO), CPU1 performs an error notice (S6). The CPU 1 displays an error message on the display unit 6, for example. When collation information is acquired (S2: YES), it is judged whether registration information acquired by S1 is registered in DB28 (refer FIG. 2) as collation information for a reference (S3). Information as to whether or not to register is included in, for example, the start instruction. In the specific example, it is determined to register (S3: YES), and the CPU 1 stores the collation information acquired in S1 in the DB 28 of the flash memory 4. In the present embodiment, of the three feature points of all the combinations calculated in S18 of FIG. 4, the matching information is acquired for the combinations satisfying the requirement of S21. In the specific example, as shown in FIG. 13, a plurality of pieces of collation information including the collation information 75 in the case where the three feature points are the points P1, P4 and P8 are registered in the DB 28. If not registered (S3: NO), the CPU 1 executes the matching process in which the matching information acquired in S1 is the matching information for the test to be matched (S5). After one of S4, S5, and S6, the CPU 1 ends the verification information processing.

2.照合時の処理
参照用の照合情報として図5の画像41から抽出された照合情報が用いられ、照合対象となるテスト用の画像として図14の画像51が取得される場合を例に、照合時の照合情報処理について説明する。照合時の照合情報処理では、登録時の照合情報処理と同様に、S1が実行される。例えば、図4のS19において3つの特徴点として図14の点PT1,PT2,及びPT3が取得された場合、図7のS38では図15のサンプル情報SDT1からSDT3が取得され、S39ではサンプル画像86から88が生成される。S40では周波数情報FDT1からFDT3が取得され、S41では周波数画像89から91が生成される。S42では、照合情報85が記憶される。
2. Processing at the time of matching The example at the time of matching is the case where the matching information extracted from the image 41 of FIG. 5 is used as the matching information for reference and the image 51 of FIG. The collation information processing of will be described. In the verification information processing at the time of verification, S1 is executed as in the case of the verification information processing at the time of registration. For example, when points PT1, PT2 and PT3 of FIG. 14 are acquired as three feature points in S19 of FIG. 4, sample information SDT1 to SDT3 of FIG. 15 are acquired in S38 of FIG. To 88 are generated. In S40, frequency information FDT1 to FDT3 are acquired, and in S41, frequency images 89 to 91 are generated. In S42, collation information 85 is stored.

S2では、照合情報が取得されたと判断され(S2:YES)、開始指示に基づき登録しないと判断される(S3:NO)。CPU1は照合処理を実行する(S5)。図14に示すように、照合処理では、CPU1は複数組の3つの特徴点のそれぞれに対応する照合情報を、照合情報に含まれる三角形の面積Sに基づきソートし、面積Sが大きい順に照合情報を並べ替える(S51)。CPU1は、DB28に記憶されている参照用の照合情報と、図3のS1で取得されたテスト用の照合情報とのそれぞれについて、S51の処理を実行する。DB28に記憶されている参照用の照合情報が、予めソートされている場合、CPU1は図3のS1で取得されたテスト用の照合情報のみソートする。S51の処理によって、図17に模式的に示すように、テスト用の照合情報と、参照用の照合情報とのそれぞれについて、照合情報に含まれる複数組の3つの特徴点が、3つの特徴点がなす三角形の面積Sが大きい順にソートされる。   In S2, it is judged that collation information was acquired (S2: YES), and it is judged that it does not register based on start directions (S3: NO). The CPU 1 executes the collation process (S5). As shown in FIG. 14, in the collation process, the CPU 1 sorts the collation information corresponding to each of a plurality of sets of three feature points based on the area S of the triangle included in the collation information, and collates information in descending order of the area S Rearrange (S51). The CPU 1 executes the process of S51 for each of the reference collation information stored in the DB 28 and the test collation information acquired in S1 of FIG. When the reference collation information stored in the DB 28 is sorted in advance, the CPU 1 sorts only the test collation information acquired in S1 of FIG. By the process of S51, as schematically shown in FIG. 17, a plurality of sets of three feature points included in the verification information are three feature points for each of the verification information for test and the verification information for reference. The area S of the triangle formed by is sorted in descending order.

CPU1は、テスト用の照合情報に含まれる複数組の3つの特徴点の中から、面積Sが大きい順に、1組の3つの特徴点を選択する(S52)。CPU1は、参照用の照合情報に含まれる複数組の3つの特徴点の中から、面積Sが大きい順に、1組の3つの特徴点を選択する(S53)。CPU1は、S52で取得されたテスト用の3つの特徴点に対応づけられた幾何学的特徴量と、S53で取得された参照用の3つの特徴点に対応づけられた幾何学的特徴量との差を算出する(S54)。S54の処理は、S52で取得されたテスト用の3つの特徴点がなす三角形(以下、「テスト用三角形」という。)と、S53で取得された参照用の3つの特徴点がなす三角形(以下、「参照用三角形」という)とが類似するか否かを判断する処理である。本実施形態では、S54における幾何学的特徴量として、局所座標系の座標と、三角形の内角とが用いられる。   The CPU 1 selects one set of three feature points in the descending order of the area S from the plurality of sets of three feature points included in the test verification information (S52). The CPU 1 selects one set of three feature points in the descending order of the area S from the plurality of sets of three feature points included in the reference collation information (S53). The CPU 1 uses the geometric feature quantities associated with the three feature points for test acquired in S52, and the geometric feature quantities associated with the three feature points for reference acquired in S53. The difference of is calculated (S54). In the process of S54, a triangle formed by the three feature points for test acquired in S52 (hereinafter referred to as a "test triangle") and a triangle formed by the three feature points for reference acquired in S53 (hereinafter described) , Is referred to as “reference triangle”). In the present embodiment, the coordinates of the local coordinate system and the internal angle of the triangle are used as the geometric feature quantities at S54.

CPU1は、S54で算出された幾何学的特徴量の差が閾値より小さいか否かを判断する(S55)。3つの特徴点のそれぞれについての局所座標系の座標の差が閾値以上である場合、及び三角形の内角の差が閾値以上である場合の少なくともいずれかの場合(S55:NO)、CPU1は幾何学的特徴量に基づきテスト用三角形と参照用三角形とが類似しない場合の処理を行う。具体的には、CPU1はテスト用三角形について、3つの辺のうち、1番目に長い辺と、2番目に長い辺との長さの差が閾値よりも大きいか否かを判断する(S63)S63の処理は、テスト用の3つの特徴点が表す三角形が、1番目に長い辺と、2番目に長い辺との長さの差が閾値以下になる二等辺三角形に近い三角形である場合を考慮した処理である。図17の点PK1,PK2,及びPK3がなす三角形TRKのように、1番目に長い辺LK1と、2番目に長い辺LK2との長さの差が閾値以下になる場合(S63:NO)、CPU1はテスト用の3つの特徴点に関する局所座標系の座標を再設定する(S64)。具体的には、CPU1は、2番目に長い辺LK2をXk軸上に配置し、点PK2がある側をYk軸プラス側とする局所座標系61を設定する(S64)。CPU1は、S54に処理を戻す。   The CPU 1 determines whether the difference between the geometric feature quantities calculated in S54 is smaller than a threshold (S55). If the difference between the coordinates of the local coordinate system for each of the three feature points is equal to or greater than the threshold, and / or if the difference between the internal angles of the triangle is equal to or greater than the threshold (S55: NO), the CPU 1 performs geometry Based on the target feature amount, processing is performed when the test triangle and the reference triangle are not similar. Specifically, the CPU 1 determines whether the difference in length between the first long side and the second long side of the three sides of the test triangle is larger than the threshold (S63). The process of S63 is the case where the triangle represented by the three test points for testing is a triangle close to an isosceles triangle in which the difference in length between the first long side and the second long side is less than the threshold. It is a process considered. When the difference in length between the first long side LK1 and the second long side LK2 is equal to or less than the threshold value, as in a triangle TRK formed by the points PK1, PK2, and PK3 in FIG. 17 (S63: NO), The CPU 1 resets the coordinates of the local coordinate system regarding the three feature points for test (S64). Specifically, the CPU 1 sets a local coordinate system 61 in which the second longest side LK2 is disposed on the Xk axis and the side on which the point PK2 is located is the Yk axis plus side (S64). The CPU 1 returns the process to S54.

1番目に長い辺と、2番目に長い辺との長さの差が閾値よりも大きい場合(S63:YES)、CPU1は、S53で選択された参照用の3つの特徴点が読み出し順序が最後の3つの特徴点であるか否かを判断する(S65)。本実施形態のCPU1は、参照用の照合情報の中から三角形の面積Sが大きい順に3つの特徴点を読み出している。読み出し順序が最後ではない場合(S65:NO)、CPU1は処理をS53に戻す。読み出し順序が最後である場合(S65:YES)、CPU1はS52で選択されたテスト用の3つの特徴点を破棄する(S66)。CPU1はS52で選択されたテスト用の3つの特徴点が、読み出し順序が最後の特徴点か否かを判断する(S67)。本実施形態のCPU1は、テスト用の照合情報の中から三角形の面積Sが大きい順に3つの特徴点を読み出している。読み出し順序が最後ではない場合(S67:NO)、CPU1は処理をS52に戻す。読み出し順序が最後である場合(S67:YES)、CPU1は認証失敗と判定する(S68)。CPU1は照合処理を終了し、処理を図3の照合情報処理に戻す。CPU1は、S5の次に照合情報処理を終了する。   If the difference in length between the first long side and the second long side is larger than the threshold (S63: YES), the CPU 1 reads out the three feature points for reference selected in S53 in the order of reading It is determined whether or not there are three feature points of (S65). The CPU 1 of the present embodiment reads out three feature points in the descending order of the area S of the triangle from the reference collation information. If the reading order is not the last (S65: NO), the CPU 1 returns the process to S53. If the reading order is the last (S65: YES), the CPU 1 discards the three feature points for test selected in S52 (S66). The CPU 1 determines whether the three feature points for test selected in S52 are the last feature points in the reading order (S67). The CPU 1 of the present embodiment reads out three feature points in the descending order of the area S of the triangle from the verification information for test. If the reading order is not the last (S67: NO), the CPU 1 returns the process to S52. If the reading order is the last (S67: YES), the CPU 1 determines that the authentication is unsuccessful (S68). The CPU 1 ends the collation processing, and returns the processing to the collation information processing of FIG. After S5, the CPU 1 ends the verification information processing.

S55において、3つの特徴点のそれぞれについての局所座標系の座標の差が閾値より小さく、かつ三角形の内角の差が閾値より小さい場合(S55:YES)、CPU1は周波数情報の類似度を算出する(S58)。具体的には、CPU1は、S52で選択されたテスト用の3つの特徴点に関して取得された周波数情報と、S53で選択された参照用の3つの特徴点に関して取得された周波数情報との類似度を算出する。類似度の算出方法は、公知の方法が適宜用いられればよい。本実施形態のCPU1は、公知のDPマッチングを用い、類似度として距離値を算出する。本実施形態のCPU1は、3つの特徴点の中から選択される3組の2つの注目点のそれぞれについて周波数情報の距離値を算出する。   In S55, if the difference between the coordinates of the local coordinate system for each of the three feature points is smaller than the threshold and the difference between the internal angles of the triangle is smaller than the threshold (S55: YES), CPU 1 calculates the similarity of the frequency information (S58). Specifically, the CPU 1 determines the similarity between the frequency information acquired for the three feature points for test selected in S52 and the frequency information acquired for the three feature points for reference selected in S53. Calculate A publicly known method should just be suitably used as a calculation method of similarity. The CPU 1 according to the present embodiment calculates a distance value as the similarity using known DP matching. The CPU 1 of the present embodiment calculates the distance value of the frequency information for each of the three sets of two attention points selected from the three feature points.

具体的には、図17に示すように、参照用三角形が三角形TRRであり、テスト用三角形が三角形TRTである場合、参照用の周波数情報は図11の周波数情報FDR1からFDR3であり、テスト用の周波数情報は図15の周波数情報FDT1からFDT3である。この場合、図18に模式的に示すように、CPU1は、周波数画像79と周波数画像89とをDPマッチングに供し、距離値DF1を得る。本実施形態では、ノイズを排除するために低次の成分を優先して選択された1から14に対応する14個の成分に基づき、マッチングコストを求める。図18において、テスト用の周波数情報FDT1を表す周波数画像89は上側に示されている。図18において、参照用の周波数情報FDR1を表す周波数画像79は、周波数画像89と対応する向きで左側に示されている。周波数画像89と対応する向きは、周波数画像79を周波数画像の下端について反転させたのち、反転させた周波数画像79の上左端を起点に、反転させた周波数画像79を90度時計回りに回転させることにより得られる。CPU1は、左上の対応点からパス探索を始め、隣接する対応点のうち、マッチングコストが最小の対応点を辿り、右下の対応点へと至るパスを探索する。図18において、パスは、左上から右下へと略直線状に延びる太線95で示されている。以下のDPマッチングを模式的に示す図でも同様である。図19に模式的に示すように、CPU1は、周波数画像80と周波数画像90とをDPマッチングに供し、距離値DF2を得る。図20に模式的に示すように、CPU1は、周波数画像81と周波数画像91とをDPマッチングに供し、距離値DF3を得る。CPU1は、算出された3つの距離値に基づき標準化された距離値DFDを算出する。
DFD=(DF−DFH)/DFS ・・・式(1)
式(1)において、DFは、周波数情報のDPマッチングにより得られた実際の距離値(DF1からDF3のいずれか)である。DFHは、周波数情報のDPマッチングにより得られる距離値の平均値である。DSSは、周波数情報のDPマッチングにより得られる距離値の標準偏差である。本実施形態のDFH及びDFSは、複数の周波数情報のDPマッチング結果に基づき予め設定された値である。式(1)に基づき、距離値DF1からDF3から、標準化された距離値DFD1からDFD3が算出される。距離値DFDは、値が大きいほど、値が小さい場合に比べ、類似度が小さい。
Specifically, as shown in FIG. 17, when the reference triangle is the triangle TRR and the test triangle is the triangle TRT, the frequency information for reference is the frequency information FDR1 to FDR3 in FIG. Are the frequency information FDT1 to FDT3 of FIG. In this case, as schematically shown in FIG. 18, the CPU 1 applies the frequency image 79 and the frequency image 89 to DP matching to obtain the distance value DF1. In the present embodiment, the matching cost is determined based on the 14 components corresponding to 1 to 14 selected by prioritizing low-order components in order to eliminate noise. In FIG. 18, a frequency image 89 representing test frequency information FDT1 is shown on the upper side. In FIG. 18, the frequency image 79 representing the frequency information FDR 1 for reference is shown on the left side in the direction corresponding to the frequency image 89. The direction corresponding to the frequency image 89 is such that the frequency image 79 is inverted about the lower end of the frequency image, and then the inverted frequency image 79 is rotated 90 degrees clockwise from the upper left end of the inverted frequency image 79 Obtained by The CPU 1 starts the path search from the upper left corresponding point, traces the corresponding point with the smallest matching cost among the adjacent corresponding points, and searches for a path leading to the lower right corresponding point. In FIG. 18, the path is indicated by a thick line 95 extending substantially straight from the upper left to the lower right. The same applies to a diagram schematically showing the following DP matching. As schematically shown in FIG. 19, the CPU 1 applies the frequency image 80 and the frequency image 90 to DP matching to obtain a distance value DF2. As schematically shown in FIG. 20, the CPU 1 applies the frequency image 81 and the frequency image 91 to DP matching to obtain a distance value DF3. The CPU 1 calculates a standardized distance value DFD based on the three calculated distance values.
DFD = (DF−DFH) / DFS (1)
In equation (1), DF is an actual distance value (one of DF1 to DF3) obtained by DP matching of frequency information. DFH is an average value of distance values obtained by DP matching of frequency information. DSS is a standard deviation of distance values obtained by DP matching of frequency information. DFH and DFS in the present embodiment are values set in advance based on DP matching results of a plurality of frequency information. Based on the equation (1), standardized distance values DFD1 to DFD3 are calculated from the distance values DF1 to DF3. As the distance value DFD is larger, the degree of similarity is smaller than in the case where the value is smaller.

CPU1はサンプル情報の類似度を算出する(S59)。具体的には、CPU1は、S52で選択されたテスト用の3つの特徴点に関して取得されたサンプル情報と、S53で選択された参照用の3つの特徴点に関して取得されたサンプル情報との類似度を算出する。類似度の算出方法は、公知の方法が適宜選択されればよい。本実施形態では、周波数情報の場合と同様に、公知のDPマッチングを用い、類似度として距離値を算出する。CPU1は、3つの特徴点の中から選択される3組の2つの注目点のそれぞれについてサンプル情報の距離値を算出する。具体例では、参照用のサンプル情報は図11のサンプル情報SDR1からSDR3であり、テスト用のサンプル情報は図15のサンプル情報SDT1からSDT3である。この場合、図21に模式的に示すように、CPU1は、サンプル画像76とサンプル画像86をDPマッチングに供し、距離値DS1を得る。図22に模式的に示すように、CPU1は、サンプル画像77とサンプル画像87をDPマッチングに供し、距離値DS2を得る。図23に模式的に示すように、CPU1は、サンプル画像78とサンプル画像88をDPマッチングに供し、距離値DS3を得る。CPU1は、算出された3つの距離値のそれぞれについて次の式(2)に従って標準化された距離値DSDを算出する。
DSD=(DS−DSH)/DSS ・・・式(2)
式(2)において、DSは、サンプル情報のDPマッチングにより得られた実際の距離値(DS1からDS3のいずれか)である。DSHは、サンプル情報のDPマッチングにより得られる距離値の平均値である。DSSは、DPマッチングにより得られる距離値の標準偏差である。本実施形態のDSH及びDSSは、複数のサンプル情報のDPマッチング結果に基づき予め設定された値である。式(2)に基づき、距離値DS1からDS3から、標準化された距離値DSD1からDSD3が算出される。距離値DSDは、値が大きいほど、値が小さい場合に比べ、類似度が小さい。
The CPU 1 calculates the similarity of the sample information (S59). Specifically, the CPU 1 measures the similarity between the sample information acquired for the three feature points for test selected in S52 and the sample information acquired for the three feature points for reference selected in S53. Calculate A publicly known method should just be chosen suitably as a calculation method of similarity. In the present embodiment, similarly to the case of the frequency information, a known DP matching is used to calculate a distance value as the similarity. The CPU 1 calculates the distance value of the sample information for each of the three sets of two attention points selected from the three feature points. In the specific example, the sample information for reference is the sample information SDR1 to SDR3 of FIG. 11, and the sample information for test is the sample information SDT1 to SDT3 of FIG. In this case, as schematically shown in FIG. 21, the CPU 1 applies the sample image 76 and the sample image 86 to DP matching to obtain the distance value DS1. As schematically shown in FIG. 22, the CPU 1 subjects the sample image 77 and the sample image 87 to DP matching to obtain a distance value DS2. As schematically shown in FIG. 23, the CPU 1 subjects the sample image 78 and the sample image 88 to DP matching to obtain a distance value DS3. The CPU 1 calculates a standardized distance value DSD according to the following equation (2) for each of the three calculated distance values.
DSD = (DS-DSH) / DSS ... Formula (2)
In equation (2), DS is an actual distance value (one of DS1 to DS3) obtained by DP matching of sample information. DSH is an average value of distance values obtained by DP matching of sample information. DSS is a standard deviation of distance values obtained by DP matching. The DSH and DSS in the present embodiment are values set in advance based on the DP matching results of a plurality of sample information. Based on the equation (2), a standardized distance value DSD1 to DSD3 is calculated from the distance values DS1 to DS3. As the distance value DSD is larger, the degree of similarity is smaller than when the value is smaller.

CPU1は、S58で算出された周波数情報の類似度と、S59で算出されたサンプル情報の類似度とに基づき、照合に用いる類似度Dを算出する(S60)。具体的には、CPU1は、S58で算出された周波数情報の類似度と、S59で算出されたサンプル情報の類似度とのそれぞれに係数を乗じた値を足し合わせる。係数は認証結果を考慮して予め設定される。本実施形態のCPU1は、式(3)に従って類似度Dを算出する。ただし、Bは0以上1以下の数である。類似度Dは、2つの注目点毎に算出される。例えば、点P4及びP8について、類似度D1がB×DSD1+(1−B)×DFD1に基づき算出される。
D=B×DSD+(1−B)×DFD ・・・式(3)
The CPU 1 calculates the similarity D to be used for collation based on the similarity of the frequency information calculated in S58 and the similarity of the sample information calculated in S59 (S60). Specifically, the CPU 1 adds values obtained by multiplying each of the similarity of the frequency information calculated in S58 and the similarity of the sample information calculated in S59 by a coefficient. The factor is preset in consideration of the authentication result. The CPU 1 of the present embodiment calculates the similarity D in accordance with the equation (3). However, B is a number of 0 or more and 1 or less. The similarity D is calculated for each of two target points. For example, for the points P4 and P8, the similarity D1 is calculated based on B × DSD1 + (1-B) × DFD1.
D = B × DSD + (1-B) × DFD formula (3)

CPU1は、類似度DRが閾値よりも小さいか否かを判断する(S61)。本実施形態では、S60で2つの注目点毎に算出された3つの類似度Dの代表値を、S61の比較に用いる類似度DRとする。類似度DRは、例えば、3つの類似度の平均値、最小値、中間値、及び最大値のいずれかである。S61の閾値は代表値に応じて適宜設定される。類似度DRが閾値よりも小さい場合(S61:YES)、CPU1は認証成功と判定する(S62)。類似度が閾値以上の場合(S61:NO)、CPU1は認証失敗と判定する(S68)。S62又はS68の処理の次に、CPU1は、照合処理を終了し、処理を図3の照合情報処理に戻す。CPU1は、以上で照合情報処理を終了する。図示しないが、本実施形態の照合情報を用いた認証実験と、従来の方法で行った認証実験を行ったところ、本実施形態の照合情報処理によって従来と同等以上の認証精度が確認された。   The CPU 1 determines whether the similarity DR is smaller than a threshold (S61). In the present embodiment, the representative value of the three similarities D calculated for every two attention points in S60 is taken as the similarity DR used for the comparison in S61. The similarity DR is, for example, one of an average value, a minimum value, an intermediate value, and a maximum value of three similarities. The threshold value of S61 is appropriately set according to the representative value. If the similarity DR is smaller than the threshold (S61: YES), the CPU 1 determines that the authentication is successful (S62). If the similarity is equal to or higher than the threshold (S61: NO), the CPU 1 determines that the authentication is unsuccessful (S68). After the process of S62 or S68, the CPU 1 ends the verification process, and returns the process to the verification information process of FIG. The CPU 1 ends the verification information processing as described above. Although not shown, when the authentication experiment using the collation information of the present embodiment and the authentication experiment performed by the conventional method are performed, authentication accuracy equal to or higher than the conventional one is confirmed by the collation information processing of the present embodiment.

情報処理装置10において、CPU1は本発明のプロセッサに相当する。RAM3及びフラッシュメモリ4は、本発明の記憶手段に相当する。図4のS11の処理は、本発明の画像取得ステップに相当する。S11において画像取得部21として機能するCPU1は、本発明の画像取得手段に相当する。S12の処理は、本発明の抽出ステップに相当する。S12において特徴点抽出部22として機能するCPU1は、本発明の抽出手段に相当する。S19の処理は、本発明の特徴点取得ステップに相当する。S19の処理を実行するCPU1は、本発明の特徴点取得手段として機能する。S20,図7のS32,及びS35の処理は、本発明の特徴量算出ステップに相当する。S20,図7のS32,及びS35において幾何学的特徴量算出部23として機能するCPU1は、本発明の特徴量算出手段に相当する。S34の処理は、本発明の選択ステップに相当する。S34の処理を実行するCPU1は、本発明の選択手段として機能する。S37の処理は、本発明の参照点取得ステップに相当する。S37の処理を実行するCPU1は、本発明の参照点取得手段として機能する。S38の処理は、本発明のサンプル情報取得ステップに相当する。S38の処理を実行するCPU1は、本発明のサンプル情報取得手段として機能する。S40の処理は、本発明の周波数情報取得ステップに相当する。S40の処理を実行するCPU1は、本発明の周波数情報取得手段として機能する。S42及びS4は本発明の記憶制御ステップに相当する。S42及びS4の処理を実行するCPU1は、本発明の記憶制御手段として機能する。S5の処理は、本発明の照合ステップに相当する。S52からS55の処理は、本発明のペア抽出ステップに相当する。S58からS62及びS68は本発明の抽出後照合ステップに相当する。   In the information processing apparatus 10, the CPU 1 corresponds to a processor of the present invention. The RAM 3 and the flash memory 4 correspond to the storage means of the present invention. The process of S11 of FIG. 4 corresponds to the image acquisition step of the present invention. The CPU 1 functioning as the image acquisition unit 21 in S11 corresponds to the image acquisition means of the present invention. The process of S12 corresponds to the extraction step of the present invention. The CPU 1 functioning as the feature point extraction unit 22 in S12 corresponds to the extraction means of the present invention. The process of S19 corresponds to the feature point acquiring step of the present invention. The CPU 1 that executes the process of S19 functions as feature point acquisition means of the present invention. The processes of S20 and S32 and S35 of FIG. 7 correspond to the feature amount calculating step of the present invention. The CPU 1 functioning as the geometric feature quantity calculator 23 in S20 and S32 and S35 in FIG. 7 corresponds to the feature quantity calculation means of the present invention. The process of S34 corresponds to the selection step of the present invention. The CPU 1 that executes the process of S34 functions as a selection unit of the present invention. The process of S37 corresponds to the reference point acquiring step of the present invention. The CPU 1 that executes the process of S37 functions as a reference point acquisition unit of the present invention. The process of S38 corresponds to the sample information acquisition step of the present invention. The CPU 1 that executes the process of S38 functions as sample information acquisition means of the present invention. The process of S40 corresponds to the frequency information acquisition step of the present invention. The CPU 1 that executes the process of S40 functions as frequency information acquisition means of the present invention. S42 and S4 correspond to the storage control step of the present invention. The CPU 1 that executes the processes of S42 and S4 functions as storage control means of the present invention. The process of S5 corresponds to the verification step of the present invention. The processes of S52 to S55 correspond to the pair extraction step of the present invention. S58 to S62 and S68 correspond to the post-extraction matching step of the present invention.

本実施形態の情報処理プログラムを実行する情報処理装置10は、画像から抽出された特徴点に基づきサンプル情報及び周波数情報を取得する(S38,S40)。サンプル情報及び周波数情報は、画像から抽出された3つの特徴点が表す幾何学的特徴量に基づき決定された第2参照点について取得された情報である。例えば、図5に示す画像41に基づき、3つの特徴点P1,P4及びP8に関して、図11のサンプル情報SDR1からSDR3が取得される。図14に示す画像51に基づき、3つの特徴点PT1,PT2及びPT3に関して、図15のサンプル情報SDT1からSDT3が取得される。画像51は、画像41に対し、生体情報が移動及び回転された状態で撮影された画像である。サンプル情報SDR1からSDR3から生成されるサンプル画像76から78と、サンプル情報SDT1からSDT3から生成されるサンプル画像86から88とは、同様の縞模様のパターンを表す。つまり、本実施形態の照合情報では生体情報が基準に対して回転したり、移動したりした影響が低減されている。このように、情報処理プログラムに基づき照合情報を生成すれば、幾何学的特徴量が考慮されない点について情報が取得された場合に比べ、画像によって表される生体情報が基準に対して回転したり、移動したりした影響が低減された照合情報を生成することができる。   The information processing apparatus 10 that executes the information processing program of the present embodiment acquires sample information and frequency information based on the feature points extracted from the image (S38, S40). The sample information and the frequency information are information acquired about a second reference point determined based on geometric feature quantities represented by three feature points extracted from the image. For example, based on the image 41 shown in FIG. 5, the sample information SDR1 to SDR3 in FIG. 11 are obtained for the three feature points P1, P4 and P8. Based on the image 51 shown in FIG. 14, the sample information SDT1 to SDT3 of FIG. 15 are acquired for the three feature points PT1, PT2 and PT3. The image 51 is an image captured in a state in which biological information is moved and rotated with respect to the image 41. The sample images 76 to 78 generated from the sample information SDR1 to SDR3 and the sample images 86 to 88 generated from the sample information SDT1 to SDT3 represent similar striped patterns. That is, in the verification information of the present embodiment, the influence of the rotation or movement of the biometric information with respect to the reference is reduced. As described above, when the verification information is generated based on the information processing program, the biological information represented by the image is rotated with respect to the reference, as compared with the case where the information is acquired about the point where the geometric feature is not considered. , And can generate matching information with reduced influence.

3つの特徴点に基づき取得されるサンプル情報及び周波数情報は、2つの注目点周辺のピクセルの色情報の変化パターンが、情報処理プログラムが規定する条件に従って効率的・効果的に取得された情報である。例えば、第2参照点が、第1参照点を基準として配置される正方形の辺上に設定されるとすると、正方形の辺が配置される向きによっては、隆線と辺とが略平行に配置されることがある。このような場合には、第2参照点が配置される図形を円から正方形に変えて、本実施形態と同様な処理を行ったとしても、CPU1は特徴的な生体情報の変化を表す色情報を取得できない。これに対し、CPU1は、第2参照点を、第1参照点を中心と半径Rの円の周上に設定することで、第1参照点の周囲のピクセルの色情報の特徴的な変化を取得しやすい。このため情報処理装置10は、画像から抽出された特徴点の数が比較的少ない場合にも、精度よく照合可能な照合情報を生成することができる。   The sample information and frequency information acquired based on the three feature points are information in which change patterns of color information of pixels around two focus points are efficiently and effectively acquired according to conditions defined by the information processing program. is there. For example, assuming that the second reference point is set on the side of a square arranged with reference to the first reference point, the ridge and the side are arranged substantially parallel depending on the direction in which the side of the square is arranged. There is something to be done. In such a case, even if the graphic in which the second reference point is arranged is changed from a circle to a square, and the same processing as that of the present embodiment is performed, the CPU 1 displays color information representing a characteristic change in biological information. I can not get On the other hand, the CPU 1 sets the second reference point on the circumference of the circle of radius R and the center of the first reference point, to thereby obtain the characteristic change of the color information of the pixels around the first reference point. Easy to get. Therefore, even when the number of feature points extracted from an image is relatively small, the information processing apparatus 10 can generate matching information that can be accurately matched.

サンプル画像は画像に含まれる色情報を、プログラムで規定する条件に従って再配置した画像であり、実空間の情報を表すといえる。これに対し、周波数画像は、実空間の情報を周波数空間の情報に変換したものである。このため、サンプル情報と、周波数情報とは、異なる意味を持つと考えられる。本実施形態の情報処理装置10は、サンプル情報と、周波数情報との双方を含む照合情報を生成する。したがって、サンプル情報と、周波数情報とのいずれかを含む場合に比べ、情報量を多くすることできる。つまり、本実施形態の照合情報を用いて照合を行うことにより、サンプル情報と、周波数情報とのいずれかのみを含む情報を用いる場合に比べ、より多くの観点から類似しているか否かを適切に判定することができる。本実施形態では、サンプル情報と、周波数情報とのそれぞれを標準化した上で、係数(寄与率)を乗じて類似度Dを算出する。このため、意味が互いに異なるサンプル情報と、周波数情報とを用いて、比較的簡単な計算によって類似度Dを求めることができる。   The sample image is an image in which color information included in the image is rearranged in accordance with a condition defined by a program, and can be said to represent real space information. On the other hand, the frequency image is obtained by converting real space information into frequency space information. For this reason, sample information and frequency information are considered to have different meanings. The information processing apparatus 10 according to the present embodiment generates collation information including both sample information and frequency information. Therefore, the amount of information can be increased as compared with the case where either sample information or frequency information is included. That is, by performing collation using the collation information of the present embodiment, it is appropriate to determine whether the similarity is more in terms of more viewpoints than in the case of using the information including only one of the sample information and the frequency information. Can be determined. In this embodiment, after standardizing each of the sample information and the frequency information, the similarity (D) is calculated by multiplying the coefficient (contribution rate). Therefore, the similarity D can be obtained by relatively simple calculation using sample information having different meanings from each other and frequency information.

本実施形態のCPU1は、3つの特徴点から2つの特徴点を選択する場合の全ての組み合わせのそれぞれに対応する3組の2つの注目点について、サンプル情報及び周波数情報を取得する。1組の2つの注目点が選択される場合に比べ、取得されるサンプル情報及び周波数情報の数が多くなるので、画像から抽出された特徴点の数が少ない場合にも、精度よく照合可能な情報を生成することができる。   The CPU 1 of the present embodiment acquires sample information and frequency information for three sets of two attention points corresponding to all combinations in the case of selecting two feature points from three characteristic points. Since the number of sample information and frequency information to be acquired is larger than when one set of two points of interest is selected, accurate matching is possible even when the number of feature points extracted from an image is small Information can be generated.

情報処理装置10は、照合情報を用いて生体情報の照合を行うため、画像から抽出された特徴点の数が少ない場合にも、精度よく照合可能である。サンプル情報及び周波数情報は、幾何学的特徴量に基づき決定された点について取得された情報である。したがって、情報処理装置10は、幾何学的特徴量が考慮されない点について情報が取得された場合に比べ、生体情報が基準に対して回転したり、移動したりした影響が低減された、精度のよい照合結果を得ることができる。   Since the information processing apparatus 10 collates the biometric information using the collation information, even if the number of feature points extracted from the image is small, the collation can be performed with high accuracy. The sample information and the frequency information are information acquired about the point determined based on the geometric feature. Therefore, in the information processing apparatus 10, the influence of the rotation or movement of the biological information with respect to the reference is reduced compared to the case where the information is acquired about the point where the geometric feature is not considered. Good matching results can be obtained.

特徴点取得ステップで取得された3つの特徴点のそれぞれの位置が互いに近接し、3つの特徴点で表される三角形の面積が所定値未満の場合には、三角形の面積が所定値以上の場合に比べ、サンプル情報が示す色情報の変化が少ない。このため、情報処理装置10は、3つの特徴点で表される三角形の面積が所定値未満の場合には、それら3つの特徴点に基づき、照合情報を取得しない(S24)。したがって情報処理装置10は、三角形の面積が所定値未満となる3つの特徴点に基づき照合情報が生成される場合に比べ、照合情報を用いた照合の精度を高めることができる。   When the positions of the three feature points acquired in the feature point acquisition step are close to each other, and the area of the triangle represented by the three feature points is less than a predetermined value, the area of the triangle is greater than or equal to the predetermined value There is less change in the color information indicated by the sample information than in the case of. Therefore, when the area of the triangle represented by the three feature points is less than the predetermined value, the information processing apparatus 10 does not acquire the matching information based on the three feature points (S24). Therefore, the information processing apparatus 10 can improve the accuracy of the matching using the matching information as compared to the case where the matching information is generated based on the three feature points where the area of the triangle is less than the predetermined value.

CPU1は、局所座標系の座標を設定することによって、テスト用の三角形と類似する参照用の三角形を抽出する処理を簡略化することができる。結果としてCPU1は、照合に要する処理時間を短縮できる。   The CPU 1 can simplify the process of extracting a reference triangle similar to the test triangle by setting the coordinates of the local coordinate system. As a result, the CPU 1 can reduce the processing time required for verification.

本実施形態のCPU1は、特に面積が大きい場合を優先して、照合に用いる照合情報を選択している。つまりCPU1は、画像に基づき取得された照合情報の中から、情報量の多い照合情報を優先して照合に用いることで、照合に要する処理時間を短縮しつつ、照合精度をさらに向上できる。   The CPU 1 of the present embodiment selects the verification information to be used for verification, giving priority to the case where the area is particularly large. That is, the CPU 1 can further improve the collation accuracy while shortening the processing time required for the collation by preferentially using the collation information having a large amount of information among the collation information acquired based on the image for the collation.

本発明の情報処理プログラム及び情報処理装置は、上記した実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更が加えられてもよい。例えば、以下の(A)から(C)までの変形が適宜加えられてもよい。   The information processing program and the information processing apparatus of the present invention are not limited to the above embodiments, and various changes may be made without departing from the scope of the present invention. For example, the following modifications (A) to (C) may be added as appropriate.

(A)情報処理装置10の構成は適宜変更してよい。例えば、情報処理装置10は、スマートフォンである場合に限定されず、例えば、ノートPC,タブレットPC,及び携帯電話のようなモバイル機器であってもよいし、現金自動預け払い機(ATM)及び入退室管理装置のような機器であってもよい。生体情報取得装置8は、情報処理装置10とは別体に設けられてもよい。その場合、生体情報取得装置8と、情報処理装置10とは、接続ケーブルで接続されていてもよいし、Bluetooth(登録商標)及びNFC(Near Field Communication)のように無線で接続されていてもよい。生体情報取得装置8の検出方式は静電容量方式に限定されず、他の方式(例えば、電界式、圧力式、光学式)であってもよい。生体情報取得装置8は面型に限定されず、線型であってもよい。生体情報取得装置8が生成する画像の大きさ、色情報及び解像度は、適宜変更されてよい。したがって、例えば、色情報は白黒画像に対応する情報の他、カラー画像に対応する情報でもよい。   (A) The configuration of the information processing apparatus 10 may be changed as appropriate. For example, the information processing apparatus 10 is not limited to a smart phone, and may be, for example, a mobile device such as a notebook PC, a tablet PC, and a mobile phone, or an automated teller machine (ATM) and an on-chip device. It may be a device such as a room exit management device. The biometric information acquisition device 8 may be provided separately from the information processing device 10. In that case, the biometric information acquisition device 8 and the information processing device 10 may be connected by a connection cable, or wirelessly connected as in Bluetooth (registered trademark) and NFC (Near Field Communication). Good. The detection method of the biological information acquisition device 8 is not limited to the electrostatic capacitance method, and may be another method (for example, an electric field type, a pressure type, an optical type). The biological information acquisition device 8 is not limited to a planar type, and may be a linear type. The size, color information and resolution of the image generated by the biological information acquisition device 8 may be changed as appropriate. Therefore, for example, the color information may be information corresponding to a color image in addition to information corresponding to a black and white image.

(B)情報処理プログラムは、情報処理装置10がプログラムを実行するまでに、情報処理装置10の記憶機器に記憶されればよい。したがって、情報処理プログラムの取得方法、取得経路及び情報処理プログラムを記憶する機器の各々は適宜変更されてよい。情報処理装置10のプロセッサが実行する情報処理プログラムは、ケーブル又は無線通信を介して、他の装置から受信し、フラッシュメモリ等の記憶装置に記憶されてもよい。他の装置は、例えば、PC(パーソナルコンピュータ)、及びネットワーク網を介して接続されるサーバを含む。   (B) The information processing program may be stored in the storage device of the information processing apparatus 10 before the information processing apparatus 10 executes the program. Therefore, each of the method of acquiring the information processing program, the acquisition path, and the device storing the information processing program may be changed as appropriate. The information processing program executed by the processor of the information processing device 10 may be received from another device via a cable or wireless communication, and may be stored in a storage device such as a flash memory. Other devices include, for example, a PC (personal computer) and a server connected via a network.

(C)図3の照合情報処理の各ステップは、CPU1によって実行される例に限定されず、一部又は全部が他の電子機器(例えば、ASIC)によって実行されてもよい。上記処理の各ステップは、複数の電子機器(例えば、複数のCPU)によって分散処理されてもよい。上記実施形態の照合情報処理の各ステップは、必要に応じて順序の変更、ステップの省略、及び追加が可能である。情報処理装置10のCPU1からの指令に基づき、情報処理装置10上で稼動しているオペレーティングシステム(OS)等が実際の処理の一部又は全部を行い、その処理によって上記実施形態の機能が実現される場合も本開示の範囲に含まれる。例えば、照合情報処理に以下の(C−1)から(C−6)の変更が適宜加えられてもよい。   (C) Each step of the verification information processing of FIG. 3 is not limited to the example executed by the CPU 1, and part or all may be executed by another electronic device (for example, an ASIC). Each step of the above process may be distributed and processed by a plurality of electronic devices (for example, a plurality of CPUs). Respective steps of the collation information processing of the above embodiment can be changed in order, omitted, and added as needed. Based on an instruction from the CPU 1 of the information processing apparatus 10, the operating system (OS) or the like operating on the information processing apparatus 10 performs a part or all of the actual processing, and the processing of the above embodiment is realized by the processing. Are also included in the scope of the present disclosure. For example, the following changes (C-1) to (C-6) may be appropriately added to the verification information processing.

(C−1)S11で取得された画像に対して、適宜前処理が実行されてもよい。例えば、画像の高周波成分をノイズとして除去するためのフィルタリング処理が実行されてもよい。フィルタリング処理が実行されることによって、画像のエッジ部分の濃淡変化は緩やかになる。フィルタリング処理に用いられるフィルタとして、周知のローパスフィルタ、ガウシアンフィルタ、移動平均フィルタ、メディアンフィルタ、平均化フィルタのいずれかが用いられてもよい。他の例では、特定の周波数帯成分のみを抽出するためのフィルタリング処理がS11で取得された画像に対して実行されてもよい。特定の周波数帯域として、指紋の凹凸の周期を含む帯域が選択されてもよい。この場合の、フィルタリング処理に用いられるフィルタとしては、周知のバンドパスフィルタが挙げられる。   (C-1) Preprocessing may be appropriately performed on the image acquired in S11. For example, a filtering process may be performed to remove high frequency components of the image as noise. By performing the filtering process, the gradation change of the edge portion of the image becomes gentle. As a filter used for the filtering process, any one of a known low pass filter, Gaussian filter, moving average filter, median filter, and averaging filter may be used. In another example, a filtering process for extracting only specific frequency band components may be performed on the image acquired in S11. A band including the period of unevenness of the fingerprint may be selected as the specific frequency band. In this case, as a filter used for the filtering process, a known band pass filter may be mentioned.

(C−2)図4のS21における、照合情報を取得する対象となる3つの特徴点を抽出する条件は、適宜変更されてよい。例えば、CPU1は、3点のなす三角形の面積の他、最大内角の値が所定の範囲内かどうかに基づき照合情報を取得するか否かを判定してもよい。CPU1は、S21の処理を省略し、S18で算出された全ての組み合わせに対応する3つの特徴点のそれぞれについて、照合情報を取得してもよい。CPU1は、面積が大きい順に所定組の3つの特徴点について照合情報を取得してもよい。   (C-2) The conditions for extracting the three feature points that are targets for acquiring the matching information in S21 of FIG. 4 may be changed as appropriate. For example, the CPU 1 may determine whether to acquire the matching information based on whether the value of the maximum interior angle is within a predetermined range, in addition to the area of the triangle formed by the three points. The CPU 1 may omit the process of S21 and may acquire collation information for each of the three feature points corresponding to all the combinations calculated in S18. The CPU 1 may acquire collation information for a predetermined set of three feature points in descending order of area.

(C−3)S58において、周波数情報の類似度の算出方法は適宜変更されてよい。例えば、周波数成分として本実施形態と同様の一次元群遅延スペクトルが用いられる場合、高次の成分にはノイズ成分が強く表れることがある。このような場合を考慮して、低次の成分を優先して選択された所定個の成分を含む周波数情報に基づき、周波数情報が選択されてもよい。所定個は、サンプル数、及び認証精度等を考慮して予め定められればよく、例えば、1つの第1参照点について取得されるサンプルの数Nが128である場合、所定個は10から63のいずれかに設定される。好ましくは、所定個は12から20のいずれかに設定される。サンプル数Nの場合、所定個は、好ましくは(サンプル数N/10)から(サンプル数N/5)に設定される。   (C-3) In S58, the calculation method of the similarity of frequency information may be changed suitably. For example, when a one-dimensional group delay spectrum similar to that of the present embodiment is used as a frequency component, noise components may appear strongly in high-order components. In consideration of such a case, frequency information may be selected based on frequency information including a predetermined number of components selected with priority given to low-order components. The predetermined number may be determined in advance in consideration of the number of samples, authentication accuracy, etc. For example, when the number N of samples obtained for one first reference point is 128, the predetermined number is 10 to 63. It is set to one. Preferably, the predetermined number is set to any of 12 to 20. In the case of the number of samples N, the predetermined number is preferably set from (number of samples N / 10) to (number of samples N / 5).

(C−4)周波数成分は、一次元群遅延スペクトルに限定されない。例えば、周波数成分としてはLPCスペクトル、群遅延スペクトル、LPCケプストラム、ケプストラム、自己相関関数、及び相互相関関数など、他の公知の周波数成分が用いられてもよい。   (C-4) The frequency component is not limited to the one-dimensional group delay spectrum. For example, as the frequency components, other known frequency components such as an LPC spectrum, a group delay spectrum, an LPC cepstrum, a cepstrum, an autocorrelation function, and a cross correlation function may be used.

(C−5)公知の照合情報と組み合わせて、照合が実行されてもよい。例えば、公知のマニューシャ法により照合結果と、本発明の照合情報方法を用いた照合結果とを組み合わせて、最終的な判定が実行されてもよい。このようにすれば、多様な観点から照合が実行され、照合精度が向上することが期待される。   (C-5) Matching may be performed in combination with known matching information. For example, the final determination may be performed by combining the verification result and the verification result using the verification information method of the present invention by a known minutiae method. In this way, matching is performed from various points of view, and it is expected that the matching accuracy is improved.

(C−6)第1参照点及び第2参照点の設定条件(例えば、数、間隔、及び取得順序等)は適宜変更されてよい。三角形が有する三辺のうち、一辺又は二辺について、サンプル情報及び周波数情報が取得されてもよい。S35の方向ベクトルは、1つの三角形について1つ算出されてもよい。この場合、三角形が有する三辺のうち、複数の辺についてサンプル情報及び周波数情報が取得される場合には、共通の方向ベクトルに基づき始点SPが決められてもよい。三角形が有する三辺のそれぞれについて算出された3つのサンプル情報は、適宜結合され、1つのサンプル情報として取り扱われてもよい。同様に三角形が有する三辺のそれぞれについて算出された3つの周波数情報は、適宜結合され、1つの周波数情報として取り扱われてもよい。このようにした場合には、三辺のそれぞれについて算出された3つのサンプル情報及び3つ周波数情報を全て用いて照合することができる。サンプル画像を生成する処理及び周波数画像を生成する処理は、適宜省略されてよい。幾何学的特徴量、第1情報及び第2情報は適宜変更されてよい。   (C-6) The setting conditions (for example, the number, the interval, the acquisition order, and the like) of the first reference point and the second reference point may be changed as appropriate. Sample information and frequency information may be acquired for one side or two sides of the three sides of the triangle. One direction vector of S35 may be calculated for one triangle. In this case, when sample information and frequency information are acquired for a plurality of sides among the three sides of a triangle, the start point SP may be determined based on a common direction vector. The three pieces of sample information calculated for each of the three sides of the triangle may be appropriately combined and treated as one piece of sample information. Similarly, three pieces of frequency information calculated for each of the three sides of the triangle may be appropriately combined and treated as one piece of frequency information. In this case, it is possible to collate using all three sample information and three frequency information calculated for each of the three sides. The process of generating a sample image and the process of generating a frequency image may be omitted as appropriate. The geometric feature, the first information, and the second information may be changed as appropriate.

1 CPU
2 ROM
3 RAM
4 フラッシュメモリ
10 情報処理装置
21 画像取得部
22 特徴点抽出部
23 幾何学的特徴量算出部
24 サンプル情報取得部
25 周波数情報取得部
26 登録部
27 照合部
28 DB
1 CPU
2 ROM
3 RAM
4 flash memory 10 information processing apparatus 21 image acquisition unit 22 feature point extraction unit 23 geometric feature amount calculation unit 24 sample information acquisition unit 25 frequency information acquisition unit 26 registration unit 27 collation unit 28 DB

Claims (5)

プロセッサと、記憶手段とを備えたコンピュータに、
画像を取得する画像取得ステップと、
前記画像取得ステップで取得された前記画像を解析して、特徴点を抽出する抽出ステップと、
前記抽出ステップで抽出された前記特徴点を3つ取得する特徴点取得ステップと、
前記特徴点取得ステップで取得された3つの前記特徴点によって表される三角形の幾何学的特徴量を算出する特徴量算出ステップと、
前記特徴点取得ステップで取得された前記3つの特徴点の中から、2つの特徴点をそれぞれ注目点として選択する選択ステップと、
前記選択ステップで選択された2つの前記注目点を結ぶ線分上の点であって、前記幾何学的特徴量に基づき決定された点である第1参照点の位置に対応する第1情報を、互いに位置が異なる複数の前記第1参照点のそれぞれについて取得する参照点取得ステップと、
前記参照点取得ステップで取得された複数の前記第1情報のそれぞれについて、
前記第1情報に対応する前記第1参照点を中心とする所定半径の円の周上の点であって、前記幾何学的特徴量に基づき決定された点である第2参照点に対応する色情報と、前記第2参照点の位置に対応する第2情報とを対応づけた情報であるサンプルを、互いに位置が異なる複数の前記第2参照点のそれぞれについて取得し、
取得された複数の前記サンプルと、前記第1情報とを対応づけた情報をサンプル情報とする処理を行うサンプル情報取得ステップと、
前記サンプル情報取得ステップで取得された前記サンプル情報に基づき、前記複数の第1参照点のそれぞれについて、
前記第2情報に対する前記色情報の変化の周波数成分を算出し、
前記複数の第1参照点のそれぞれについて算出された前記周波数成分を前記第1情報と対応づけた情報である周波数情報を取得する周波数情報取得ステップと、
前記サンプル情報及び前記周波数情報を、前記幾何学的特徴量と対応づけた情報を、生体情報の照合に用いる照合情報として前記記憶手段に記憶させる記憶制御ステップと
を実行させるための情報処理プログラム。
A computer comprising a processor and storage means,
An image acquisition step of acquiring an image;
An extraction step of analyzing the image acquired in the image acquisition step to extract a feature point;
A feature point acquiring step of acquiring three of the feature points extracted in the extracting step;
A feature amount calculating step of calculating a geometrical feature amount of a triangle represented by the three feature points obtained in the feature point obtaining step;
A selection step of selecting two feature points as focus points from the three feature points obtained in the feature point obtaining step;
A first point corresponding to a position of a first reference point which is a point on a line segment connecting the two attention points selected in the selection step and which is a point determined based on the geometric feature value A reference point acquiring step of acquiring each of a plurality of first reference points different in position from each other;
For each of the plurality of pieces of first information acquired in the reference point acquisition step,
A point on the circumference of a circle of a predetermined radius centered on the first reference point corresponding to the first information, the second reference point being a point determined based on the geometric feature amount A sample, which is information in which color information is associated with second information corresponding to the position of the second reference point, is acquired for each of the plurality of second reference points whose positions are different from each other,
A sample information acquisition step of performing processing of using information obtained by associating the plurality of acquired samples with the first information as sample information;
For each of the plurality of first reference points based on the sample information acquired in the sample information acquisition step,
Calculating a frequency component of change of the color information with respect to the second information;
A frequency information acquisition step of acquiring frequency information which is information in which the frequency component calculated for each of the plurality of first reference points is associated with the first information;
An information processing program for executing a storage control step of storing information in which the sample information and the frequency information are associated with the geometric feature amount as collation information used for collation of biological information.
前記選択ステップは、前記3つの特徴点の全ての2点の組み合わせに対応する3組の前記2つの注目点のそれぞれを選択することを特徴とする請求項1に記載の情報処理プログラム。   The information processing program according to claim 1, wherein the selection step selects each of the three sets of two attention points corresponding to a combination of all two points of the three feature points. 照合の対象となるテスト用の前記照合情報と、前記記憶手段に記憶された参照用の前記照合情報と照合する照合ステップをさらに備えることを特徴とする請求項1又は2に記載の情報処理プログラム。   3. The information processing program according to claim 1, further comprising a collation step of collating the collation information for test to be collated with the collation information for reference stored in the storage unit. . 前記特徴点取得ステップは、前記抽出ステップで抽出された複数の前記特徴点のうち、前記所定半径に基づき決定された所定範囲内にある複数の特徴点から前記3つの特徴点を選択する場合の、全ての組み合わせに対応する複数組の前記3つの特徴点を取得し、
前記選択ステップは、前記特徴点取得ステップで取得された前記複数組の3つの特徴点のうち、前記特徴量算出ステップで算出された前記幾何学的特徴量に基づき、前記三角形の面積が所定値以上となる前記3つの特徴点について、前記2つの注目点を選択する処理を実行し、
前記照合ステップは、
前記テスト用の照合情報で表されるテスト用の前記三角形と、前記参照用の照合情報で表される参照用の前記三角形とのそれぞれの前記幾何学的特徴量を、前記三角形の面積が大きい順に比較して、類似度が閾値以下となる、前記テスト用の三角形と、前記参照用の三角形とのペアを抽出するペア抽出ステップと、
前記ペア抽出ステップで抽出された前記テスト用の三角形に対応する前記サンプル情報及び前記周波数情報と、前記参照用の三角形に対応する前記サンプル情報及び前記周波数情報とを照合する抽出後照合ステップと
を備えることを特徴とする請求項3に記載の情報処理プログラム。
In the feature point acquiring step, the three feature points are selected from a plurality of feature points within a predetermined range determined based on the predetermined radius among the plurality of feature points extracted in the extracting step. Acquiring a plurality of sets of the three feature points corresponding to all combinations,
In the selection step, the area of the triangle has a predetermined value based on the geometric feature quantity calculated in the feature quantity calculation step among the plurality of sets of three feature points acquired in the feature point acquisition step Execute processing to select the two attention points for the three feature points that are the above
The matching step is
Each of the geometric feature quantities of the test triangle represented by the test verification information and the reference triangle represented by the reference verification information has a large area of the triangle A pair extraction step of extracting a pair of the test triangle and the reference triangle whose similarity is equal to or less than a threshold value in order of comparison;
A post-extraction matching step of matching the sample information and the frequency information corresponding to the test triangle extracted in the pair extraction step with the sample information and the frequency information corresponding to the reference triangle; The information processing program according to claim 3, comprising.
情報を記憶する記憶手段と、
画像を取得する画像取得手段と、
前記画像取得手段によって取得された前記画像を解析して、特徴点を抽出する抽出手段と、
前記抽出手段によって抽出された前記特徴点を3つ取得する特徴点取得手段と、
前記特徴点取得手段によって取得された3つの前記特徴点によって表される三角形の幾何学的特徴量を算出する特徴量算出手段と、
前記特徴点取得手段によって取得された前記3つの特徴点の中から、2つの特徴点をそれぞれ注目点として選択する選択手段と、
前記選択手段によって選択された2つの前記注目点を結ぶ線分上の点であって、前記幾何学的特徴量に基づき決定された点である第1参照点の位置に対応する第1情報を、互いに位置が異なる複数の前記第1参照点のそれぞれについて取得する参照点取得手段と、
前記参照点取得手段によって取得された複数の前記第1情報のそれぞれについて、
前記第1情報に対応する前記第1参照点を中心とする所定半径の円の周上の点であって、前記幾何学的特徴量に基づき決定された点である第2参照点に対応する色情報と、前記第2参照点の位置に対応する第2情報とを対応づけた情報であるサンプルを、互いに位置が異なる複数の前記第2参照点のそれぞれについて取得し、
取得した複数の前記サンプルと、前記第1情報とを対応づけた情報をサンプル情報とする処理を行うサンプル情報取得手段と、
前記サンプル情報取得手段によって取得された前記サンプル情報に基づき、前記複数の第1参照点のそれぞれについて、
前記第2情報に対する前記色情報の変化の周波数成分を算出し、
前記複数の第1参照点のそれぞれについて算出された前記周波数成分を前記第1情報と対応づけた情報である周波数情報を取得する周波数情報取得手段と、
前記サンプル情報及び前記周波数情報を、前記幾何学的特徴量と対応づけた情報を、生体情報の照合に用いる照合情報として前記記憶手段に記憶させる記憶制御手段と
を備えることを特徴とする情報処理装置。
Storage means for storing information;
Image acquisition means for acquiring an image;
An extraction unit that analyzes the image acquired by the image acquisition unit and extracts a feature point;
Feature point acquisition means for acquiring three of the feature points extracted by the extraction means;
Feature quantity calculation means for calculating a geometric feature quantity of a triangle represented by the three feature points acquired by the feature point acquisition means;
Selection means for selecting two feature points as focus points respectively from the three feature points obtained by the feature point obtaining means;
First information corresponding to a position of a first reference point which is a point on a line segment connecting the two attention points selected by the selection means and which is a point determined based on the geometric feature amount Reference point acquiring means for acquiring each of a plurality of first reference points different in position from each other;
For each of the plurality of pieces of first information acquired by the reference point acquisition unit,
A point on the circumference of a circle of a predetermined radius centered on the first reference point corresponding to the first information, the second reference point being a point determined based on the geometric feature amount A sample, which is information in which color information is associated with second information corresponding to the position of the second reference point, is acquired for each of the plurality of second reference points whose positions are different from each other,
Sample information acquisition means for performing processing of using information obtained by associating the plurality of acquired samples with the first information as sample information;
For each of the plurality of first reference points, based on the sample information acquired by the sample information acquiring unit,
Calculating a frequency component of change of the color information with respect to the second information;
Frequency information acquisition means for acquiring frequency information which is information in which the frequency component calculated for each of the plurality of first reference points is associated with the first information;
Storage control means for storing, in the storage means, information in which the sample information and the frequency information are associated with the geometrical feature amount as collation information used for collation of biological information apparatus.
JP2015127421A 2015-06-25 2015-06-25 INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING DEVICE Active JP6526494B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015127421A JP6526494B2 (en) 2015-06-25 2015-06-25 INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015127421A JP6526494B2 (en) 2015-06-25 2015-06-25 INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING DEVICE

Publications (2)

Publication Number Publication Date
JP2017010419A JP2017010419A (en) 2017-01-12
JP6526494B2 true JP6526494B2 (en) 2019-06-05

Family

ID=57763703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015127421A Active JP6526494B2 (en) 2015-06-25 2015-06-25 INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING DEVICE

Country Status (1)

Country Link
JP (1) JP6526494B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102288696B1 (en) 2017-05-09 2021-08-11 가부시끼가이샤 디디에스 Authentication information processing program and authentication information processing device
KR102304033B1 (en) 2017-05-09 2021-09-24 가부시끼가이샤 디디에스 Authentication information processing program and authentication information processing device
JP6894102B2 (en) 2017-05-09 2021-06-23 株式会社ディー・ディー・エス Authentication information processing program and authentication information processing device
JP6981249B2 (en) 2017-12-28 2021-12-15 富士通株式会社 Biometric device, biometric program, and biometric method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3980464B2 (en) * 2002-11-06 2007-09-26 株式会社国際電気通信基礎技術研究所 Method for extracting nose position, program for causing computer to execute method for extracting nose position, and nose position extracting apparatus
JP3719435B2 (en) * 2002-12-27 2005-11-24 セイコーエプソン株式会社 Fingerprint verification method and fingerprint verification device
JP3952293B2 (en) * 2003-01-06 2007-08-01 ソニー株式会社 Fingerprint verification apparatus and method, recording medium, and program

Also Published As

Publication number Publication date
JP2017010419A (en) 2017-01-12

Similar Documents

Publication Publication Date Title
EP2833294B1 (en) Device to extract biometric feature vector, method to extract biometric feature vector and program to extract biometric feature vector
US10740589B2 (en) Skin information processing method, skin information processing device, and non-transitory computer-readable medium
EP3361413B1 (en) Method and apparatus of selecting candidate fingerprint image for fingerprint recognition
EP3617993B1 (en) Collation device, collation method and collation program
JP6526494B2 (en) INFORMATION PROCESSING PROGRAM AND INFORMATION PROCESSING DEVICE
WO2009158700A1 (en) Assessing biometric sample quality using wavelets and a boosted classifier
CN110738222B (en) Image matching method and device, computer equipment and storage medium
KR102558736B1 (en) Method and apparatus for recognizing finger print
US10740590B2 (en) Skin information processing method, skin information processing device, and non-transitory computer-readable medium
US10430629B2 (en) Non-transitory computer-readable medium storing information processing program and information processing device
KR20160123209A (en) Method and apparatus for recognizing finger print
JP6879524B2 (en) Authentication information processing program and authentication information processing device
JP6894102B2 (en) Authentication information processing program and authentication information processing device
KR20210058882A (en) Facial recognition method and device
JP6366420B2 (en) Data creation program, data creation method, and data creation device
US11495049B2 (en) Biometric feature reconstruction method, storage medium and neural network
JP2016040683A (en) Data creation program, data creation method, and data creation device
KR102189610B1 (en) Information processing program and information processing device
JP6927534B2 (en) Authentication information processing program and authentication information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190508

R150 Certificate of patent or registration of utility model

Ref document number: 6526494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350