KR20030038306A - Method for Identifying Biological Information Using Bipartite Matching - Google Patents

Method for Identifying Biological Information Using Bipartite Matching Download PDF

Info

Publication number
KR20030038306A
KR20030038306A KR1020020020094A KR20020020094A KR20030038306A KR 20030038306 A KR20030038306 A KR 20030038306A KR 1020020020094 A KR1020020020094 A KR 1020020020094A KR 20020020094 A KR20020020094 A KR 20020020094A KR 20030038306 A KR20030038306 A KR 20030038306A
Authority
KR
South Korea
Prior art keywords
feature
matching
value
biometric information
feature points
Prior art date
Application number
KR1020020020094A
Other languages
Korean (ko)
Other versions
KR100442542B1 (en
Inventor
김회율
Original Assignee
학교법인 한양학원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 학교법인 한양학원 filed Critical 학교법인 한양학원
Priority to KR10-2002-0020094A priority Critical patent/KR100442542B1/en
Publication of KR20030038306A publication Critical patent/KR20030038306A/en
Application granted granted Critical
Publication of KR100442542B1 publication Critical patent/KR100442542B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Collating Specific Patterns (AREA)

Abstract

PURPOSE: A biometric authentication method is provided to determine more rapid matching combinations and to reduce a matching time and calculation amount by avoiding a comparison of all the feature points of a target image with those of a reference image. CONSTITUTION: The method comprises several steps. Data on feature points are extracted, and graphically converted on a two dimensional plane(S102). One feature value is calculated for the data on feature points(S104). A similarity matrix is generated(S106), and a Bipartite matching algorithm is applied to the similarity matrix(S108). If matching combinations are determined, a similarity among the matching combinations are calculated, it is determined whether a target image is identical to a reference image, and a biometric authentication is made according to the determination result(S110).

Description

바이퍼타이트 매칭을 적용한 생체 정보 인증 방법{Method for Identifying Biological Information Using Bipartite Matching}Method for Identifying Biological Information Using Bipartite Matching}

본 발명은 생체 정보 인증 방법에 관한 것으로서, 더욱 상세하게는 바이퍼타이트(Bipartite) 매칭을 적용함으로써 보다 빠르게 매칭 조합을 결정하여 생체 정보를 인증할 수 있는 방법에 관한 것이다.The present invention relates to a biometric information authentication method, and more particularly, to a method for authenticating biometric information by determining a matching combination faster by applying a bipartite matching.

최근 생체 인식 기술이 각종 온라인, 오프라인 보안 기술에 적용되면서 그 수요가 급격히 증가하고 있다.Recently, as biometric technology is applied to various online and offline security technologies, the demand is rapidly increasing.

생체 인식 기술은 지문, 홍채, 얼굴, 음성, 정맥, 장문 등의 생체 신호를 추출한 후 이를 기준 영상의 생체신호로 저장해두었다가 다시 인증을 요청하는 대상 영상의 생체 신호가 들어오면 저장해두었던 기준 영상의 생체 신호와 일치하는지 여부를 비교하여 동일인인지를 인증하는 방법이다.Biometric technology extracts biosignals such as fingerprint, iris, face, voice, vein, and palm print, stores them as biosignals of the reference image, and saves them when the biosignals of the target image requesting authentication are received. It is a method of authenticating whether or not it is the same person by comparing whether it matches a signal.

이러한 생체 인식 기술의 가장 핵심적인 사항은 입력으로 들어온 대상 영상의 특징점 집합이 기준 영상의 특징점 집합과 일치하도록 배열하는 것이다. 예를들어, 기준 영상에 100개의 특징점이 존재하고 대상 영상에 100개의 특징점이 존재할 경우에 각각 100개의 특징점을 어떻게 매칭시켜 유사도를 계산할 것인가를 결정하는 것이다.The most important point of the biometric technology is to arrange the feature point set of the target image as an input to match the feature point set of the reference image. For example, when 100 feature points exist in a reference image and 100 feature points exist in a target image, it is determined how to calculate the similarity by matching 100 feature points.

이를 위해, 종래에는 대상 영상의 하나의 특징점을 기준 영상의 모든 특징점들과 일일이 비교하여 가장 잘 일치하는 조합을 찾아 각각의 매칭 조합을 결정하였다. 이러한 종래의 방법을 사용하는 경우 특징점이 N개일 때에 N!이라는 많은 계산을 거쳐야만 매칭 조합을 결정할 수 있었다.To this end, conventionally, one feature point of the target image is compared with all feature points of the reference image to find a combination that best matches each other to determine each matching combination. In the case of using the conventional method, the matching combination can be determined only after many calculations, N !, when there are N feature points.

종래에는, 이러한 많은 계산을 거쳐야 하기 때문에, 인증 절차에 많은 시간이 소요되었고 이는 하드웨어 가격 상승의 주요한 요인이 되었다.In the past, many of these calculations required a lot of time for the authentication process, which has been a major factor in the rise in hardware prices.

종래에 있어서, 매칭 시간을 단축시키기 위해 사용자의 숫자가 많아질 경우 별도의 사용자 번호를 부여하는 방법을 사용하기도 하였으나, 이는 사용자 아이디를 사용하지 않도록 하는 생체 인식의 기본 목적에 반하는 것으로서, 보다 빠르게 생체 정보의 매칭 조합을 결정하는 알고리즘의 필요성이 대두되어왔다.In the related art, when a number of users increases to shorten the matching time, a method of assigning a separate user number has been used, but this is contrary to the basic purpose of biometrics not to use a user ID. There is a need for an algorithm to determine the matching combination of information.

본 발명에서는 상기한 바와 같은 종래 기술의 문제점을 해결하기 위해, 많은 계산을 거치지 않고 보다 빠르게 생체 정보의 매칭 조합을 결정할 수 있는 생체 정보 인증 방법을 제안하고자 한다.In the present invention, to solve the problems of the prior art as described above, it is proposed a biometric information authentication method that can determine a matching combination of biometric information faster without a lot of calculation.

본 발명의 또 다른 목적은 바이퍼타이트 매칭을 생체 정보 매칭 작업에 적용하여 고속으로 생체 정보의 매칭 조합을 결정할 수 있는 생체 정보 인증 방법을 제안하는 것이다.It is still another object of the present invention to propose a biometric information authentication method which can determine a matching combination of biometric information at high speed by applying viperite matching to a biometric information matching operation.

도 1은 본 발명의 바람직한 실시예에 따른 바이퍼타이트 매칭을 이용하여 생체 정보를 인식하는 과정을 도시한 전체 순서도.1 is an overall flowchart illustrating a process of recognizing biometric information using viperite matching according to a preferred embodiment of the present invention.

도 2는 촬영된 지문 영상에서 특징점을 추출한 결과를 나타낸 도면.2 is a diagram illustrating a result of extracting feature points from a photographed fingerprint image;

도 3은 최소 비용 트리 알고리즘을 이용하여 특징점들을 그래프 형식으로 표현한 일례를 도시한 도면.3 illustrates an example of graphical representation of feature points using a minimum cost tree algorithm.

도 4는 본 발명의 바람직한 실시예에 따른 기준 영상의 특징점과 대상 영상의 특징점의 유사도를 계산하는 일례를 도시한 도면.4 is a diagram illustrating an example of calculating the similarity between feature points of a reference image and feature points of a target image according to an exemplary embodiment of the present invention.

도 5는 본 발명의 바람직한 실시예에 따른 유사도 매트릭스에 입력되는 기준 영상과 대상 영상의 특징점들 사이의 유사도를 계산하는 방법을 도시한 순서도.FIG. 5 is a flowchart illustrating a method of calculating similarity between feature points of a reference image and a target image input to a similarity matrix according to a preferred embodiment of the present invention. FIG.

도 6a는 도 4와 같은 특징점 트리 구조를 가지고 있는 기준 영상에 대해 에지 특징값을 계산한 결과를 나타내는 매트릭스를 도시한 것이며, 도 6b는 도 4와 같은 특징점 트리 구조를 가지고 있는 대상 영상에 대해 에지 특징값을 계산한 결과를 나타내는 매트릭스를 도시한 것.FIG. 6A illustrates a matrix representing a result of calculating edge feature values for a reference image having the feature point tree structure as shown in FIG. 4, and FIG. 6B illustrates an edge for a target image having the feature point tree structure as shown in FIG. 4. A matrix showing the results of calculating feature values.

도 7은 도 5와 같은 과정을 통해 구현된 유사도 매트릭스의 일례를 도시한것.FIG. 7 illustrates an example of the similarity matrix implemented through the process of FIG. 5.

도 8은 바이퍼타이트 매칭을 유사도 매트릭스에 적용하여 적절한 매칭 조합을 결정하는 방법을 도시한 순서도.8 is a flow chart illustrating a method of applying a viperite match to a similarity matrix to determine an appropriate match combination.

도 9a 내지 도9f는 유사도 매트릭스를 이용하여 헝가리안 방법을 적용하는 일례를 나타낸 도면.9A-9F illustrate an example of applying a Hungarian method using a similarity matrix.

상기한 바와 같은 목적을 달성하기 위하여, 본 발명에 의한 바이퍼타이트 매칭을 이용한 생체 정보 인증 방법은, 촬영되는 생체 정보 영상으로부터 특징점들을 검출하는 단계(a); 상기 단계(a)에서 검출된 특징점들을 2차원 그래프 형식으로 변환하는 단계(b); 상기 단계(a)에서 검출된 각각의 특징점들의 특징 정보를 하나의 특징값으로 산출하는 단계(c); 상기 단계(c)에서 산출된 각 특징점들의 특징값을 이용하여 특징점들간의 에지 특징값을 계산하는 단계(d); 상기 단계(d)에서 계산한 에지 특징값을 이용하여 기 저장된 생체 정보 영상의 특징점들과 상기 촬영된 생체 정보 영상의 특징점들간의 유사도를 계산하여 유사도 매트릭스를 생성하는 단계(e); 상기 단계(e)에서 생성한 유사도 매트릭스에 대해 바이퍼타이트 매칭을 적용하여 기 저장된 생체 영상의 특징점들과 상기 촬영된 생체 정보 영상의 특징점들의 매칭 조합을 결정하는 단계(f); 및 상기 단계(f)에서 결정된 매칭 조합들간의 유사도를 계산하여 촬영된 생체 정보 영상이 기 저장된 생체 정보 영상과 동일한지 여부를 판단하는 단계(g)를 포함할 수 있다.In order to achieve the above object, the biometric information authentication method using the viperite matching according to the present invention comprises the steps of: (a) detecting the feature points from the photographed biometric information image; (B) converting the feature points detected in the step (a) into a two-dimensional graph format; Calculating (c) feature information of each feature point detected in step (a) as one feature value; (D) calculating edge feature values between the feature points using the feature values of the feature points calculated in step (c); (E) generating a similarity matrix by calculating similarity between feature points of the pre-stored biometric information image and feature points of the photographed biometric information image using the edge feature value calculated in step (d); (F) determining a matching combination of feature points of the pre-stored biometric image and feature points of the photographed biometric information by applying viperite matching to the similarity matrix generated in step (e); And (g) determining whether the photographed biometric information image is the same as the previously stored biometric information image by calculating similarity between the matching combinations determined in the step (f).

상기 단계(b)는 최소 비용 트리 알고리즘을 이용하여 특징값들을 그래프 형식으로 변환할 수 있다.In step (b), the feature values may be converted into a graph using a minimum cost tree algorithm.

상기 단계(c)에서 특정 특징점의 에지 특징값은 상기 단계(b)의 그래프에서 상기 특정 특징점에 연결되어 있는 다른 특징점들의 특징값과 상기 특정 특징점의특징값의 차를 이용하여 계산할 수 있다.In the step (c), the edge feature value of the specific feature point may be calculated using the difference between the feature value of the other feature points connected to the specific feature point and the feature value of the specific feature point in the graph of the step (b).

상기 단계(a)에서 검출하는 특징점은 지문의 엔딩 및 바이퍼케이션 또는 홍채의 열공일 수 있다.The feature point detected in step (a) may be the ending and viperation of the fingerprint or the tear in the iris.

상기 특징점의 특징 정보를 포함하는 특징값은 지문의 종류, 각도, 거리에 대해 설정한 값을 합한 값일 수 있다.The feature value including the feature information of the feature point may be a sum of values set for the type, angle, and distance of the fingerprint.

상기 특징점의 특징 정보를 포함하는 특징값은 홍체 열공의 종류, 각도, 거리에 대해 설정한 값을 합한 값일 수 있다.The feature value including the feature information of the feature point may be a sum of values set for the type, angle, and distance of the iris rupture.

상기 단계(e)는, 촬영된 생체 정보 영상의 특정 특징점의 에지 특징값들을 판단하는 단계; 상기 특정 특징점에 대해 유사도를 계산할 기준 영상의 특정 특징점의 에지 특징값들을 판단하는 단계; 상기 판단한 촬영된 생체 정보 영상의 에지 특징값들이 상기 기준 영상의 특정 특징점의 에지 특징값에 존재하는지 여부를 판단하는 단계; 상기 촬영된 생체 정보 영상의 에지 특징값이 기준 영상의 에지 특징값에 존재하는 경우, 에지 특징값을 유지하고, 존재하지 않는 경우에는 에지 특징값에 -1을 곱하여 에지 특징값을 재 설정하는 단계; 및 상기 재 설정된 에지 특징값들을 합하여 유사도를 계산하는 단계를 포함할 수 있다.The step (e) may include determining edge feature values of specific feature points of the photographed biometric information image; Determining edge feature values of a specific feature point of a reference image to calculate similarity with respect to the specific feature point; Determining whether edge feature values of the determined captured biometric information image exist at edge feature values of specific feature points of the reference image; Maintaining the edge feature value when the edge feature value of the photographed biometric information image is present in the edge feature value of the reference image, and resetting the edge feature value by multiplying the edge feature value by −1 if it does not exist. ; And calculating similarity by adding the reset edge feature values.

상기 단계(f)는 헝가리안 방법을 이용하여 바이퍼타이트 매칭을 적용할 수 있다.Step (f) may apply viperite matching using the Hungarian method.

상기 헝가리안 방법을 이용하여 바이퍼파이트 매칭을 적용하는 방법은, 상기 유사도 매트릭스의 각 행을 각 행의 최소값으로 빼는 단계(S1); 상기 유사도 매트릭스의 각 열을 각 열의 최소값으로 빼는 단계(S2); 각 행 및 각 열의 최소값을 뺀후의 유사도 매트릭스에 존재하는 모든 0을 포함하는 최소 라인수를 결정하는 단계(S3); 상기 최소 라인수가 상기 특징점들의 수와 일치할 경우, 각 0에 대응되는 특징점 조합을 매칭 조합으로 결정하는 단계(S4); 상기 최소 라인수가 상기 특징점들의 수와 일치하지 않을 경우, 상기 0을 포함하는 라인에 포함되지 않은 값 중 최소값을 결정하여 상기 라인에 포함되지 않은 값들을 상기 최소값으로 빼는 단계(S5); 상기 라인이 교차하는 지점의 값을 상기 최소값만큼 증가시키는 단계(S6); 모든 0을 포함할 수 있도록 최소 라인수를 다시 결정하고, 상기 다시 결정된 최소 라인수가 상기 특징점들의 수와 일치할 경우, 각 0에 대응되는 특징점 조합을 매칭 조합으로 결정하고, 일치하지 않을 경우 상기 단계 (S5) 내지 (S6)룰 반복하는 단계를 포함할 수 있다.The method of applying viperite matching using the Hungarian method includes: subtracting each row of the similarity matrix to a minimum value of each row (S1); Subtracting each column of the similarity matrix to a minimum value of each column (S2); Determining a minimum number of lines including all zeros present in the similarity matrix after subtracting the minimum of each row and each column (S3); If the minimum line number coincides with the number of feature points, determining a feature combination corresponding to each zero as a matching combination (S4); If the minimum number of lines does not match the number of feature points, determining a minimum value among values not included in the line including zero and subtracting values not included in the line as the minimum value; Increasing the value of the point at which the line intersects by the minimum value (S6); If the minimum number of lines is determined again so as to include all zeros, and if the determined minimum number of lines coincides with the number of the feature points, the combination of feature points corresponding to each zero is determined as a matching combination, and if not, the step (S5) to (S6) may include repeating the rule.

이하에서 첨부된 도면을 참조하여 본 발명에 따른 바이퍼타이트 매칭을 이용한 생체 정보 인증방법의 바람직한 실시예를 상세하게 설명한다.Hereinafter, exemplary embodiments of a biometric information authentication method using viperite matching according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 바람직한 실시예에 따른 바이퍼타이트 매칭을 이용하여 생체 정보를 인식하는 과정을 도시한 전체 순서도이다.1 is a flowchart illustrating a process of recognizing biometric information using viperite matching according to a preferred embodiment of the present invention.

도 1에 도시된 바와 같이, 우선 생체 정보의 특징점 정보를 추출한다(S100). 여기서, 생체 정보에는 지문, 홍채, 얼굴, 정맥 정보 등을 포함할 수 있을 것이다. 특징점 정보는 상기 지문 홍채 등의 정보에서 특징을 추출할 수 있는 부분에 대한 정보를 말한다. 예를 들어, 홍채의 경우 홍채에 흩어져있는 열공들의 종류 및 위치에 대한 정보, 지문의 경우에는 지문의 엔딩(ending) 및 바이퍼케이션에 대한 정보가 포함될 수 있다.As shown in FIG. 1, first, feature point information of biometric information is extracted (S100). Here, the biometric information may include fingerprint, iris, face, vein information, and the like. The feature point information refers to information on a part from which the feature can be extracted from the information such as the fingerprint iris. For example, in the case of the iris, information on the type and location of the tears scattered in the iris, and in the case of the fingerprint, may include information about the ending and the vibration of the fingerprint.

홍채의 열공 정보는 카메라로 입력되는 홍채 영상 정보의 명암 정보를 분석하여 특징점의 위치를 추출할 수 있을 것이다. 명암 정보는 그레이 스케일 등을 이용하여 추출할 수 있다.The tear information of the iris may extract the location of the feature point by analyzing the contrast information of the iris image information input to the camera. Contrast information can be extracted using a gray scale or the like.

지문의 특징점 정보를 추출하기 위해, 우선 카메라로부터 입력되는 융선을 추출하는 전처리 과정을 수행한다. 지문의 융선을 추출하기 위해 그레이 스케일 등을 이용하여 지문 영상을 이진화하며, 이진화한 영상에서 융선 부분을 세밀하게 변환한 후, 바이퍼케이션과 에딩과 같은 특징점을 추출한다.In order to extract feature point information of a fingerprint, a preprocessing process of extracting a ridge input from a camera is first performed. To extract the ridge of the fingerprint, the fingerprint image is binarized using a gray scale or the like, and after the ridge portion is finely converted from the binarized image, feature points such as viperation and edging are extracted.

도 2는 촬영된 지문 영상에서 특징점을 추출한 결과를 나타낸 도면이다.2 is a diagram illustrating a result of extracting feature points from a photographed fingerprint image.

특징점에 대한 정보를 추출한 후에는 추출한 특징점을 2차원 평면에서 그래프 형식으로 변환한다(S102).After extracting the information on the feature point, the extracted feature point is converted into a graph form in a two-dimensional plane (S102).

본 발명의 바람직한 실시예에 따르면, 특징점을 그래프 형식으로 표현하기 위해 최소 비용 트리 알고리즘을 이용한다. 최소 비용 트리 알고리즘은 각각의 특징점을 하나의 노드로 설정하고 노드들간의 거리가 최소가 되도록 노드를 연결하는 알고리즘을 말한다.According to a preferred embodiment of the present invention, a minimum cost tree algorithm is used to represent the feature points in graphical form. The minimum cost tree algorithm refers to an algorithm that sets each feature point as one node and connects nodes so that the distance between nodes is minimized.

도 3은 최소 비용 트리 알고리즘을 이용하여 특징점들을 그래프 형식으로 표현한 일례를 도시한 것이다.FIG. 3 illustrates an example in which feature points are expressed in a graph form using a minimum cost tree algorithm.

도 3은 도 2에 도시된 지문의 특징점에 대해 최소 비용 알고리즘을 적용한 것으로서, 도 3에 도시된 바와 같이, 각 특징점들은 각 노드들간의 최소 거리의 선으로 연결되어 있다.FIG. 3 is a minimum cost algorithm applied to the feature points of the fingerprint shown in FIG. 2, and as shown in FIG. 3, each feature point is connected by a line of the minimum distance between the nodes.

이와 같이, 특징점들을 그래프 형식으로 표현하는 것은 연결된 있는 특징점들간의 에지 특징값을 계산하기 위해서이다.As such, expressing feature points in graphical form is for calculating edge feature values between connected feature points.

특징점을 그래프 형식으로 변환한 후에는 특징 정보를 하나의 특징값으로 산출한다(S104).After the feature points are converted into a graph format, the feature information is calculated as one feature value (S104).

지문의 경우 특징점에 대한 특징 정보로 특징점의 종류(엔딩, 바이퍼케이션), 기준 특징점과의 각도, 기준 특징점과의 거리등에 관한 특징 정보가 있다. 홍채의 경우에는 열공의 종류, 열공의 위치 등에 대한 정보가 포함될 수 있을 것이다. 종래에는 이러한 특징 정보들을 미리 저장된 기준 영상과 인증을 하려는 대상 영상에 대해 개별적으로 각각 비교하였으나 본 발명에서는 이러한 개별 특징 정보들을 종합한 하나의 특징값을 계산하도록 한다.In the case of a fingerprint, as characteristic information on a feature point, there is feature information on the type of the feature point (ending and biperation), an angle with a reference feature point, and a distance from the reference feature point. In the case of the iris may include information about the type of tear, the location of the tear. Conventionally, these feature information are individually compared with respect to the pre-stored reference image and the target image to be authenticated, but the present invention calculates one feature value that combines the individual feature information.

예를 들어, 특징점의 종류를 X, 기준 특징점과의 각도를 Y, 기준 특징점과의 거리를 Z라고 할 경우 X+Y+Z를 계산한 값을 특징값으로 산출하는 것이다.For example, if the type of the feature point is X, the angle from the reference feature point is Y, and the distance from the reference feature point is Z, the calculated value of X + Y + Z is calculated as the feature value.

지분의 경우 특징점의 종류는 엔딩과 바이퍼케이션이 있으므로 엔딩에 대해서는 1 바이퍼케이션에 대해서는 -1을 설정하며, 각도는 측정된 각도값을 그대로 설정할 수 있으며, 거리는 실거리에 일정한 수를 곱한 값을 설정할 수 있을 것이다.In case of equity, there are two types of feature points, ending and perforation. Therefore, -1 for ending and -1 for ending, the angle can be set as it is, and the distance can be set by multiplying the real distance by a certain number. There will be.

본 발명의 또 다른 실시예에 따르면, 특징값 산출 시 각 특징 정보에 가중치를 부여하여 특징값을 산출할 수도 있다.According to another embodiment of the present invention, the feature value may be calculated by weighting each feature information when the feature value is calculated.

상기한 특징점의 종류, 각도, 거리에 대한 정보 중 특징점의 종류 정보가 가장 중요하다고 판단될 경우 특징점 종류에는 비교적 큰 가중치를 부여하고 거리나각도에는 비교적 작은 가중치를 부여하여 특징값을 계산하는 것이다.If it is determined that the type information of the feature point is the most important among the information on the type, angle, and distance of the feature point, the feature value is calculated by giving a relatively large weight to the feature point type and a relatively small weight to the distance or angle.

종류에 대한 가중치를 C1, 각도에 대한 가중치를 C2, 거리에 대한 가중치를 C3라고 할 경우, 특징값은 이러한 가중치를 고려하여 XC1+YC2+ZC3에 의해 계산될 수도 있다.When the weight for the type is C1, the weight for the angle is C2, and the weight for the distance is C3, the feature value may be calculated by XC1 + YC2 + ZC3 in consideration of these weights.

각 특징 정보를 하나의 특징값으로 산출한 후에는 유사도 매트릭스를 생성한다(S106).After calculating each feature information as one feature value, a similarity matrix is generated (S106).

유사도 매트릭스는 기준 영상의 특징점과 대상 영상의 특징점들간의 각각의 유사도를 계산하여 매트릭스로 표현한 것이다.The similarity matrix is calculated by expressing each similarity between the feature points of the reference image and the feature points of the target image as a matrix.

예를 들어, 기준 영상의 특징점이 M1~M5까지 5개가 있고 대상 영상의 특징점이 N1~N4까지 4개가 있는 경우네 (M1,N1),(M1,N2)···(M5,N4)와 같이 기준 영상의 특징점과 대상 영상의 특징점 사이에 생길 수 있는 모든 조합을 고려하여 각 조합간의 유사도를 계산하는 것이다. 유사도를 계산하는 상세한 방법에 대해서는 별도의 도면을 통해 후술하기로 한다.For example, if there are five feature points of the reference image from M1 to M5 and four feature points of the target image are from N1 to N4. Similarly, the similarity between the combinations is calculated by considering all combinations that may occur between the feature points of the reference image and the feature points of the target image. A detailed method of calculating the similarity will be described later with a separate drawing.

유사도 매트릭스를 생성한 다음에는, 유사토 매트릭스에 대해 바이퍼타이트 매칭을 수행한다(S108).After generating the similarity matrix, viperite matching is performed on the pseudo-earth matrix (S108).

바이퍼타이트 매칭은 포드-펄커슨(Ford-Fulkerson) 방법, 에드몬즈-카프(Edmonds-Karp) 방법, 디니츠(Dinitz) 방법, 골드버그 & 타잔(Goldberg and Tarjan) 방법 및 헝가리안(Hungarian) 방법 등 다양한 방법을 이용하여 수행될 수 있을 것이다. 본 발명의 바람직한 실시예에 따르면 계산이 빨리 수행될 수 있는 헝가리안 방법을 이용하여 바이퍼타이트 매칭을 수행하는 것이바람직하다.Viperite matching includes a variety of methods, including the Ford-Fulkerson method, the Edmonds-Karp method, the Dinitz method, the Goldberg and Tarjan method, and the Hungarian method. It may be performed using the method. According to a preferred embodiment of the present invention, it is preferred to perform viperite matching using a Hungarian method in which the calculation can be performed quickly.

바이퍼 타이프 매칭을 수행하면, 기준 영상의 특징점이 대상 영상의 어떠한 특징점에 매칭되는지를 판단하여 매칭 조합을 결정할 수 있다.When viper type matching is performed, a matching combination may be determined by determining which feature point of the target image matches the feature point of the target image.

매칭 조합이 결정되면, 각 매칭 조합끼리의 유사도를 계산하여 기준 영상과 대상 영상이 일치하는지 여부를 판단하여 생체 정보를 인증한다(S110).When the matching combination is determined, the degree of similarity between the matching combinations is calculated to determine whether the reference image and the target image match, and the biometric information is authenticated (S110).

도 4는 본 발명의 바람직한 실시예에 따른 기준 영상의 특징점과 대상 영상의 특징점의 유사도를 계산하는 일례를 도시한 도면이며, 도 5는 본 발명의 바람직한 실시예에 따른 유사도 매트릭스에 입력되는 기준 영상과 대상 영상의 특징점들 사이의 유사도를 계산하는 방법을 도시한 순서도이다.4 is a diagram illustrating an example of calculating a similarity between feature points of a reference image and feature points of a target image according to an exemplary embodiment of the present invention, and FIG. 5 is a reference image input to a similarity matrix according to an exemplary embodiment of the present invention. And a method for calculating the similarity between the feature points of the target image.

도 5에 도시된 바와 같이, 우선 기준 영상의 특징점들에 대해 에지 특징값을 계산한다(S500). 에지 특징값은 어느 특징점에 연결되어 있는 다른 특징점들과의 유사도를 나타내는 값이다.As shown in FIG. 5, edge feature values are first calculated for the feature points of the reference image (S500). The edge feature value is a value representing the similarity with other feature points connected to one feature point.

도 4의 경우, 기준 영상은 M1~M5의 5개의 특징점을 가지고 있으며, 대상 영상은 N1~N4의 4개의 특징점을 가지고 있다. M2는 M1 및 M3와 연결되어 있으므로 M1과의 에지 특징값 및 M3와의 에지 특징값을 계산할 수 있다. 도 4에서는 M2의 M1과의 에지 특징값을 a1으로 나타내고 있으며, M2의 M3와의 에지 특징값을 a3로 나타내고 있다.In the case of FIG. 4, the reference image has five feature points of M1 to M5, and the target image has four feature points of N1 to N4. Since M2 is connected to M1 and M3, edge feature values with M1 and edge feature values with M3 can be calculated. In FIG. 4, the edge characteristic value with M1 of M2 is shown by a1, and the edge characteristic value with M3 of M2 is shown by a3.

본 발명의 바람직한 실시예에 따르면, 에지 특징값은 각 특징점에 대해 계산한 특징값의 차로 계산할 수 있을 것이다. 예를 들어, M2의 특징값이 W2이고 M1의 특징값이 W1인 경우 M2와 M1사이의 에지 특징값인 a2는에 의해 계산할 수있을 것이다. 에지 특징값을 대응되는 양 특징점의 특징값의 차로 계산하는 것은 본 발명의 일 실시예에 불과하며 다른 방식으로 에지 특징값을 계산할 수 있다는 것은 당업자에게 있어 자명할 것이다.According to a preferred embodiment of the present invention, the edge feature values may be calculated by the difference of the feature values calculated for each feature point. For example, when the feature value of M2 is W2 and the feature value of M1 is W1, the edge feature value a2 between M2 and M1 is Will be able to calculate by. It will be apparent to those skilled in the art that calculating the edge feature value as the difference between the feature values of the corresponding two feature points is only one embodiment of the invention and the edge feature value can be calculated in other ways.

상기한 바와 같이, 기준 영상의 모든 특징점에 대해 연결되어 있는 다른 특징점 정보를 파악하고, 연결되어 있는 특징점들과의 에지 특징값을 계산한다.As described above, other feature point information connected to all the feature points of the reference image is grasped, and edge feature values with the connected feature points are calculated.

기준 영상에 대해 에지 특징 값을 계산한 후에는 대상 영상의 특징점들의 에지 특징값을 계산한다(S502).After the edge feature values are calculated for the reference image, the edge feature values of the feature points of the target image are calculated (S502).

대상 영상의 에지 특징값을 계산하는 방법은 상기한 기준 영상의 에지 특징값을 계산하는 방법과 동일하다.The method of calculating the edge feature of the target image is the same as the method of calculating the edge feature of the reference image.

도 4의 경우, 특징점 N2는 N1 및 N3와 연결되어 있으므로 N1과 N3와의 에지 특징값을 가지고 있다. 전술한 바와 같이, N1과 N2 사이의 에지 특징값인 b1은 N1과 N2의 특징값의 차로 계산하며, N2와 N3 사이의 에지 특징값인 b2는 N2와 N3의 특징값의 차로 계산한다.In the case of Fig. 4, since feature point N2 is connected to N1 and N3, it has edge feature values between N1 and N3. As described above, the edge feature value b1 between N1 and N2 is calculated as the difference between the feature values of N1 and N2, and the edge feature value b2 between N2 and N3 is calculated as the difference between the feature values of N2 and N3.

도 6a는 도 4와 같은 특징점 트리 구조를 가지고 있는 기준 영상에 대해 에지 특징값을 계산한 결과를 나타내는 매트릭스를 도시한 것이며, 도 6b는 도 4와 같은 특징점 트리 구조를 가지고 있는 대상 영상에 대해 에지 특징값을 계산한 결과를 나타내는 매트릭스를 도시한 것이다.FIG. 6A illustrates a matrix representing a result of calculating edge feature values for a reference image having the feature point tree structure as shown in FIG. 4, and FIG. 6B illustrates an edge for a target image having the feature point tree structure as shown in FIG. 4. A matrix showing the results of calculating the feature values is shown.

도 6a 및 도 6b에 도시된 바와 같이, 에지 특징값을 계산한 결과를 매트릭스로 저장하면 특정 특징점과 관계된 에지 특징값 정보를 빠르게 추출할 수 있다. 예를 들어, 기준 영상의 특징점 중 하나인 M2에 관계된 에지 특징값을 추출하기 위해M2에 대해 라인을 그으면, M2에 관계된 에지 특징값이 a1, a2 및 a3가 있다는 것을 확인할 수 있다.As illustrated in FIGS. 6A and 6B, when the edge feature values are calculated and stored as a matrix, edge feature value information related to a specific feature point may be quickly extracted. For example, if a line is drawn to M2 to extract an edge feature value related to M2, which is one of the feature points of the reference image, it can be seen that the edge feature values related to M2 are a1, a2, and a3.

기준 영상의 특정 특징점과 대상 영상의 특정 특징점의 유사도를 계산하기 위해, 기준 영상의 특정 특징점에 관계된 에지 특징값의 수를 n으로 설정하는 등 변수를 설정하는 과정이 진행된다(S504).In order to calculate the similarity between the specific feature point of the reference image and the specific feature point of the target image, a process of setting a variable such as setting the number of edge feature values related to the specific feature point of the reference image to n is performed (S504).

도 4에서, M2와 N2 사이의 유사도를 계산하려는 경우, M2에 관계된 에지 특징값이 a1, a2, a3의 세 개이므로 n=3으로 설정한다.In FIG. 4, when the similarity between M2 and N2 is to be calculated, n = 3 is set since the edge feature values related to M2 are three of a1, a2, and a3.

변수 설정이 완료되면, 기준 영상의 특정 특징점에 대한 제1 에지 특징값이 대상 영상에 존재하는지 여부를 판단한다(S504). 도 4에서 M2와 N2 사이의 유사도를 계산하는 경우, 제1 에지 특징값이 a1일 때 a1에 대응되는 에지 특징값이 N2의 에지 특징값에 존재하는지를 판단하는 것이다. 본 발명의 일 실시예에 따르면, a1의 값과 기 설정된 임계치 이하의 차이를 가지는 에지 특징값이 N2에 관계된 에지 특징값에 존재하는지 여부를 통해 판단할 수 있다.When the parameter setting is completed, it is determined whether a first edge feature value with respect to a specific feature point of the reference image exists in the target image (S504). When calculating the similarity between M2 and N2 in FIG. 4, it is determined whether an edge feature value corresponding to a1 exists in the edge feature value of N2 when the first edge feature value is a1. According to an embodiment of the present invention, it is possible to determine whether an edge feature value having a difference between the value of a1 and a predetermined threshold or less exists in the edge feature value related to N2.

도 4에서, a1과 b1은 각도 및 위치가 유사하므로 a1에 대응되는 에지 특징값인 b1이 있다고 판단할 수 있을 것이다.In FIG. 4, since a1 and b1 have similar angles and positions, it may be determined that there is an edge feature value b1 corresponding to a1.

제1 에지 특징값에 대응되는 대상 영상의 에지 특징값이 존재할 경우 제1 에지 특징값을 그대로 유지한다(S508).If there is an edge feature value of the target image corresponding to the first edge feature value, the first edge feature value is maintained as it is (S508).

제1 에지 특징값에 대응되는 대상 영상의 에지 특징값이 존재하지 않을 경우, 제1 에지 특징값에 -1을 곱한 값을 제1 에지 특징값으로 재설정한다(S510).If there is no edge feature value of the target image corresponding to the first edge feature value, the value obtained by multiplying the first edge feature value by −1 is reset to the first edge feature value (S510).

제1 에지 특징값이 대상 영상에 존재하는지 여부를 판단한 후에는, 제2 에지특징값이 존재할 경우 제2 에지 특징값에 대해서도 같은 과정을 반복한다.After determining whether the first edge feature value exists in the target image, if the second edge feature value exists, the same process is repeated for the second edge feature value.

도 4의 M2의 에지 특징값중 하나인 a3를 제2 에지 특징값으로 설정한 경우, a3의 값과 기 설정된 임계치 이하의 차이를 보이는 에지 특징값이 N2와 관계된 에지 특징값에 존재하는지를 판단한다.When a3, which is one of the edge feature values of M2 of FIG. 4, is set as the second edge feature value, it is determined whether an edge feature value having a difference between the value of a3 and a predetermined threshold or less exists in the edge feature value associated with N2. .

도 4에서 a3의 각도와 유사한 에지 특징값이 N2에 존재하지 않으므로 a3가 N2의 에지 특징값에 존재하지 않는다고 판단될 것이며, 이 경우에는, 전술한 바와 같이, 제2 에지 특징값인 a3에 -1을 곱한 값을 제2 에지 특징값으로 다시 설정한다.In FIG. 4, since the edge feature similar to the angle of a3 is not present at N2, it will be determined that a3 is not present at the edge feature of N2, and in this case, as described above, The value multiplied by 1 is reset to the second edge feature value.

기준 영상의 특정 특징점에 대한 에지 특징값들을 상기한 방법에 의해 재 설정한 후에는 재 설장한 에지 특징값들을 모두 더하고, 그 값을 기준 영상의 특정 특징점과 대상 영상의 특정 특징점과의 유사도로 설정한다(S512).After resetting the edge feature values for a specific feature point of the reference image by the method described above, all the reset feature values are added, and the value is set as the similarity between the specific feature point of the reference image and the specific feature point of the target image. (S512).

도 4의 M2와 N2 사이의 유사도를 계산하는 과정에서, M2에 관계된 에지 특징값들인 a1, a2, a3에 대해 a1 및 a2에 대응되는 에지 특징값이 N2에 존재하고 a3에 대응되는 에지 특징값이 존재하지 않는 경우 유사도는 도 4에 도시된 바와 같이 a1+a2-a3로 계산될 수 있을 것이다.In the process of calculating the similarity between M2 and N2 in FIG. 4, edge feature values corresponding to a1 and a2 exist in N2 and edge feature values corresponding to a3 for edge features a1, a2, and a3 related to M2. If not present, the similarity may be calculated as a1 + a2-a3 as shown in FIG. 4.

유사도로 설정된 값은 유사도 매트릭스에 입력되며, 상기 도 5에 도시된 과정은 기준 영상의 특징점과 대상 영상의 특징점 사이에 생길 수 있는 모든 조합에 대해 수행되어 유사도 매트릭스를 구현한다.The value set as the similarity is input to the similarity matrix, and the process illustrated in FIG. 5 is performed for all combinations that may occur between the feature point of the reference image and the feature point of the target image to implement the similarity matrix.

도 7은 도 5와 같은 과정을 통해 구현된 유사도 매트릭스의 일례를 도시한 것이다.FIG. 7 illustrates an example of the similarity matrix implemented through the process of FIG. 5.

도7에 도시된 바와 같이, 유사도 매트릭스에는 기준 영상의 특징점들과 대상 영상의 특징점들의 모든 조합에 대해 계산한 유사도가 입력된다.As shown in FIG. 7, the similarity matrix calculated for all combinations of the feature points of the reference image and the feature points of the target image is input to the similarity matrix.

도 8은 바이퍼타이트 매칭을 유사도 매트릭스에 적용하여 적절한 매칭 조합을 결정하는 방법을 도시한 순서도이다.8 is a flow chart illustrating a method of determining an appropriate match combination by applying viperite matching to a similarity matrix.

도 8은 바이퍼타이트 매칭 중 헝가리안(Hungarian) 방법을 이용하여 바이퍼타이트 매칭을 수행하는 일례를 나타낸 것이며, 전술한 바와 같이 다른 다양한 바이퍼타이트 매칭 방법이 사용될 수 있다는 것은 당업자에게 있어 자명할 것이다.FIG. 8 illustrates an example of performing viperite matching using a Hungarian method among viperite matching, and it will be apparent to those skilled in the art that various other viperite matching methods may be used as described above.

도 8에 도시된 바와 같이, 우선 유사도 매트릭스에 각 행에 있는 값들을 각 행의 최소값으로 뺀다(S800).As shown in FIG. 8, first, values in each row are subtracted from the similarity matrix as the minimum value of each row (S800).

도 9a는 도 7에 도시된 유사도 매트릭스에서 각 행에 있는 값들을 각 행의 최소값으로 뺀 일례를 도시한 것이다.FIG. 9A illustrates an example of subtracting the values in each row from the similarity matrix illustrated in FIG. 7 by the minimum value of each row.

각 행을 각 행의 최소값으로 뺀 후에는, 각 열에 있는 값들을 각 열의 최소값으로 뺀다(S802). 도 9b는 도 9a 도시된 유사도 매트릭스에서 각 열에 있는 값들을 각 열의 최소값으로 뺀 일례를 도시한 것이다.After subtracting each row to the minimum value of each row, the values in each column are subtracted to the minimum value of each column (S802). FIG. 9B illustrates an example of subtracting the values in each column from the similarity matrix shown in FIG. 9A by the minimum value of each column.

상기 단계(S800~S802)를 통해 변화된 유사도 매트릭스에서 모든 0을 포함할 수 있는 최소 라인수를 결정한다(S804). 도 9c에는 변화된 유사도 매트릭스에서 0을 포함하는 최소 라인수를 결정하는 일례가 도시되어 있다.The minimum number of lines that may include all zeros in the similarity matrix changed through the steps S800 to S802 is determined (S804). 9C shows an example of determining the minimum number of lines including zero in the changed similarity matrix.

0을 포함할 수 있는 최소 라인 수가 특징점수와 일치할 경우에는 매트릭스에 존재하는 각 0에 대응되는 조합을 매칭 조합으로 결정한다(S808).If the minimum number of lines that may include zero matches the feature score, a combination corresponding to each zero existing in the matrix is determined as a matching combination (S808).

0을 포함할 수 있는 최소 라인 수가 특징점의 수와 일치하지 않으면, 상기단계(S804)에서 그은 라인에 포함되지 않은 값 중에서의 최소값을 판단한다(S810).If the minimum number of lines that may include 0 does not match the number of feature points, in step S804, a minimum value among values not included in the line is determined (S810).

최소값이 판단되면, 라인에 포함되지 않은 값들을 최소값으로 뺀다(S812). 도 9d는 도 9c의 매트릭스에서 라인에 포함되지 않은 최소값인 1로 라인에 포함되지 않은 값들을 더한 매트릭스를 도시한 것이다.If the minimum value is determined, the values not included in the line are subtracted to the minimum value (S812). FIG. 9D illustrates a matrix of values not included in a line by 1, which is a minimum value not included in a line in the matrix of FIG. 9C.

라인에 포함되지 않은 값들을 최소값으로 뺀 후에는 라인이 교차하는 지점의 값을 상기 최소값만큼 증가시킨다(S814). 도 9e는 도 9d의 매트릭스에서 라인이 교차하는 지점의 값을 최소값인 1만큼 증가시킨 매트릭스를 도시한 것이다.After subtracting values not included in the line to the minimum value, the value at the point where the line crosses is increased by the minimum value (S814). FIG. 9E illustrates a matrix in which the value of the point where the lines intersect in the matrix of FIG. 9D is increased by a minimum value of 1. FIG.

이후, 변화된 매트릭스에서 모든 0을 포함할 수 있도록 최소 라인 수를 결정하는 단계(S806)를 다시 수행한다.Thereafter, step S806 is again performed to determine the minimum number of lines to include all zeros in the changed matrix.

최소 라인 수가 특징점의 수와 일치하면, 매트릭스에 존재하는 각 0에 대응되는 조합을 매칭 조합으로 결정한다(S808). 도 9f는 도 9e에 도시된 매트릭스에 모든 0을 포함하도록 라인을 그은 일례를 도시한 것이다.If the minimum number of lines matches the number of feature points, a combination corresponding to each zero existing in the matrix is determined as a matching combination (S808). FIG. 9F shows an example of a line drawn to include all zeros in the matrix shown in FIG. 9E.

도 9f에서 기준 영상 및 대상 영상의 특징점의 수는 5개이고, 모든 0을 포함하는 최소 라인수가 5개이므로 매칭 조합을 결정할 수 있다. 각 0에 대응하는 조합이 매칭조합이므로, 도 5에서는 (M1,N1), (M2,N2), (M3,N4), (M4,N3), (M5,M5)가 매칭 조합으로 선정된다.In FIG. 9F, since the number of feature points of the reference image and the target image is five and the minimum number of lines including all zeros is five, a matching combination may be determined. Since the combination corresponding to each zero is a matching combination, in Fig. 5, (M1, N1), (M2, N2), (M3, N4), (M4, N3), and (M5, M5) are selected as matching combinations.

매칭 조합이 결정되면, 각 매칭 조합끼리의 유사도를 계산하고 이를 더한 값을 판단하여 대상 영상에 해당하는 사용자의 생체정보를 인증한다.When the matching combinations are determined, the similarity of each matching combination is calculated, and the added value is determined to authenticate the biometric information of the user corresponding to the target image.

이상에서 설명한 바와 같이, 본 발명에 따른 바이퍼타이트 매칭을 적용한 생체 정보 인증 방법에 의하면, 기준 영상의 특징점과 대상 영상의 특징점의 모든 조합을 일일이 비교하여 매칭 조합을 결정하지 않아도 되므로 매칭에 소요되는 시간 및 계산량을 크게 줄일 수 있는 장점이 있다.As described above, according to the biometric information authentication method using the viperite matching according to the present invention, it is not necessary to determine the matching combination by comparing all combinations of the feature points of the reference image and the feature points of the target image, and thus the time required for matching. And there is an advantage that can greatly reduce the amount of calculation.

Claims (10)

생체 정보를 인증하는 방법에 있어서,In the method for authenticating biometric information, 촬영되는 생체 정보 영상으로부터 특징점들을 검출하는 단계(a);Detecting a feature point from the photographed biometric information image (a); 상기 단계(a)에서 검출된 특징점들을 2차원 그래프 형식으로 변환하는 단계(b);(B) converting the feature points detected in the step (a) into a two-dimensional graph format; 상기 단계(a)에서 검출된 각각의 특징점들의 특징 정보를 하나의 특징값으로 산출하는 단계(c);Calculating (c) feature information of each feature point detected in step (a) as one feature value; 상기 단계(c)에서 산출된 각 특징점들의 특징값을 이용하여 특징점들간의 에지 특징값을 계산하는 단계(d);(D) calculating edge feature values between the feature points using the feature values of the feature points calculated in step (c); 상기 단계(d)에서 계산한 에지 특징값을 이용하여 기 저장된 생체 정보 영상의 특징점들과 상기 촬영된 생체 정보 영상의 특징점들간의 유사도를 계산하여 유사도 매트릭스를 생성하는 단계(e);(E) generating a similarity matrix by calculating similarity between feature points of the pre-stored biometric information image and feature points of the photographed biometric information image using the edge feature value calculated in step (d); 상기 단계(e)에서 생성한 유사도 매트릭스에 대해 바이퍼타이트 매칭을 적용하여 기 저장된 생체 영상의 특징점들과 상기 촬영된 생체 정보 영상의 특징점들의 매칭 조합을 결정하는 단계(f); 및(F) determining a matching combination of feature points of the pre-stored biometric image and feature points of the photographed biometric information by applying viperite matching to the similarity matrix generated in step (e); And 상기 단계(f)에서 결정된 매칭 조합들간의 유사도를 계산하여 촬영된 생체 정보 영상이 기 저장된 생체 정보 영상과 동일한지 여부를 판단하는 단계(g)를 포함하는 것을 특징으로 하는 바이퍼타이트 매칭을 이용한 생체 정보 인증 방법.And (g) determining whether the photographed biometric information image is the same as the previously stored biometric information image by calculating similarity between the matching combinations determined in the step (f). Information authentication method. 제1항에 있어서,The method of claim 1, 상기 단계(b)는 최소 비용 트리 알고리즘을 이용하여 특징값들을 그래프 형식으로 변환하는 것임을 특징으로 하는 바이퍼타이트 매칭을 이용한 생체 정보 인증 방법.The step (b) is a biometric information authentication method using viperite matching, characterized in that for converting the feature values in a graph form using a minimum cost tree algorithm. 제1항에 있어서,The method of claim 1, 상기 단계(c)에서 특정 특징점의 에지 특징값은 상기 단계(b)의 그래프에서 상기 특정 특징점에 연결되어 있는 다른 특징점들의 특징값과 상기 특정 특징점의 특징값의 차를 이용하여 계산하는 것임을 특징으로 하는 바이퍼타이트 매칭을 이용한 생체 정보 인증 방법.In the step (c), the edge feature value of the specific feature point is calculated using the difference between the feature value of the feature value of the specific feature point and other feature points connected to the specific feature point in the graph of the step (b). Biometric information authentication method using the viperite matching. 제1항에 있어서,The method of claim 1, 상기 단계(a)에서 검출하는 특징점은 지문의 엔딩 및 바이퍼케이션임을 특징으로 하는 바이퍼타이트 매칭을 이용한 생체 정보 인증 방법.The method of detecting biometric information using viperite matching, characterized in that the feature points detected in step (a) are the ending and the vibration of the fingerprint. 제1항에 있어서,The method of claim 1, 상기 단계(a)에서 검출하는 특징점은 홍채의 열공인 것을 특징으로 하는 바이퍼타이트 매칭을 이용한 생체 정보 인증 방법.The feature point detected in step (a) is a biometric information authentication method using viperite matching, characterized in that the tear of the iris. 제1항에 있어서,The method of claim 1, 상기 특징점의 특징 정보를 포함하는 특징값은 지문의 종류, 각도, 거리에 대해 설정한 값을 합한 값임을 특징으로 하는 바이퍼타이트 매칭을 이용한 생체 정보 인증 방법.The feature value including the feature information of the feature point is a sum of the values set for the type, angle, and distance of the fingerprint biometric information authentication method using viperite matching. 제1항에 있어서,The method of claim 1, 상기 특징점의 특징 정보를 포함하는 특징값은 홍체 열공의 종류, 각도, 거리에 대해 설정한 값을 합한 값임을 특징으로 하는 바이퍼타이트 매칭을 이용한 생체 정보 인증 방법.The feature value including the feature information of the feature point is a biometric information authentication method using viperite matching, characterized in that the sum of the value set for the type, angle, distance of the iris rupture. 제1항에 있어서,The method of claim 1, 상기 단계(e)는,Step (e), 촬영된 생체 정보 영상의 특정 특징점의 에지 특징값들을 판단하는 단계;Determining edge feature values of specific feature points of the photographed biometric information image; 상기 특정 특징점에 대해 유사도를 계산할 기준 영상의 특정 특징점의 에지 특징값들을 판단하는 단계;Determining edge feature values of a specific feature point of a reference image to calculate similarity with respect to the specific feature point; 상기 판단한 촬영된 생체 정보 영상의 에지 특징값들이 상기 기준 영상의 특정 특징점의 에지 특징값에 존재하는지 여부를 판단하는 단계;Determining whether edge feature values of the determined captured biometric information image exist at edge feature values of specific feature points of the reference image; 상기 촬영된 생체 정보 영상의 에지 특징값이 기준 영상의 에지 특징값에 존재하는 경우, 에지 특징값을 유지하고, 존재하지 않는 경우에는 에지 특징값에 -1을 곱하여 에지 특징값을 재 설정하는 단계; 및Maintaining the edge feature value when the edge feature value of the photographed biometric information image is present in the edge feature value of the reference image, and resetting the edge feature value by multiplying the edge feature value by −1 if it does not exist. ; And 상기 재 설정된 에지 특징값들을 합하여 유사도를 계산하는 단계를 포함하는 것을 특징으로 하는 바이퍼타이트 매칭을 이용한 생체 정보 인증 방법.And calculating similarity by adding the reset edge feature values. 제1항에 있어서,The method of claim 1, 상기 단계(f)는 헝가리안 방법을 이용하여 바이퍼타이트 매칭을 적용하는 것임을 특징으로 하는 바이퍼타이트 매칭을 이용한 생체 정보 인증 방법.Step (f) is a method of authenticating biometrics using viperite matching, characterized in that to apply the viperite matching using the Hungarian method. 제9항에 있어서,The method of claim 9, 상기 헝가리안 방법을 이용하여 바이퍼파이트 매칭을 적용하는 방법은,The method of applying viperitet matching using the Hungarian method, 상기 유사도 매트릭스의 각 행을 각 행의 최소값으로 빼는 단계(S1);Subtracting each row of the similarity matrix to a minimum value of each row (S1); 상기 유사도 매트릭스의 각 열을 각 열의 최소값으로 빼는 단계(S2);Subtracting each column of the similarity matrix to a minimum value of each column (S2); 각 행 및 각 열의 최소값을 뺀 후의 유사도 매트릭스에 존재하는 모든 0을 포함하는 최소 라인수를 결정하는 단계(S3);Determining a minimum number of lines including all zeros present in the similarity matrix after subtracting the minimum of each row and each column (S3); 상기 최소 라인수가 상기 특징점들의 수와 일치할 경우, 각 0에 대응되는 특징점 조합을 매칭 조합으로 결정하는 단계(S4);If the minimum line number coincides with the number of feature points, determining a feature combination corresponding to each zero as a matching combination (S4); 상기 최소 라인수가 상기 특징점들의 수와 일치하지 않을 경우, 상기 0을 포함하는 라인에 포함되지 않은 값 중 최소값을 결정하여 상기 라인에 포함되지 않은 값들을 상기 최소값으로 빼는 단계(S5);If the minimum number of lines does not match the number of feature points, determining a minimum value among values not included in the line including zero and subtracting values not included in the line as the minimum value; 상기 라인이 교차하는 지점의 값을 상기 최소값만큼 증가시키는 단계(S6);Increasing the value of the point at which the line intersects by the minimum value (S6); 모든 0을 포함할 수 있도록 최소 라인수를 다시 결정하고, 상기 다시 결정된 최소 라인수가 상기 특징점들의 수와 일치할 경우, 각 0에 대응되는 특징점 조합을 매칭 조합으로 결정하고, 일치하지 않을 경우 상기 단계 (S5) 내지 (S6)룰 반복하는 단계를 포함하는 것을 특징으로 하는 바이퍼타이트 매칭을 적용한 생체 정보 인증 방법.If the minimum number of lines is determined again so as to include all zeros, and if the determined minimum number of lines coincides with the number of the feature points, the combination of feature points corresponding to each zero is determined as a matching combination, and if not, the step (S5) to (S6) rules of the biometric information applying the viperite matching, characterized in that it comprises the step of repeating.
KR10-2002-0020094A 2002-04-12 2002-04-12 Method for Identifying Biological Information Using Bipartite Matching KR100442542B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0020094A KR100442542B1 (en) 2002-04-12 2002-04-12 Method for Identifying Biological Information Using Bipartite Matching

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0020094A KR100442542B1 (en) 2002-04-12 2002-04-12 Method for Identifying Biological Information Using Bipartite Matching

Publications (2)

Publication Number Publication Date
KR20030038306A true KR20030038306A (en) 2003-05-16
KR100442542B1 KR100442542B1 (en) 2004-07-30

Family

ID=29578099

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0020094A KR100442542B1 (en) 2002-04-12 2002-04-12 Method for Identifying Biological Information Using Bipartite Matching

Country Status (1)

Country Link
KR (1) KR100442542B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116430865A (en) * 2023-04-17 2023-07-14 北方工业大学 Multi-machine collaborative trapping method under uncertain probability framework

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010087886A1 (en) * 2009-01-27 2010-08-05 Gannon Technologies Group Llc Systems and methods for graph-based pattern recognition technology applied to the automated identification of fingerprints

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5841958A (en) * 1995-01-19 1998-11-24 Nec Research Institute, Inc. Bipartite matching
KR100299858B1 (en) * 1999-03-19 2001-09-26 이영익 fingerprint matching method
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
KR100393753B1 (en) * 2002-02-28 2003-08-02 Smart Technology Co Ltd Method for recognizing fingerprint using dual mode matching

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116430865A (en) * 2023-04-17 2023-07-14 北方工业大学 Multi-machine collaborative trapping method under uncertain probability framework

Also Published As

Publication number Publication date
KR100442542B1 (en) 2004-07-30

Similar Documents

Publication Publication Date Title
Gonzalez-Rodriguez et al. Bayesian analysis of fingerprint, face and signature evidences with automatic biometric systems
JP4128570B2 (en) Biometric information verification device
US7151846B1 (en) Apparatus and method for matching fingerprint
Iranmanesh et al. Online handwritten signature verification using neural network classifier based on principal component analysis
Malarvizhi et al. Adaptive fuzzy genetic algorithm for multi biometric authentication
JPWO2010004958A1 (en) Personal authentication system, personal authentication method
JP6900664B2 (en) Image processing equipment, image processing method and image processing program
Polat et al. Hand geometry identification without feature extraction by general regression neural network
US20140355847A1 (en) Identifier investigation
WO2019167784A1 (en) Position specifying device, position specifying method, and computer program
KR20190070179A (en) Device and method to register user
Prakash et al. Continuous user authentication using multimodal biometric traits with optimal feature level fusion
KR20020077192A (en) Pattern-collating device, pattern-collating method and pattern-collating program
WO2014132570A1 (en) Authentication device, authentication method and program storage medium
KR100442542B1 (en) Method for Identifying Biological Information Using Bipartite Matching
WO2018079851A1 (en) Skin information processing program and skin information processing device
Ibrahim et al. A hyprid technique for human footprint recognition
WO2019004291A1 (en) Authentication device, authentication method and computer program
Vishi et al. A new approach for multi-biometric fusion based on subjective logic
JP6079440B2 (en) Authentication apparatus, authentication method, and authentication program
KR20210071410A (en) Sensor-specific image recognition device and method
US11816879B2 (en) Bias evaluation of a biometric identification function
Szymkowski et al. A novel approach to fingerprint identification using method of sectorization
CN111209551B (en) Identity authentication method and device
JP6981249B2 (en) Biometric device, biometric program, and biometric method

Legal Events

Date Code Title Description
A201 Request for examination
G15R Request for early opening
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20080630

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee