KR20100018279A - Method for capturing bio-metrics information using finger-vein recognition - Google Patents
Method for capturing bio-metrics information using finger-vein recognition Download PDFInfo
- Publication number
- KR20100018279A KR20100018279A KR1020080076977A KR20080076977A KR20100018279A KR 20100018279 A KR20100018279 A KR 20100018279A KR 1020080076977 A KR1020080076977 A KR 1020080076977A KR 20080076977 A KR20080076977 A KR 20080076977A KR 20100018279 A KR20100018279 A KR 20100018279A
- Authority
- KR
- South Korea
- Prior art keywords
- value
- region
- vein
- finger vein
- weight
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/14—Vascular patterns
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Probability & Statistics with Applications (AREA)
- Human Computer Interaction (AREA)
- Collating Specific Patterns (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
Description
본 발명은 바이오 인식(bio-metrics) 방법에 관한 것으로, 특히 혈관 영역을 추출하는 과정을 생략하고, 취득된 손가락 정맥 영상에서 미리 정해진 크기의 로컬(local) 영역에 대하여 밝기의 평균과 표준편차를 이용하여 혈관영역을 판단하고, 이에 인식 가중치를 부여함으로써, 보다 빠르고 정확한 바이오 인식을 하기 위한 방법에 관한 것이다.The present invention relates to a bio-metrics method, and in particular, the process of extracting a blood vessel region is omitted, and the average and standard deviation of brightness are calculated for a local region of a predetermined size in the acquired finger vein image. The present invention relates to a method for faster and more accurate bio-recognition by determining a blood vessel region and assigning a recognition weight thereto.
일반적으로 바이오 인식이란 인간의 생리학적 또는 행동학적 특징을 이용하여 개인을 인식하는 방법이다. 대표적인 기술로는 지문, 얼굴, 홍채, 손가락 정맥, 서명, 화자 인식 등이 있다. 이러한 방법 중 손가락 정맥 인식은 높은 인식 성능을 가지며, 사용자의 거부감과 불편함이 적고 인식시간이 빠르다는 장점을 가지고 있다.In general, bio-recognition is a method of recognizing an individual using human physiological or behavioral characteristics. Typical technologies include fingerprints, faces, irises, finger veins, signatures, and speaker recognition. Among these methods, finger vein recognition has the advantage of high recognition performance, less discomfort and inconvenience of the user, and faster recognition time.
종래의 기술에서는 손가락 정맥의 위치를 검출한 후, 이를 기반으로 특징을 추출하여 인식에 사용하는 방법은 다음의 자료에서 자세한 설명을 얻을 수 있다.In the prior art, a method of detecting a location of a finger vein and extracting a feature based on the location of a finger vein can be obtained in the following data.
[1] T. Yanagawa, S. Aoki, and T. Ohyama, “Human Finger Vein Images Are Diverse And Its Patterns Are Useful for Personal Identification”, MHF 2007-12, pp. 1-7, 2007.[1] T. Yanagawa, S. Aoki, and T. Ohyama, “Human Finger Vein Images Are Diverse And Its Patterns Are Useful for Personal Identification”, MHF 2007-12, pp. 1-7, 2007.
[2] N. Miura, A. Nagasaka, and T. Miyatake, "Feature Extraction of Finger-Vein Patterns Based on Repeated Line Tracking and Its Application to Personal Identification", Machine Vision and Applications, vol. 15, pp. 194-203, 2004.[2] N. Miura, A. Nagasaka, and T. Miyatake, "Feature Extraction of Finger-Vein Patterns Based on Repeated Line Tracking and Its Application to Personal Identification", Machine Vision and Applications, vol. 15, pp. 194-203, 2004.
[3] Z. Zhang, S. Ma, and X. Han, "Multiscale Feature Extraction of Finger-Vein Patterns Based on Curvelets and Local Interconnection Structure Neural Network", The 18th International Conference on Pattern Recognition (ICPR'06), pp. 145-148, 2006.[3] Z. Zhang, S. Ma, and X. Han, "Multiscale Feature Extraction of Finger-Vein Patterns Based on Curvelets and Local Interconnection Structure Neural Network", The 18th International Conference on Pattern Recognition (ICPR'06), pp. . 145-148, 2006.
[4] N. Miura, A. Nagasaka, and T. Miyatake, "Extraction of Finger-Vein Patterns Using Maximum Curvature Points in Image Profiles", IEICE TRANS. INF. & SYST., vol. E90-D, no. 8, pp. 1185-1194, 2007.[4] N. Miura, A. Nagasaka, and T. Miyatake, "Extraction of Finger-Vein Patterns Using Maximum Curvature Points in Image Profiles", IEICE TRANS. INF. & SYST., Vol. E90-D, no. 8, pp. 1185-1194, 2007.
즉, 인간의 손가락 정맥으로 본인여부를 판별할 수 있다는 개념은 Yanagawa의 연구에 의해 입증되었다[1]. Yanagawa의 연구에 따르면 각 개인마다 열손가락의 정맥 패턴이 모두 다르며 하나의 손가락 정맥 패턴은 신뢰도가 매우 높은 홍채 패턴과 유사한 자유도로서 개인 인증에 적합하다고 한다[1]. In other words, the concept that the human finger can be identified by the finger vein has been proved by Yanagawa's research [1]. According to Yanagawa's research, each person's vein pattern of ten fingers is different, and one finger vein pattern is suitable for personal authentication with similar degrees of freedom as the highly reliable iris pattern [1].
또한, Miura는 손가락 영상의 다양한 위치에서부터 시작하는 정맥 선 추적을 통해, 경계가 뚜렷하지 않은 정맥 패턴을 추출하는 방법을 제안했으며, 실험 결과 0.145%의 평균 인식 에러를 보였으며, 처리 시간은 460(ms)로 나타났다[2]. In addition, Miura proposed a method to extract vein patterns with unbounded borders by vein line tracing starting from various locations on the finger image, and the experimental results showed an average recognition error of 0.145%. ms) [2].
그리고 Zhang은 curvelet과 local Interconnection Structure Neural Networks에 기반으로 손가락 정맥 패턴 추출 방법을 제안하였으며, Miura의 매칭 방법을 사용한 실험결과 0.128%의 평균 에러율을 보였다[3]. Zhang proposed a finger vein pattern extraction method based on curvelet and local interconnection structure Neural Networks, and the average error rate was 0.128% based on Miura's matching method [3].
한편, Miura의 최근 연구에서는 날씨 또는 사람의 컨디션에 따라 정맥의 혈류량 변화에 의해, 패턴의 굵기가 가변적일 수 있다는 사실에 기반하여, 다양한 굵기의 정맥 패턴을 효율적으로 추출하는 방법을 제안하였으며, 평균 인식 오차 0.0009%의 우수한 성능을 나타냈다[4].Meanwhile, a recent study by Miura suggested a method for efficiently extracting vein patterns of various thicknesses, based on the fact that the thickness of the pattern may vary due to changes in vein blood flow depending on weather or human condition. Recognition error of 0.0009% showed excellent performance [4].
이와 같은 종래의 카메라 기반의 손가락 정맥 인식 방법에서는 손가락 정맥의 위치를 검출하지 않고, 특징을 추출하여 인식에 사용하는 연구는 진행된 바 없으며, 손가락 정맥의 위치를 취득된 영상의 피부 영역으로부터 추출한 후, 인식에 사용하는 방법이 사용된다.The conventional camera-based finger vein recognition method does not detect the position of the finger vein, and studies have been conducted to extract the feature and use it for recognition. After extracting the position of the finger vein from the skin region of the acquired image, The method used for recognition is used.
하지만 이런 종래의 방법들은 뚜렷하지 않은 경계를 가지는 정맥 영역 추출을 위한 계산 시간이 오래 걸리며, 두꺼운 피부 또는 손가락 골격에 의해 생기는 어두운 영역에 의해 정맥 영역이 정확하게 추출되지 않을 수 있다는 문제점이 있다. 또한 피부 영역에 비해 정맥의 패턴이 차지하는 면적의 비율이 매우 낮고, 정맥 패턴의 교차점 또는 끝점 또한 많지가 않아 높은 인식률을 보장할 수 없다. However, these conventional methods require a long calculation time for extracting vein regions having inconspicuous boundaries, and there is a problem in that vein regions may not be accurately extracted by dark regions caused by thick skin or finger skeletons. In addition, the ratio of the area occupied by the vein pattern compared to the skin area is very low, and there are not many intersections or end points of the vein pattern, and thus high recognition rate cannot be guaranteed.
이러한 문제점들을 해결하기 위해, 정확하고 빠른 정맥 영역 추출에 대한 연구가 계속적으로 진행되고 있지만, 아직까지 이러한 문제점들에 따른 근본적인 문제를 해결하지 못하고 있는 실정이다.In order to solve these problems, studies on accurate and rapid vein area extraction have been continuously conducted, but have not solved the fundamental problem according to these problems.
따라서 본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 지정맥 패턴을 검출하는 별도의 추가적인 과정 없이도 로컬(local) 영역 단위로 정맥의 포함여부를 반영시키며, 아울러 불균일한 조명의 영향에 독립적인 지정맥을 이용한 빠르고 정확한 바이오 인식 방법을 제공하는데 그 목적이 있다.Accordingly, the present invention is to solve the above problems, reflecting whether the vein is included in the unit of the local area without any additional process of detecting the finger vein pattern, and designation independent of the influence of uneven illumination The purpose is to provide a fast and accurate biometric recognition method using a Mac.
본 발명의 다른 목적은 정맥의 추출 단계를 거치지 않는 방법에 기반하므로, 처리시간 단축을 통해 인식에 필요한 시간을 감소시켜서 인식을 시도하는 사용자의 편의성과 지정맥 인식 시스템의 효율성을 향상시킬 수 있는 지정맥 인식을 이용한 바이오 인식 방법을 제공하는데 있다.Another object of the present invention is based on a method that does not go through the extraction step of the vein, the designation that can improve the efficiency of the user and attempt to improve the efficiency of the finger vein recognition system by reducing the time required for recognition by reducing the processing time The present invention provides a biometric recognition method using MAC recognition.
본 발명의 또 다른 목적은 정맥의 정확한 위치에 기반한 특징 추출 방법을 사용하지 않기 때문에, 두꺼운 피부나 골격에 대해 생기는 그림자에 큰 영향을 받지 않을 수 있는 지정맥 인식을 이용한 바이오 인식 방법을 제공하는데 있다.Still another object of the present invention is to provide a biometric recognition method using finger vein recognition, which does not use the feature extraction method based on the exact location of the vein, and thus may not be greatly affected by the shadows on thick skin or skeleton. .
상기와 같은 목적을 달성하기 위한 본 발명에 따른 지정맥 인식을 이용한 바이오 인식 방법의 특징은 적외선 조명과 카메라를 구비하는 바이오 인식 정보 취득 장치를 이용하여 취득된 지정맥 영상을 기반으로 미리 정해진 크기의 로컬 영역에서 지정맥 인식을 위한 특징 값을 추출하는 단계와, 상기 로컬 영역 단위로 취득된 지정맥 영상을 통해 계산된 각 로컬 영역의 밝기 값의 평균 및 표준편차를 기반으로 정맥을 포함하는 영역과 피부영역으로 구분하는 단계와, 상기 구분 결과, 정맥을 포함하는 영역인 경우, 해당 영역에서 추출된 특징 값에 상대적으로 높은 제 1 가중치를 부여하고, 피부영역일 경우, 해당 영역에서 추출된 특징 값에 상대적으로 상기 제 1 가중치보다 낮은 제 2 가중치를 부여하는 단계와, 상기 가중치를 반영한 특징 값을 기반으로 기 저장된 바이오 정보와 취득된 사용자의 지정맥 영상을 서로 매칭시켜 개인 인증을 수행하는 단계를 포함하는데 있다.A feature of the biorecognition method using the finger vein recognition according to the present invention for achieving the above object is of a predetermined size based on the finger vein image acquired using a biometric information acquisition device having an infrared light and a camera. Extracting feature values for finger vein recognition in a local region, a region including a vein based on an average and a standard deviation of brightness values of each local region calculated from the finger vein images acquired in units of the local region; Dividing the skin into regions, and in the case of the region including the vein, a first weight is given to the feature value extracted from the region, and in the case of the skin region, the feature value extracted from the region. Giving a second weight lower than the first weight to and based on a feature value reflecting the weight. To each other, matching the pre-stored specification of the user acquires the vein image in which the biometric data is to include a step of performing individual authentication.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 지정맥 인식을 이용한 바이오 인식 방법의 다른 특징은 적외선 조명과 카메라를 구비하는 바이오 인식 정보 취득 장치를 이용하여 취득된 지정맥 영상을 기반으로 미리 정해진 크기의 로컬 영역에서 지정맥 인식을 위한 특징 값을 추출하는 단계와, 상기 로컬 영역 단위로 취득된 지정맥 영상을 통해 계산된 각 로컬 영역의 밝기 값의 평균 및 표준편차를 기반으로 정맥을 포함하는 영역과 피부영역과 미 결정영역으로 구분하는 단계와, 상기 구분 결과, 정맥을 포함하는 영역인 경우, 해당 영역에서 추출된 특징 값에 상대적으로 높은 제 1 가중치를 부여하고, 피부영역일 경우, 해당 영역에서 추출된 특징 값에 상대적으로 낮은 제 2 가중치를 부여하고, 미 결정영역일 경우 상기 제 1 가중치보다는 낮고, 상기 제 2 가중치보다는 높은 제 3 가중치를 부여하는 단계와, 상기 가중치를 반영한 특징 값을 기반으로 기 저장된 바이오 정보와 취득된 사용자의 지정맥 영상을 서로 매칭시켜 개인 인증을 수행하는 단계를 포함하는 것을 특징으로 한다.Another feature of the biorecognition method using the finger vein recognition according to the present invention for achieving the above object is a predetermined size based on the finger vein image acquired using a biometric information acquisition device having an infrared illumination and a camera Extracting feature values for finger vein recognition in a local region of the region, and an area including a vein based on the average and standard deviation of brightness values of each local region calculated from the finger vein images acquired in units of the local region; And dividing the skin into a skin region and an undetermined region, and in the case of the region including the vein, a first weight is given to the feature value extracted from the region, and in the case of the skin region, Gives a second weight relatively low to the feature value extracted from, and in the case of an undetermined region, is lower than the first weight, And assigning a third weight higher than the second weight, and performing personal authentication by matching previously stored bioinformation with the acquired finger vein image based on the feature value reflecting the weight. It features.
상기와 같은 목적을 달성하기 위한 본 발명에 따른 지정맥 인식을 이용한 바이오 인식 방법의 또 다른 특징은 적외선 조명과 카메라를 구비하는 바이오 인식 정보 취득 장치를 이용하여 취득된 지정맥 영상을 기반으로 미리 정해진 크기의 로 컬 영역에서 지정맥 인식을 위한 특징 값을 추출하는 단계와, 상기 로컬 영역 단위로 취득된 지정맥 영상을 통해 계산된 각 로컬 영역의 밝기 값의 평균 및 표준편차를 기반으로 정맥을 포함하는 영역과 피부영역으로 구분하는 단계와, 상기 취득된 사용자의 지정맥 영상에서 각각의 로컬 영역별로 추출된 특징 값과 등록을 위해 저장부에 미리 저장된 사용자의 지정맥 영상에서 로컬 영역별로 추출된 특징 값을 서로 비교하여 유사도 값을 산출하는 단계와, 상기 구분단계에서 정맥을 포함하는 영역일 경우 해당 영역에서 산출된 유사도 값에 상대적으로 높은 제 1 가중치를 부여하고, 피부영역일 경우 해당 영역에서 산출된 유사도 값에 상대적으로 상기 제 1 가중치보다 낮은 제 2 가중치를 부여하는 단계와, 상기 가중치를 반영한 유사도 값을 기반으로 기 저장된 바이오 정보와 취득된 사용자의 지정맥 영상을 서로 매칭시켜 개인 인증을 수행하는 단계를 포함하는데 있다.Another feature of the biorecognition method using the finger vein recognition according to the present invention for achieving the above object is predetermined based on the finger vein image acquired using a biometric information acquisition device having an infrared light and a camera Extracting feature values for finger vein recognition in a local area of size, and including veins based on the mean and standard deviation of brightness values of each local area calculated from the finger vein images acquired by the local area; And a feature value extracted for each local area from the acquired finger vein image of the user and a feature extracted for each local area from the finger vein image of the user previously stored in the storage for registration. Comparing the values with each other to calculate a similarity value, and in the case of the region including veins in the classification step, Giving a relatively high first weight to the similarity value calculated in the reverse region, and giving a second weight lower than the first weight to the similarity value calculated in the corresponding region in the case of the skin region, and reflecting the weight. And matching the previously stored bio information and the acquired finger vein image based on the similarity value to perform personal authentication.
바람직하게 상기 특징 값은 LBP(Local Binary Pattern) 또는 웨이블렛 변환(wavelet transform) 방법을 이용하여 추출하는 것을 특징으로 한다.Preferably, the feature value may be extracted by using a local binary pattern (LBP) or wavelet transform method.
바람직하게 상기 정맥을 포함하는 영역과 피부영역으로의 구분은 상기 로컬 영역의 밝기 값의 평균이 정의된 제 1 값보다 크고, 표준편차가 정의된 제 2 값보다 작으면 피부영역으로 구분하고, 밝기 값의 평균이 상기 제 1 값보다 작고, 표준편차가 제 2 값보다 크면 정맥을 포함하는 영역으로 구분하는 것을 특징으로 한다.Preferably, the vein is divided into a region including the vein and the skin region when the average of the brightness values of the local region is larger than a first defined value, and the standard deviation is smaller than a second value defined, and divided into skin regions. When the average of the values is smaller than the first value and the standard deviation is larger than the second value, the values are divided into regions including veins.
바람직하게 상기 정맥을 포함하는 영역과 피부영역으로의 구분은 SVM(Support Vector Machine) 분류기, 신경망 혹은 K-means 클러스터링(clustering), SVDD(Support Vector Data Description), 및 다항식 분류기 중 적 어도 어느 하나를 이용하여 구분하는 것을 특징으로 한다.Preferably, the vein and skin regions may be classified into at least one of a support vector machine (SVM) classifier, a neural network or K-means clustering, a support vector data description (SVDD), and a polynomial classifier. It is characterized by using.
이상에서 설명한 바와 같은 본 발명에 따른 지정맥 인식을 이용한 바이오 인식 방법은 다음과 같은 효과가 있다.Bio-recognition method using finger vein recognition according to the present invention as described above has the following effects.
첫째, 정맥의 추출 단계를 거치지 않는 방법에 기반하므로, 처리시간 단축을 통해 인식에 필요한 시간을 감소시켜서 인식을 시도하는 사용자의 편의성과 지정맥 인식 시스템의 효율성을 향상시킬 수 있다.First, since it is based on the method that does not go through the vein extraction step, it is possible to reduce the time required for recognition by reducing the processing time to improve the convenience of the user attempting the recognition and the efficiency of the finger vein recognition system.
둘째, 정맥의 패턴을 추출하지 않고, 유효성 여부만을 반영하므로 그림자 또는 영상의 잡음에 큰 영향을 받지 않으며, 로컬 영역 단위로 정맥의 포함 여부를 반영시키기 때문에 인식 정확도가 높은 효과가 있다.Second, since the vein pattern is not extracted and only the validity is reflected, the vein pattern is not significantly influenced by the shadow or the noise of the image, and since the vein is included in the local area unit, the recognition accuracy is high.
셋째, 지역적 영역에 대해 밝기 값에 영향을 받지 않는 특징 추출 방법에 기반하므로, 균일하지 않은 조명조건이나, 서로 밝기가 다른 영상을 비교하는데 사용할 수 있다.Third, since it is based on the feature extraction method that is not affected by the brightness value for the local area, it can be used to compare uneven lighting conditions or images with different brightness.
넷째, 정확한 정맥의 위치는 추출하지 않으면서도, 로컬(local) 영역 단위로 정맥 포함 여부를 판단하여 유효성 여부를 가중치로 반영하므로, 인식 정확도를 향상시킬 수 있다.Fourth, without accurately extracting the position of the vein, it is determined whether the vein is included in the unit of the local area to reflect the validity as a weight, it is possible to improve the recognition accuracy.
본 발명의 다른 목적, 특성 및 이점들은 첨부한 도면을 참조한 실시예들의 상세한 설명을 통해 명백해질 것이다.Other objects, features and advantages of the present invention will become apparent from the following detailed description of embodiments with reference to the accompanying drawings.
본 발명에 따른 지정맥 인식을 이용한 바이오 인식 방법의 바람직한 실시예 에 대하여 첨부한 도면을 참조하여 설명하면 다음과 같다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예는 본 발명의 개시가 완전하도록하며 통상의 지식을 가진자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.Referring to the accompanying drawings, a preferred embodiment of a biometric recognition method using finger vein recognition according to the present invention will be described. However, the present invention is not limited to the embodiments disclosed below, but can be embodied in various forms, and only the present embodiments are intended to complete the disclosure of the present invention and to those skilled in the art to fully understand the scope of the invention. It is provided to inform you.
제 1 First 실시예Example
도 1 은 본 발명의 제 1 실시예에 따른 지정맥 인식을 이용한 바이오 인식 방법을 설명하기 위한 흐름도이다.1 is a flowchart illustrating a biometric recognition method using finger vein recognition according to a first embodiment of the present invention.
도 1을 참조하여 설명하면, 먼저 적외선 조명과 카메라를 구비하는 바이오 인식 정보 취득 장치를 이용하여 사용자의 지정맥 영상을 취득한다(S10). 이때 상기 바이오 인식 정보 취득 장치는 공지된 기술로 이를 통해 사용자의 지정맥 영상을 취득하는 방법에 따른 상세한 설명은 생략한다.Referring to FIG. 1, first, a finger vein image of a user is acquired using a biometric information acquisition device including an infrared light and a camera (S10). At this time, the biometric information acquisition device is a well-known technique, and a detailed description of the method for acquiring a finger vein image of the user is omitted.
이렇게 취득된 지정맥 영상을 일정한 크기의 영상으로 정규화 한 후(S20), 미리 정해진 크기의 로컬 영역에서 LBP(Local Binary Pattern) 또는 웨이블렛 변환(wavelet transform) 방법을 이용하여 지정맥 인식을 위한 특징 값을 추출한다(S30). After normalizing the acquired finger vein image to a constant size (S20), a feature value for finger vein recognition using a local binary pattern (LBP) or wavelet transform method in a local region of a predetermined size It is extracted (S30).
그리고 상기 로컬 영역 단위로 취득된 지정맥 영상을 분석하여 각 로컬 영역의 밝기 값의 평균 및 표준편차를 계산한다(S40). 이때 분석되는 로컬 영역은 이웃하는 다른 로컬 영역과 서로 오버랩(overlap)되면서 분석되도록 하여 보다 분석의 정확도를 향상시키는 것이 바람직하다. The average vein image and the standard deviation of the brightness value of each local area are analyzed by analyzing the finger vein image acquired in the local area unit (S40). In this case, it is preferable to improve the accuracy of the analysis by allowing the local area to be analyzed while being overlapped with another neighboring local area.
상기 밝기 값의 평균 및 표준편차의 계산은 도 3에서 보는 것과 같이, 피부 영역(10)은 대체적으로 밝고 균일한 밝기 값을 가지며, 정맥을 포함하는 영역(20)은 어둡고 균일하지 않은 밝기 값의 분포를 가진다. 따라서 피부영역(10)은 밝기 값의 평균이 크고, 표준편차가 작으며, 정맥을 포함하는 영역(20)은 밝기 값의 평균이 작고, 표준편차가 큰 특징을 가진다. Calculation of the mean and standard deviation of the brightness values is shown in FIG. 3, where the
이런 특징에 기반하여, 지정맥 영상에서 피부영역(10)과 정맥을 포함하는 영역(20)을 각각 분석하여, 도 4와 같이 밝기 값의 표준편차와 평균을 두 축으로 하는 평면에서의 분포를 갖는다.Based on this characteristic, the
하지만 피부영역(10)과 정맥을 포함하는 영역(20)의 특징이 확연하게 구분되지 않는 경우가 있으므로 두 분포는 선형 구분선으로 명확하게 구분할 수 없다. 따라서 최적의 비선형 구분선을 찾아주는 SVM(Support Vector Machine) 분류기, 신경망 혹은 K-means 클러스터링(clustering), SVDD(Support Vector Data Description), 및 다항식 분류기 중 적어도 어느 하나를 이용하면, 두 분포를 구분할 수 있다. However, since the characteristics of the
이렇게 SVM(Support Vector Machine) 분류기, 신경망 혹은 K-means 클러스터링(clustering), SVDD(Support Vector Data Description), 및 다항식 분류기 중 적어도 어느 하나를 통해 실험적으로 얻어진 구분선(30)을 기준으로, 취득된 정맥영상의 로컬 영역을 분석하여 밝기 값의 평균과 표준편차를 계산하고, 해당 영역이 미리 구해진 구분선의 상단에 위치하면 정맥을 포함하는 영역으로, 하단에 위치하면 피부 영역으로 판단한다(S50).The vein obtained based on the
이렇게 밝기 값의 평균과 표준편차에 기반하여 판단되어진 영역을 통 해(S50), 정맥을 포함하는 영역일 경우 유효 영역(valid)으로 판단하여, 해당 영역에서 추출된 특징 값에 상대적으로 높은 가중치를 부여하고, 개인 인증 수행을 위한 매칭시 이를 적용한다(S60). Through the area determined based on the average and standard deviation of the brightness values (S50), if the area containing the vein is determined as a valid area (valid), a relatively high weight to the feature value extracted from the area Grant and apply it when matching for performing personal authentication (S60).
그리고 상기 밝기 값의 평균과 표준편차에 기반하여 판단되어진 영역을 통해(S50), 피부영역일 경우 유효하지 않은 영역(invalid)으로 판단하여, 해당 영역에서 추출된 특징 값에 상대적으로 낮은 가중치를 부여하고, 개인 인증 수행을 위한 매칭시 이를 적용한다(S70).In addition, through the region determined based on the average and the standard deviation of the brightness value (S50), in the case of the skin region, it is determined as an invalid region (invalid) and gives a relatively low weight to the feature value extracted from the region. And, when matching for performing personal authentication is applied to this (S70).
실시예로서, 상기 판단되어진 영역을 통해 정맥을 포함하는 영역일 경우는 해당 영역에서 추출된 특징 값을 개인 인증 수행을 위한 매칭시 그대로 사용하고, 피부영역일 경우는 해당 영역에서 추출된 특징 값에 0을 곱해서 개인 인증 수행을 위한 매칭시에 특징 값을 사용하지 않게 된다. As an embodiment, in the case of the region including the vein through the determined region, the feature value extracted from the region is used as it is when matching for performing personal authentication, and in the case of the skin region, the characteristic value extracted from the region is used. Multiply by zero to avoid using feature values in matching to perform personal authentication.
이와 같이 영상에 따라 서로 다른 특징 값을 적용할 경우, 정맥이 위치한다고 판단되는 구역에서 추출된 특징 값의 반영률은 크게 하고, 그렇지 않은 구역의 특징 값은 반영률을 낮추는 효과를 얻으므로써, 더욱 신뢰성 있는 특징 값을 얻어낼 수 있다.In this way, when different feature values are applied according to the image, the reflectance of the feature values extracted from the region where the vein is determined to be located is increased, and the feature values of the other regions are lowered. You can get the feature value.
그리고 가중치를 반영한 특징 값을 기반으로 기 저장된 바이오 정보와 취득된 사용자의 지정맥 영상을 서로 매칭시켜 개인 인증을 수행한다(S80).Then, personal authentication is performed by matching the previously stored bio information with the acquired finger vein image based on the feature value reflecting the weight (S80).
제 2 2nd 실시예Example
도 2 는 본 발명의 제 2 실시예에 따른 지정맥 인식을 이용한 바이오 인식 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a biorecognition method using finger vein recognition according to a second embodiment of the present invention.
도 2를 참조하여 설명하면, 먼저 적외선 조명과 카메라를 구비하는 바이오 인식 정보 취득 장치를 이용하여 사용자의 지정맥 영상을 취득한다(S100). 이때 상기 바이오 인식 정보 취득 장치는 공지된 기술로 이를 통해 사용자의 지정맥 영상을 취득하는 방법에 따른 상세한 설명은 생략한다.Referring to FIG. 2, first, a finger vein image of a user is acquired using a biometric information acquisition device including an infrared light and a camera (S100). At this time, the biometric information acquisition device is a well-known technique, and a detailed description of the method for acquiring a finger vein image of the user is omitted.
이렇게 취득된 지정맥 영상을 일정한 크기의 영상으로 정규화 한 후(S200), 미리 정해진 크기의 로컬 영역에서 LBP(Local Binary Pattern) 또는 웨이블렛 변환(wavelet transform) 방법을 이용하여 지정맥 인식을 위한 특징 값을 추출한다(S300).After normalizing the acquired finger vein image to a constant size image (S200), a feature value for finger vein recognition using a local binary pattern (LBP) or wavelet transform method in a local region of a predetermined size Extract the (S300).
그리고 상기 로컬 영역 단위로 취득된 지정맥 영상을 분석하여 각 로컬 영역의 밝기 값의 평균 및 표준편차를 계산한다(S400). 이때 분석되는 로컬 영역은 이웃하는 다른 로컬 영역과 서로 오버랩(overlap)되면서 분석되도록 하여 보다 분석의 정확도를 향상시키는 것이 바람직하다. In addition, the average vein image and the standard deviation of brightness values of each local region are calculated by analyzing the acquired vein image in the unit of the local region (S400). In this case, it is preferable to improve the accuracy of the analysis by allowing the local area to be analyzed while being overlapped with another neighboring local area.
상기 밝기 값의 평균 및 표준편차의 계산은 도 3에서 보는 것과 같이, 피부영역(10)은 대체적으로 밝고 균일한 밝기 값을 가지며, 정맥을 포함하는 영역(20)은 어둡고 균일하지 않은 밝기 값의 분포를 가진다. 따라서 피부영역(10)은 밝기 값의 평균이 크고, 표준편차가 작으며, 정맥을 포함하는 영역(20)은 밝기 값의 평균이 작고, 표준편차가 큰 특징을 가진다.Calculation of the mean and standard deviation of the brightness value, as shown in Figure 3, the
이런 특징에 기반하여, 지정맥 영상에서 피부영역(10)과 정맥을 포함하는 영역(20)을 각각 분석하여, 도 5와 같이 밝기 값의 표준편차와 평균을 두 축으로 하 는 평면에서의 분포를 갖는다.Based on this characteristic, the
하지만 피부영역(10)과 정맥을 포함하는 영역(20)의 특징이 확연하게 구분되지 않는 경우가 있으므로 두 분포는 선형 구분선으로 명확하게 구분할 수 없다. 따라서 최적의 비선형 구분선을 찾아주는 SVM(Support Vector Machine) 분류기, 신경망 혹은 K-means 클러스터링(clustering), SVDD(Support Vector Data Description), 및 다항식 분류기 중 적어도 어느 하나를 이용하면, 분포를 구분할 수 있다(S500).However, since the characteristics of the
이때, 상기 SVM(Support Vector Machine) 분류기, 신경망 혹은 K-means 클러스터링(clustering), SVDD(Support Vector Data Description), 및 다항식 분류기 중 적어도 어느 하나를 이용하여 각각의 분포를 구분하는 방법으로 다음 2가지 방법을 이용할 수 있다.In this case, the following two methods are used to classify each distribution using at least one of the support vector machine (SVM) classifier, neural network or K-means clustering, support vector data description (SVDD), and polynomial classifier. Method can be used.
첫 번째 방법으로는 계층적 SVM(Support Vector Machine) 분류기, 신경망 혹은 K-means 클러스터링(clustering), SVDD(Support Vector Data Description), 및 다항식 분류기 중 적어도 어느 하나를 이용하여 영역을 분류하는 방법이다.The first method is to classify a region using at least one of a hierarchical support vector machine (SVM) classifier, a neural network or K-means clustering, a support vector data description (SVDD), and a polynomial classifier.
즉, 먼저 분류기에 미리 설정된 제 1 기준값을 기반으로 두 영역(정맥영역 : 비 정맥영역)으로 구분한 후, 상기 구분된 비 정맥 영역을 분류기에 미리 설정된 제 2 기준값을 기반으로 다시 두 영역(미결정 영역 : 피부영역)으로 구분한다. 상기 첫 번째 분류기와 두 번째 분류기는 그 순서에 제한이 없음을 주의하여야 한다. That is, first, the divided non-venous area is divided into two areas based on the first reference value preset in the classifier, and then the divided non-venous areas are divided again into two areas based on the second reference value preset in the classifier. Area: skin area). It should be noted that the first classifier and the second classifier are not limited in order.
바람직하게 상기 제 1 기준값은 -1부터 -0.7 사이의 값으로 상기 분류기의 출력값이 제 1 기준값 내에 포함되면 정맥영역으로 구분하고, 상기 분류기의 출력 값이 제 1 기준값 외에 포함되면 비 정맥영역으로 구분한다. 그리고 상기 제 2 기준값은 1부터 0.5 사이의 값으로 상기 분류기의 출력값이 제 2 기준값 내에 포함되면 피부영역으로 구분하고, 상기 분류기의 출력값이 제 1 기준값 및 제 2 기준값 외에 포함되면 미결정 영역으로 구분한다. 이때 상기 제 1 기준값 및 제 2 기준값은 바람직한 실시예로서 본 발명의 기술적 사상의 범위 내에서 다양한 실시예가 가능함을 이해하여야 한다.Preferably, the first reference value is a value between -1 and -0.7 and is divided into non-venous areas when the output value of the classifier is included in the first reference value, and when the output value of the classifier is included outside the first reference value. do. The second reference value is a value between 1 and 0.5. When the output value of the classifier is included in the second reference value, the second reference value is divided into skin regions. When the output value of the classifier is included outside the first reference value and the second reference value, the second reference value is divided into an indeterminate area. . In this case, it is to be understood that the first reference value and the second reference value may be various embodiments within the scope of the technical idea of the present invention as preferred embodiments.
다음 두 번째 방법으로는 SVM(Support Vector Machine) 분류기, 신경망 혹은 K-means 클러스터링(clustering), SVDD(Support Vector Data Description), 및 다항식 분류기 중 적어도 어느 하나를 통해 산출된 값에 따라 영역을 분류하는 방법이다.The second method is to classify the area according to a value calculated through at least one of a support vector machine (SVM) classifier, a neural network or K-means clustering, a support vector data description (SVDD), and a polynomial classifier. It is a way.
즉, SVM(Support Vector Machine) 분류기, 신경망 혹은 K-means 클러스터링(clustering), SVDD(Support Vector Data Description), 및 다항식 분류기 중 적어도 어느 하나를 통해 각각의 로컬영역에서 값을 산출한 후, 산출된 값에 따라 정맥영역, 피부영역, 미결정 영역으로 분류한다. 참고로 -1 ~ -0.7 사이로 산출된 값을 갖는 로컬영역을 정맥영역으로 분류하고, 0.5 ~ 1 사이로 산출된 값을 피부영역으로 분류하고, 0.5 ~ -0.7 사이로 산출된 값을 미결정 영역으로 분류한다. 이때, 상기 각각의 영역의 값의 범위는 본 발명의 기술적 사상의 범위 내에서 변경이 가능하며, 이에 한정하지 않는다.That is, after calculating a value in each local area through at least one of a support vector machine (SVM) classifier, a neural network or K-means clustering, a support vector data description (SVDD), and a polynomial classifier, the calculated value is calculated. According to the value, it is classified into vein area, skin area and microcrystalline area. For reference, local areas with values calculated between -1 and -0.7 are classified as vein areas, values calculated between 0.5 and 1 are classified as skin areas, and values calculated between 0.5 and -0.7 are classified as undetermined areas. . At this time, the range of the value of each area may be changed within the scope of the technical idea of the present invention, but is not limited thereto.
이렇게 SVM(Support Vector Machine) 분류기, 신경망 혹은 K-means 클러스터링(clustering), SVDD(Support Vector Data Description), 및 다항식 분류기 중 적 어도 어느 하나를 이용하여 얻어진 값을 통해 정맥이 포함된 영역(제 1 영역)(20), 피부 영역(제 3 영역)(10)과 확연히 구분되지 않고 겹쳐져 있는 미결정 영역(제 2 영역)(40)으로 분류한다(S500).The region containing the vein through the values obtained using at least one of the SVM (Support Vector Machine) classifier, neural network or K-means clustering, Support Vector Data Description (SVDD), and polynomial classifier (first). The
그리고 상기 계산된 각 로컬 영역의 밝기 값의 평균 및 표준편차에 기반하여 정맥을 포함하는 영역(제 1 영역)(20)일 경우는 해당 영역에서 추출된 특징 값에 상대적으로 높은 가중치를 부여하고, 개인 인증 수행을 위한 매칭시 이를 적용한다(S600). In the case of the region (first region) 20 including the vein based on the average and the standard deviation of the brightness values of each local region, the weight is given to the feature value extracted from the region relatively. This is applied when matching for performing personal authentication (S600).
또한, 상기 계산된 각 로컬 영역의 밝기 값의 평균 및 표준편차에 기반하여 피부영역(제 3 영역)(10)일 경우는 해당 영역에서 추출된 특징 값에 상대적으로 낮은 가중치를 부여하고, 개인 인증 수행을 위한 매칭시 이를 적용한다(S700).In addition, in the case of the skin region (third region) 10 based on the calculated average and standard deviation of the brightness values of each local region, the weight is relatively low to the feature values extracted from the corresponding region, and personal authentication is performed. This is applied when performing matching (S700).
또한 상기 계산된 각 로컬 영역의 밝기 값의 평균 및 표준편차에 기반하여 미 결정영역(제 2 영역)(40)일 경우는 해당 영역에서 추출된 특징 값에 상기 제 1 영역(20)의 가중치보다는 낮고, 상기 제 3 영역(10)의 가중치보다는 높은 가중치를 부여하고, 개인 인증 수행을 위한 매칭시 이를 적용한다(S800).In addition, in the case of the undetermined region (second region) 40 based on the average and standard deviation of the brightness values of each local region, the weighted value of the
실시예로서, 상기 판단되어진 영역이 정맥을 포함하는 제 1 영역(20)일 경우는 추출된 특징 값에 가중치 2를 곱하고, 피부영역인 제 3 영역(40)일 경우 가중치 1을 곱하고, 미결정영역인 제 2 영역(10)일 경우 가중치 1.5를 곱해서 개인 인증 수행을 위한 매칭시에 사용한다.For example, when the determined region is the
이와 같이 영상에 따라 서로 다른 특징 값을 적용할 경우, 정맥이 위치한다고 판단되는 구역에서 추출된 특징 값의 반영률은 크게 하고, 그렇지 않은 구역의 특징 값은 반영률을 낮추는 효과를 얻으므로써, 더욱 신뢰성 있는 특징 값을 얻어낼 수 있다.In this way, when different feature values are applied according to the image, the reflectance of the feature values extracted from the region where the vein is determined to be located is increased, and the feature values of the other regions are lowered. You can get the feature value.
그리고 가중치를 반영한 특징 값을 기반으로 기 저장된 바이오 정보와 취득된 사용자의 지정맥 영상을 서로 매칭시켜 개인 인증을 수행한다(S900).Then, personal authentication is performed by matching the previously stored bio information with the acquired finger vein image based on the feature value reflecting the weight (S900).
이와 같은 방법을 사용할 경우, 정맥이 위치한다고 판단되는 구역에서 추출된 특징 값의 반영률은 크게 하고, 그렇지 않은 구역의 특징 값은 반영률을 낮추는 효과를 얻으므로써, 더욱 신뢰성 있는 특징 값을 얻어낼 수 있다.In such a method, it is possible to obtain a more reliable feature value by increasing the reflectance of the feature value extracted from the region where the vein is determined to be located, and reducing the reflectance of the feature value of the other region. .
제 3 3rd 실시예Example
한편 상기 제 1 실시예 및 제 2 실시예와 같이 인식 정보 취득 장치를 이용하여 취득된 사용자의 지정맥 영상에서 산출된 특징 값에 가중치를 곱하는 형태와 다르게, 상기 특징 값과 등록을 위해 미리 저장된 영상의 특징 값을 비교하여 산출된 유사도 값에 가중치를 곱함으로써, 동일인의 영상일 경우 유사도를 더욱 크게, 타인의 영상일 경우 유사도를 더욱 작게 만들 수도 있다.On the other hand, unlike the form of multiplying the weight of the feature value calculated from the finger vein image of the user acquired using the recognition information acquisition device as in the first and second embodiments, the feature value and the pre-stored image for registration By comparing the feature values and multiplying the similarity value calculated by the weight, the similarity can be made larger in the case of an image of the same person, and the similarity can be made smaller in the case of an image of another person.
즉, 제 3 실시예는 먼저 적외선 조명과 카메라를 구비하는 바이오 인식 정보 취득 장치를 이용하여 사용자의 지정맥 영상을 취득한다. 이때 상기 바이오 인식 정보 취득 장치는 공지된 기술로 이를 통해 사용자의 지정맥 영상을 취득하는 방법에 따른 상세한 설명은 생략한다.That is, the third embodiment first acquires a finger vein image of a user by using a biometric information acquisition device having an infrared light and a camera. At this time, the biometric information acquisition device is a well-known technique, and a detailed description of the method for acquiring a finger vein image of the user is omitted.
이렇게 취득된 지정맥 영상을 일정한 크기의 영상으로 정규화 한 후, 미리 정해진 크기의 로컬 영역에서 LBP(Local Binary Pattern) 또는 웨이블렛 변 환(wavelet transform) 방법을 이용하여 지정맥 인식을 위한 특징 값을 추출한다.After normalizing the acquired finger vein image to a constant size image, the feature value for finger vein recognition is extracted using a local binary pattern (LBP) or wavelet transform method in a local region of a predetermined size. do.
그리고 상기 로컬 영역 단위로 취득된 지정맥 영상을 분석하여 각 로컬 영역의 밝기 값의 평균 및 표준편차를 계산한다. 이때 분석되는 로컬 영역은 이웃하는 다른 로컬 영역과 서로 오버랩(overlap)되면서 분석되도록 하여 보다 분석의 정확도를 향상시키는 것이 바람직하다. The average vein image of the local area is analyzed to calculate the average and standard deviation of the brightness values of each local area. In this case, it is preferable to improve the accuracy of the analysis by allowing the local area to be analyzed while being overlapped with another neighboring local area.
상기 밝기 값의 평균 및 표준편차의 계산은 도 3에서 보는 것과 같이, 피부영역은 대체적으로 밝고 균일한 밝기 값을 가지며, 정맥을 포함하는 영역은 어둡고 균일하지 않은 밝기 값의 분포를 가진다. 따라서 피부영역은 밝기 값의 평균이 크고, 표준편차가 작으며, 정맥을 포함하는 영역은 밝기 값의 평균이 작고, 표준편차가 큰 특징을 가진다.Calculation of the mean and standard deviation of the brightness value, as shown in Figure 3, the skin region has a generally bright and uniform brightness value, the region containing the vein has a dark and non-uniform distribution of brightness values. Therefore, the skin region is characterized by a large average of brightness values, a small standard deviation, and a region including a vein having a small average of brightness values and a large standard deviation.
이런 특징에 기반하여, 지정맥 영상에서 피부영역과 정맥을 포함하는 영역을 각각 분석하여, 도 4와 같이 밝기 값의 표준편차와 평균을 두 축으로 하는 평면에서의 분포를 갖는다.Based on this feature, the region including the skin region and the vein in the finger vein image is analyzed, respectively, and has a standard deviation and mean of brightness values in a plane having two axes as shown in FIG. 4.
하지만 피부영역(10)과 정맥을 포함하는 영역(20)의 특징이 확연하게 구분되지 않는 경우가 있으므로 두 분포는 선형 구분선으로 명확하게 구분할 수 없다. 따라서 최적의 비선형 구분선을 찾아주는 SVM(Support Vector Machine) 분류기, 신경망 혹은 K-means 클러스터링(clustering), SVDD(Support Vector Data Description), 및 다항식 분류기 중 적어도 어느 하나를 이용하면, 두 분포를 구분할 수 있다.However, since the characteristics of the
이렇게 SVM을 통한 실험적으로 얻어진 구분선(30)을 기준으로, 취득된 정맥 영상의 로컬 영역을 분석하여 밝기 값의 평균과 표준편차를 계산하고, 해당 영역이 미리 구해진 구분선의 상단에 위치하면 정맥을 포함하는 영역으로, 하단에 위치하면 피부 영역으로 판단한다.Based on the experimentally obtained dividing
이후, 상기 바이오 인식 정보 취득 장치를 이용하여 취득된 사용자의 지정맥 영상에서 각각의 로컬 영역별로 추출된 특징 값과 등록을 위해 저장부에 미리 저장된 사용자의 지정맥 영상에서 로컬 영역별로 추출된 특징 값을 서로 비교하여 유사도 값을 산출한다.Thereafter, the feature value extracted for each local area from the finger vein image of the user acquired using the biometric information acquisition device and the feature value extracted for each local area from the finger vein image of the user previously stored in the storage unit for registration. Are compared with each other to yield a similarity value.
그리고 상기 밝기 값의 평균과 표준편차에 기반하여 판단되어진 영역을 통해, 정맥을 포함하는 영역일 경우 유효 영역(valid)으로 판단하여, 해당 영역에서 산출된 유사도 값에 상대적으로 높은 가중치를 부여하고, 개인 인증 수행을 위한 매칭시 이를 적용한다.The area determined based on the average and standard deviation of the brightness values is determined to be a valid area in the case of a vein-containing area, and a relatively high weight is given to the similarity value calculated in the corresponding area. This applies when matching for personal authentication.
또한 상기 밝기 값의 평균과 표준편차에 기반하여 판단되어진 영역을 통해, 피부영역일 경우 유효하지 않은 영역(invalid)으로 판단하여, 해당 영역에서 산출된 유사도 값에 상대적으로 낮은 가중치를 부여하고, 개인 인증 수행을 위한 매칭시 이를 적용한다.In addition, through the area determined based on the average and standard deviation of the brightness value, it is determined to be an invalid area (invalid) in the case of the skin area, and a relatively low weight is given to the similarity value calculated in the corresponding area. This applies when matching to perform authentication.
실시예로서, 상기 판단되어진 영역을 통해 정맥을 포함하는 영역일 경우는 해당 영역에서 산출된 유사도 값을 개인 인증 수행을 위한 매칭시 그대로 사용하고, 피부영역일 경우는 해당 영역에서 산출된 유사도 값에 0을 곱해서 개인 인증 수행을 위한 매칭시에 유사도 값을 사용하지 않게 된다.For example, in the case of the region including the vein through the determined region, the similarity value calculated in the corresponding region is used as it is when matching for performing personal authentication, and in the case of the skin region, the similarity value calculated in the corresponding region is used. By multiplying by zero, the similarity value is not used when matching to perform personal authentication.
이와 같이 영상에 따라 서로 다른 유사도 값을 적용할 경우, 동일인의 영상 일 경우 유사도는 더욱 크고, 타인의 영상일 경우 유사도를 더욱 작게 만들 수 있어 더욱 신뢰성 있는 유사도 값을 얻어낼 수 있다.As such, when different similarity values are applied according to images, the similarity is larger in the case of the image of the same person, and the similarity can be made smaller in the case of the image of another person, thereby obtaining a more reliable similarity value.
그리고 가중치를 반영한 유사도 값을 기반으로 기 저장된 바이오 정보와 취득된 사용자의 지정맥 영상을 서로 매칭시켜 개인 인증을 수행한다.Personal authentication is performed by matching previously stored bioinformation with acquired finger vein images based on similarity values reflecting weights.
상기에서 설명한 본 발명의 기술적 사상은 바람직한 실시예에서 구체적으로 기술되었으나, 상기한 실시예는 그 설명을 위한 것이며 그 제한을 위한 것이 아님을 주의하여야 한다. 또한, 본 발명의 기술적 분야의 통상의 지식을 가진자라면 본 발명의 기술적 사상의 범위 내에서 다양한 실시예가 가능함을 이해할 수 있을 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다. Although the technical spirit of the present invention described above has been described in detail in a preferred embodiment, it should be noted that the above-described embodiment is for the purpose of description and not of limitation. In addition, those skilled in the art will understand that various embodiments are possible within the scope of the technical idea of the present invention. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.
도 1 은 본 발명의 제 1 실시예에 따른 지정맥 인식을 이용한 바이오 인식 방법을 설명하기 위한 흐름도1 is a flowchart illustrating a biometric recognition method using finger vein recognition according to a first embodiment of the present invention.
도 2 는 본 발명의 제 2 실시예에 따른 지정맥 인식을 이용한 바이오 인식 방법을 설명하기 위한 흐름도2 is a flowchart illustrating a biometric recognition method using finger vein recognition according to a second embodiment of the present invention.
도 3 은 본 발명에 따른 정맥을 포함하는 영역과 포함하지 않는 영역을 나타낸 실시예3 is an embodiment showing a region including and not including a vein according to the present invention
도 4 는 도 1의 방법을 이용하여 추출된 평균과 표준편차들의 분포와 SVM에 의해 2단계로 분류된 실시예FIG. 4 is an embodiment classified into two stages by SVM and distribution of the mean and standard deviation extracted using the method of FIG.
도 5 는 도 2 의 방법을 이용하여 추출된 평균과 표준편차들의 분포와 SVM에 의해 3단계로 분류된 실시예FIG. 5 is an embodiment classified into three stages by SVM and distribution of mean and standard deviation extracted using the method of FIG.
*도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings
10 : 피부영역 20 : 정맥을 포함한 영역10: skin area 20: area including vein
30 : 구분선 40 : 미 결정영역30: dividing line 40: undecided area
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080076977A KR101007341B1 (en) | 2008-08-06 | 2008-08-06 | Method for capturing bio-metrics information using finger-vein recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080076977A KR101007341B1 (en) | 2008-08-06 | 2008-08-06 | Method for capturing bio-metrics information using finger-vein recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100018279A true KR20100018279A (en) | 2010-02-17 |
KR101007341B1 KR101007341B1 (en) | 2011-01-13 |
Family
ID=42089044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080076977A KR101007341B1 (en) | 2008-08-06 | 2008-08-06 | Method for capturing bio-metrics information using finger-vein recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101007341B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012157835A1 (en) * | 2011-05-16 | 2012-11-22 | 동국대학교 산학협력단 | Method for managing a medical vascular image by using an image fusing fusion technique |
US9508136B2 (en) | 2014-05-08 | 2016-11-29 | Hanwha Techwin Co., Ltd. | Image fusing method |
KR102022510B1 (en) * | 2018-11-30 | 2019-09-18 | 가천대학교 산학협력단 | Method and apparatus for personal authentication using electrocardiogram signals |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4170767B2 (en) | 2001-04-19 | 2008-10-22 | 株式会社東芝 | Image processing device |
KR20030010977A (en) * | 2001-07-28 | 2003-02-06 | 김준현 | Method for recognizing Organism and Apparatus therefor |
KR100478856B1 (en) * | 2002-04-16 | 2005-03-24 | (주)지노첵 | Biometric Apparatus and Method for Biometrical Detection Using the Same |
JP4409541B2 (en) | 2006-06-09 | 2010-02-03 | 株式会社日立製作所 | Image processing apparatus, personal authentication method, and image processing method |
-
2008
- 2008-08-06 KR KR1020080076977A patent/KR101007341B1/en active IP Right Grant
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012157835A1 (en) * | 2011-05-16 | 2012-11-22 | 동국대학교 산학협력단 | Method for managing a medical vascular image by using an image fusing fusion technique |
US9508136B2 (en) | 2014-05-08 | 2016-11-29 | Hanwha Techwin Co., Ltd. | Image fusing method |
KR102022510B1 (en) * | 2018-11-30 | 2019-09-18 | 가천대학교 산학협력단 | Method and apparatus for personal authentication using electrocardiogram signals |
Also Published As
Publication number | Publication date |
---|---|
KR101007341B1 (en) | 2011-01-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110326001B (en) | System and method for performing fingerprint-based user authentication using images captured with a mobile device | |
CN107438854B (en) | System and method for performing fingerprint-based user authentication using images captured by a mobile device | |
JP5107045B2 (en) | Method for identifying a pixel representing an iris in an image acquired for the eye | |
US10445574B2 (en) | Method and apparatus for iris recognition | |
Syarif et al. | Enhanced maximum curvature descriptors for finger vein verification | |
Miura et al. | Extraction of finger-vein patterns using maximum curvature points in image profiles | |
Miura et al. | Feature extraction of finger vein patterns based on iterative line tracking and its application to personal identification | |
KR100940902B1 (en) | The biometrics using finger geometry information | |
Verma et al. | Daughman’s algorithm method for iris recognition—a biometric approach | |
TWI434220B (en) | A method for recognizing the identity of user by palm vein biometric | |
US20070160266A1 (en) | Method for extracting features of irises in images using difference of sum filters | |
EP3440593B1 (en) | Method and apparatus for iris recognition | |
US20070160308A1 (en) | Difference of sum filters for texture classification | |
CN111462379A (en) | Access control management method, system and medium containing palm vein and face recognition | |
US10853624B2 (en) | Apparatus and method | |
Min et al. | Eyelid and eyelash detection method in the normalized iris image using the parabolic Hough model and Otsu’s thresholding method | |
KR101626837B1 (en) | Method and apparatus for convergence biometric authentication based on finger joint and finger vein | |
Kim et al. | An empirical study of palmprint recognition for mobile phones | |
KR102375593B1 (en) | Apparatus and method for authenticating user based on a palm composite image | |
Bača et al. | Basic principles and trends in hand geometry and hand shape biometrics | |
Seal et al. | Minutiae based thermal face recognition using blood perfusion data | |
KR101007341B1 (en) | Method for capturing bio-metrics information using finger-vein recognition | |
KR20090065026A (en) | Method for personal identification using finger-veins | |
Situmorang et al. | Identification of Biometrics Using Fingerprint Minutiae Extraction Based on Crossing Number Method | |
EP4287148A1 (en) | Contactless fingerprint biometric system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20140102 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20150106 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20160105 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20170103 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20171228 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20190103 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20200102 Year of fee payment: 10 |