KR101208678B1 - Incremental personal autentication system and method using multi bio-data - Google Patents
Incremental personal autentication system and method using multi bio-data Download PDFInfo
- Publication number
- KR101208678B1 KR101208678B1 KR1020110043466A KR20110043466A KR101208678B1 KR 101208678 B1 KR101208678 B1 KR 101208678B1 KR 1020110043466 A KR1020110043466 A KR 1020110043466A KR 20110043466 A KR20110043466 A KR 20110043466A KR 101208678 B1 KR101208678 B1 KR 101208678B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- subject
- voice
- image
- personal authentication
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Collating Specific Patterns (AREA)
Abstract
본 발명은 개인인증에 관한 것으로서 더욱 상세하게는 피인증자의 안면 이미지와 음성특징 정보를 융합하여 저차원의 고유벡터 및 고유값으로 시/청각 융합정보의 특징을 추출한 후, 새로 입력되는 데이터만을 점진적으로 학습하여 피인증자를 인증하는 다중 생체정보를 이용하는 점진적 개인인증 시스템 및 방법에 관한 것이다.The present invention relates to personal authentication. More specifically, after fusion of facial image and voice feature information of a subject, the feature of visual and auditory convergence information is extracted with low eigenvectors and eigenvalues. The present invention relates to a gradual personal authentication system and method using multiple biometric information to authenticate a subject.
Description
본 발명은 개인인증에 관한 것으로서 더욱 상세하게는 피인증자의 안면 이미지와 음성특징 정보를 융합하여, 시/청각 정보를 고유벡터의 특징데이터로 변환한 후, 새로 입력되는 개인 인증 정보를 점진적으로 학습하여 피인증자를 인증하는 다중 생체정보를 이용하는 점진적 개인인증 시스템 및 방법에 관한 것이다.The present invention relates to personal authentication, and more specifically, converges a subject's face image and voice feature information, converts visual and audio information into characteristic data of a unique vector, and then gradually learns new personal authentication information. It relates to a gradual personal authentication system and method using multiple biometric information to authenticate the subject.
최근 들어, 시스템 보안에 대한 관심과 연구가 활발히 진행되고 있다.Recently, interest and research on system security have been actively conducted.
이에 따라 개인 인증에 대한 관심이 날로 증가하고 있다.Accordingly, interest in personal authentication is increasing day by day.
종래에는 키보드에 기초하여 패스워드를 입력하는 방식을 흔히 사용하고 있다. 패스워드 입력방식은 개인 인증을 수행하기 위해 키보드로 사용자가 숫자나 문자, 또는 숫자와 문자의 조합으로 비밀번호를 입력하여 인증하는 방식이다.Conventionally, a method of inputting a password based on a keyboard is commonly used. The password input method is a method in which a user inputs a password by using a keyboard or a combination of numbers and letters in order to perform personal authentication.
그러나 이러한 패스워드 방식은 개인의 생일이나 전화번호와 같은 쉽게 추측되는 번호가 사용되는 경우가 많기 때문에, 쉽게 추측되고 타인의 도청과 몰래 카메라와 같은 수단에 의해 쉽게 노출된다는 문제점이 있었다.However, such a password method has a problem that easily guessed numbers such as a person's birthday or a phone number are often used, and thus easily guessed and easily exposed by a means such as a camera eavesdropping by another person.
이런 이유로 강력한 보안을 위해 지문, 홍채인식, 안면 윤곽과 같은 생체정보를 이용하여 개인을 인증하는 방법이 대두되고 있다.For this reason, a method of authenticating an individual using biometric information such as fingerprints, iris recognitions, and facial contours has emerged for strong security.
생체정보는 개인마다 다르기 때문에 고유의 특징을 갖는다는 장점이 있었다.Biological information is unique because it varies from person to person.
이 중에서도 얼굴인식을 이용하는 개인 인증 방법이 최근 많이 사용되고 있다. 그러나 사람은 나이가 들어감에 따라 얼굴의 형태가 바뀌고 체중에 의해서도 그 형태가 바뀐다는 문제점이 있었다.Among these, personal authentication methods using face recognition have been widely used in recent years. However, people have a problem that the shape of the face changes with age and the shape also changes with weight.
또한, 빛의 상태에 따른 얼굴의 형태, 표정, 화장 등과 같은 제약에 의해 용이하게 인식하지 못한다는 문제점도 있었다.In addition, there is a problem in that it is not easily recognized by constraints such as the shape of the face, facial expressions, makeup, etc. according to the light conditions.
덧붙여 복잡하고 잡음이 많은 상황에서 시각 정보와 청각 정보가 쉽게 왜곡되는 이유로 정확한 개인인증이 어렵다는 문제점도 있었다.In addition, there is a problem that accurate personal authentication is difficult because visual and auditory information are easily distorted in a complicated and noisy situation.
따라서, 얼굴인식을 통한 개인인증과 더불어 개인인증의 정확도를 향상시킬 수 있는 다른 수단이 절실히 요구되고 있다.Therefore, in addition to personal authentication through face recognition, other means for improving the accuracy of personal authentication are urgently required.
본 발명은 상술한 바와 같은 종래기술의 문제점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은, 특히 피인증자를 정확하게 인증하고, 인증을 수행하는데 있어 데이터의 량을 대폭 줄이며, 점진적으로 피인증자를 정확하게 인증하기 위한 다중 생체정보를 이용하는 점진적 개인인증 시스템 및 방법을 제공하는 것이다. The present invention has been made to solve the problems of the prior art as described above, the object of the present invention is to accurately authenticate the subject, in particular to significantly reduce the amount of data in performing the authentication, and gradually It is to provide a progressive personal authentication system and method using multiple biometric information for accurate authentication.
이를 위해 본 발명에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템은, 피인증자의 영상정보와 상기 피인증자의 음성정보 수집을 위한 수집부, 상기 영상정보에서 안면 이미지를 추출하고, 상기 음성정보에서 음성특징 정보를 추출하는 추출부, 상기 안면 이미지와 상기 음성특징 정보를 융합하여 생성되는 고차원 데이터를 대표성분이 포함된 저차원 데이터로 변환하면서, 상기 안면 이미지와 상기 음성특징 정보의 벡터를 획득하고, 새로 입력되는 데이터만을 점진적으로 상기 안면 이미지와 상기 음성특징 정보를 추출하는 변환부, 상기 변환부에서 분리된 정보로 상기 피인증자를 판별하는 판별부를 포함한다.To this end, a gradual personal authentication system using multiple biometric information according to the present invention comprises: a collecting unit for collecting video information of a subject and voice information of the subject, extracting a face image from the video information, and voice from the voice information. An extraction unit for extracting feature information, and converting the high-dimensional data generated by fusing the face image and the voice feature information into low-dimensional data including representative components, obtaining a vector of the face image and the voice feature information, A conversion unit for gradually extracting only the newly input data of the face image and the voice feature information, and a determination unit for determining the subject by the information separated by the conversion unit.
상기 안면 이미지는 상기 피인증자의 인증을 위한 정보로서, 상기 영상정보에 웨이브 렛 기반의 방향 윤곽선 정보(AdaBoost) 알고리즘을 이용하여 안면 영역을 추출한다.The facial image is information for authentication of the subject, and extracts a facial region using a wavelet-based directional contour information (AdaBoost) algorithm on the image information.
상기 음성 특징정보는 상기 피인증자의 인증을 위한 정보로서, 상기 음성정보에 MFCC(Mel-frequency cepstral coefficients) 방법으로 추출된다.The voice characteristic information is information for authentication of the subject, and is extracted to the voice information by a Mel-frequency cepstral coefficients (MFCC) method.
상기 변환부는 학습되지 않은 새로운 입력 데이터를 수용할 수 있는 점진적 학습이 가능한 점진적인 주성분 분석법(Incremental Learning Principal Component Analysis, IPCA)을 이용한다.The transform unit uses incremental learning principle component analysis (IPCA), which enables progressive learning to accommodate new input data that has not been learned.
상기 판별부는 RAN-LTM 알고리즘을 적용하여 피인증자를 판별하는 것을 특징으로 하는 다중 생체정보를 이용한다.The determination unit uses the multi-biometric information, characterized in that to determine the subject by applying the RAN-LTM algorithm.
또한, 이를 위해 본 발명에 따르는 다중 생체정보를 이용하는 점진적 개인인증 방법은, 피인증자 영상정보와 상기 피인자 음성정보를 수집하는 정보 수집단계, 상기 영상정보에서 안면 이미지를 추출하고, 상기 음성정보에서 음성특징 정보를 추출하여 융합하는 정보 추출단계, 적어도 하나 이상의 상기 안면 이미지와 상기 음성특징 정보를 융합하여 생성되는 고차원 데이터를 대표성분이 포함된 저차원 데이터로 변환하면서 시/청각 융합 정보의 고유 벡터의 특징을 추출하는 정보 변환단계, 상기 고유 벡터 대표성분의 축을 추가하거나 로테이션 시킴으로써 점진적으로 시/청각 데이터의 특징을 추출하기 위한 저차원 추출단계, 및 상기 시/청각 융합정보 특징 추출 단계에서 추출된 정보로 상기 피인증자를 판별하는 피인증자 판별단계를 포함한다.In addition, a progressive personal authentication method using multiple biometric information according to the present invention for this purpose, information collection step of collecting the subject image information and the subject voice information, extracting a facial image from the image information, An information extraction step of extracting and fusing voice feature information, a unique vector of visual / audio fusion information while converting high-dimensional data generated by fusing at least one or more of the face image and the voice feature information into low-dimensional data including representative components An information transformation step of extracting features of the information, a low dimensional extraction step of gradually extracting features of the visual and auditory data by adding or rotating the axes of the eigenvector representative components, and the visual and auditory fusion information feature extraction steps And a subject determining step of discriminating the subject by the information.
상기 대표성분은 상기 저차원 데이이터의 벡터값 또는 아이겐 벨류값이다.The representative component is a vector value or an eigen value of the low dimensional data.
상기 음성 특징정보는 상기 피인증자의 인식을 위한 정보로서, 상기 음성정보에MFCC(Mel-frequency cepstral coefficients) 방법으로 추출된다.The speech feature information is information for recognition of the subject, and is extracted by the Mel-frequency cepstral coefficients (MFCC) method.
상기 MFCC는 상기 음성정보에 퓨리에 변환을 적용하는 STFT(Short time Fourier transform) 과정, 삼각형의 겹치는 윈도우를 사용해서, 멜 스케일의 위에 포함된 스펙트럼의 파워를 멥핑하는 Mel-scale filter bank 과정, 멜 주파수의 각각에 파워의 로그를 적용하는 Log () 과정, 상기 음성정보일 경우, 멜 로그 파워의 리스트에DCT(discrete cosine transform)를 적용하는 DCT과정, 및 상기 DCT 과정에서 추출된 정보의 상관관계를 제거하기 위해 Cepstral 변환하는 Cepstral filtering과정을 포함한다.The MFCC is a short time fourier transform (STFT) process for applying Fourier transform to the speech information, a mel-scale filter bank process for mapping power of a spectrum included on a mel scale using a triangle overlapping window, and a mel frequency. Apply a log of power to each of the Logs ( ) Process, the DCT process of applying a discrete cosine transform (DCT) to the list of the melodic power, and the Cepstral filtering process of performing Cepstral transformation to remove the correlation of information extracted from the DCT process. do.
상기 저차원 데이터 추출단계는 학습되지 않은 새로운 입력 데이터를 수용할 수 있는 점진적 학습이 가능한 점진적인 주성분 분석법(Incremental Learning Principal Component Analysis, IPCA)을 이용한다. The low dimensional data extraction step uses an incremental learning principle component analysis (IPCA) capable of incremental learning that can accommodate new untrained input data.
본 발명의 다양한 실시 예에 따르면, 다중 생체정보를 이용함으로써 개인 인증의 정확도를 높이는 효과가 있다.According to various embodiments of the present disclosure, the use of multiple biometric information increases the accuracy of personal authentication.
또한, 본 발명의 다양한 실시 예에 따르면, 개인 인증을 위해 입력되는 데이터의 량을 대폭 축소함으로써 시스템의 부하가 줄어들어 저비용으로도 효율적인 인증 시스템을 구축할 수 있는 효과도 있다.In addition, according to various embodiments of the present disclosure, by significantly reducing the amount of data input for personal authentication, the load on the system may be reduced, and an efficient authentication system may be established at low cost.
따라서 본 발명의 다양한 실시 예에 따르면, 궁극적으로 보안 시스템, 출입통제 시스템, 전자여권 등 실생활 환경에서 상황적응적으로 피인증자를 인식할 수 있기 때문에 산업 전반에 용이하게 적용될 수 있는 효과가 있다. Therefore, according to various embodiments of the present disclosure, the subject may be recognized in a real-life environment such as a security system, an access control system, an ePassport, and thus may be easily applied to the entire industry.
도 1은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템을 보여주는 블록도.
도 2는 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템의 추출부의 동작을 보여주는 블록도.
도 3은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템의 변환부를 보여주는 블록도.
도 4는 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템의 판단부를 보여주는 블록도.
도 5는 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 방법을 보여주는 순서도.
도 6은 본 발명의 다른 실시 예에 따르는 안면 이미지를 추출하는 과정을 보여주는 순서도.
도 7은 도 6의 방법으로 추출된 안면 이미지의 일 예를 보여주는 예시도.
도 8은 본 발명의 다른 실시 예에 따르는 음성특징 정보를 추출하기 위해 MLCC 알고리즘을 적용하는 것을 보여주는 순서도.
도 9를 참조하면 본 발명의 다른 실시 예에 따르는 정보 변환단계와 정보 분리단계를 보여주는 예시도.
도 10은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템의 안면 이미지를 이용하여 피인증자를 인증한 결과를 보여주는 그래프.
도 11은 본 발명의 일 실시 예에 따르는 영상의 가우시안 노이즈가 0.1 ~ 1.0까지 단계별로 추가된 환경에서의 다중 생체정보(시/청각 융합 정보)를 이용하는 개인인증 시스템의 피인증자의 인증결과와, 단일 생체정보(시각 정보)만을 이용한 개인인증 시스템의 피인증자의 인증 결과를 비교하여 보여주는 그래프.1 is a block diagram illustrating a gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.
Figure 2 is a block diagram showing the operation of the extraction unit of the gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.
3 is a block diagram showing a conversion unit of a gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.
4 is a block diagram showing a determination unit of a gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.
5 is a flowchart illustrating a gradual personal authentication method using multiple biometric information according to an embodiment of the present invention.
6 is a flowchart illustrating a process of extracting a facial image according to another embodiment of the present invention.
7 is an exemplary view showing an example of a facial image extracted by the method of FIG.
8 is a flowchart showing the application of the MLCC algorithm to extract the voice feature information according to another embodiment of the present invention.
9 is an exemplary view illustrating an information conversion step and an information separation step according to another embodiment of the present invention.
10 is a graph showing a result of authenticating a subject using a face image of a gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.
11 is an authentication result of a subject of a personal authentication system using multiple biometric information (visual and audio fusion information) in an environment where Gaussian noise of an image is added step by step from 0.1 to 1.0, according to an embodiment of the present invention; A graph showing a comparison of the subject's authentication results using a single biometric information (visual information).
이하에서는 첨부된 도면들을 참조하여 본 발명의 실시 예에 따른 다중 생체정보를 이용하는 점진적 개인인증 시스템 및 방법을 상세히 설명한다.Hereinafter, a gradual personal authentication system and method using multiple biometric information according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 1 내지 도 11의 동일 부재에 대해서는 동일한 도면 번호를 기재하였다.The same reference numerals are used for the same members in FIGS. 1 to 11.
본 발명을 설명함에 있어 시/청각 정보와 안면 이미지와 음성특징 정보는 동일한 의미로 사용되었다.In describing the present invention, visual / audio information, facial images, and voice feature information are used in the same sense.
본 발명의 기본 원리는 피인증자의 안면 이미지와 음성특징 정보를 저차원 데이터로 변환하여 추출되는 고유벡터 대표성분의 축을 추가하거나 일정 각도만큼 회전시킴으로써 데이터를 분리하여 개인인증을 수행하는 것이다.The basic principle of the present invention is to perform personal authentication by separating the data by adding the axis of the eigenvector representative component extracted by converting the facial image and the voice feature information of the subject into low-dimensional data or rotating by a predetermined angle.
아울러, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다.In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
도 1은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템을 보여주는 블록도이다.1 is a block diagram illustrating a gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.
도 1을 참조하면 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)은 피인증자의 영상정보와 피인증자의 음성정보 수집을 위한 수집부(110), 수집부(110)에서 수집된 영상정보에서 안면정보를 추출하고, 음성정보에서 음성특징 정보를 추출하여 융합하는 추출부(120), 추출부(120)에서 융합하여 생성되는 고차원 데이터를 저차원 데이터로 변환하면서 시/청각 융합정보의 특징 벡터의 대표성분을 추출하여 데이터를 분리하기 위한 변환부(130), 및 변환부(130)에서 변환된 정보로 피인증자를 판별하는 판별부(140)를 포함한다.Referring to FIG. 1, a gradual
도 1과 같이 구성된 본 발명의 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템의 동작을 설명하면 다음과 같다.Referring to the operation of a gradual personal authentication system using multiple biometric information according to an embodiment of the present invention configured as shown in Figure 1 as follows.
우선 수집부(110)는 피인증자의 영상정보와 음성정보를 수집한다. 예를 들면, 카메라를 이용하여 피인증자의 안면이 포함된 이미지를 획득하고, 마이크를 이용하여 피인증자의 목소리를 녹음한다.First, the
그러면, 추출부(120)는 수집부(110)에서 수집된 영상에서 안면 이미지를 추출하고, 음성정보에서 음성특징 정보를 추출하여 융합한다. 예를 들면, 수집된 영상정보에서 피인증자의 인증을 위한 안면 이미지 외의 배경 이미지를 제외시키는 것이다.Then, the
한편, 음성정보는 언어적 의미, 피인증자 정보, 음향의 채널 정보의 3가지 유형으로 분리될 수 있다. 여기서 3가지 유형의 정보 중 피인증자의 인증에 필요한 음성특징 정보만을 추출하여 추출된 안면 이미지와 융합한다. On the other hand, the voice information may be divided into three types: linguistic meaning, subject information, and channel information of sound. Here, only the voice feature information necessary for authentication of the subject is extracted from the three types of information, and then fused with the extracted facial image.
변환부(130)는 PCA(Principal Component Analysis) 알고리즘을 적용하여 대표성분을 추출한다. 여기서 대표성분은 데이터를 분리하기 위한 분리선의 개념으로서, 아이겐 벡터(eigen-vector)나, 아이겐 벨류(eigen-value)를 들 수 있다. 즉, PCA 알고리즘을 적용하여 일정 수 이상의 개인정보에서 대표되는 고유성분을 추출한 후, IPCA(Incremental Principal Component Analysis) 알고리즘을 적용한다. The
여기서 IPCA 알고리즘은 점진적인 PCA 방법으로서, 아이겐 벡터의 축을 추가 시키거나 로테이션 시킴으로써 새로운 데이터를 분리하고, 분리된 새로운 데이터에 대해서만 업데이트 시키는 방법이다.Here, the IPCA algorithm is a gradual PCA method that separates new data by adding or rotating axes of eigen vectors and updates only the separated new data.
마지막으로 판별부(140)에서는 추출된 영상과 음성을 RNA-LTM(Resource Allocating Network with Long-Term Memory) 모델을 이용하여 판별함으로써 개인인증을 수행한다.Finally, the
이와 같이 피인증자의 영상과 음성 두 가지의 생체정보를 활용하여 개인을 인증함으로써 보다 높은 신뢰도를 확보할 수 있고, 또한 생체정보의 고차원 데이터를 저차원 데이터로 변환함으로써 데이터의 계산 속도를 높일 수 있다.In this way, by authenticating the individual by using the biometric information of the subject's video and audio, it is possible to secure higher reliability, and the data calculation speed can be increased by converting the high-dimensional data of the biometric information into low-dimensional data. .
도 2는 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)의 추출부(120)의 동작을 보여주는 블록도이다.2 is a block diagram illustrating an operation of the
도 2를 참조하면 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)의 추출부(120)는 피인증자의 이미지에서 안면 이미지를 추출하는 안면이미지 추출수단(121)과 피인증자의 목소리에서 음성특징 정보를 추출하는 음성특징 추출수단(122)을 포함한다.Referring to FIG. 2, the
우선 안면이미지 추출수단(121)은 인간 두뇌의 시각정보처리 메커니즘에 기반을 둔 선택적 주의집중 모델에 기인한 얼굴검출 방법을 이용한다.First, the face image extracting unit 121 uses a face detection method based on a selective attention model based on the visual information processing mechanism of the human brain.
본 발명의 일 실시 예에 따르는 안면이미지 추출수단(121)은 인간의 망막이 갖는 윤곽선 정보와 보색정보를 추출하는 기능을 모방하여 돌출맵에서는 윤곽선과 보색 정보를 위한 색(RG)정보를 기본 입력정보로 사용한다. 또한, 밝기정보(Intensity)는 인간의 심리적 요소로서 가설을 반영하기 위해 돌출맵의 입력으로 사용된다. 피인증자의 얼굴을 효과적으로 검출하기 위해서 피인증자의 얼굴색 정보를 기억하여, 안면 영역에 가중치를 실시간으로 반영함으로써 관심영역을 선택한다. 이와 같이 선택된 얼굴 후보 영역 내에서 웨이브 렛 기반의 방향 윤곽선 정보(AdaBoost) 알고리즘을 이용하여, 안면 영역만을 선별한다.The facial image extracting unit 121 according to an embodiment of the present invention mimics a function of extracting contour information and complementary color information of the human retina, and thus, in the protrusion map, basic input of color (RG) information for contour and complementary color information. Use as information. In addition, intensity information is used as an input of the protrusion map to reflect the hypothesis as a psychological element of human. In order to effectively detect the subject's face, the subject's region is selected by storing the subject's face color information and reflecting the weight to the facial region in real time. In the face candidate region thus selected, only the facial region is selected using a wavelet-based directional contour information (AdaBoost) algorithm.
한편, 음성특징 추출수단(122)은 피인증자의 음성정보인 언어적 의미, 피인증자 정보, 음향의 채널 정보의 3가지 유형에서 MFCC(Mel-Frequency Cepstral Coefficients)를 이용하여 인증을 위한 음성특징 정보를 추출한다.On the other hand, the speech feature extraction means 122 uses the MFCC (Mel-Frequency Cepstral Coefficients) for authentication of speech feature information in three types of verbal meaning, subject information, and sound channel information. Extract
이와 같이 추출부(120)부는 피인증자의 안면 이미지와 음성특징 정보를 추출하여 융합한다.As such, the
도 3은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)의 변환부(130)를 보여주는 블록도이다.3 is a block diagram illustrating a
도 3을 참조하면 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)의 변환부(130)는 PCA(Principal Component Analysis)부(131)와 IPCA(Incremental Principal Component Analysis)부(132)를 포함한다.Referring to FIG. 3, the
여기서 PCA(Principal Component Analysis)는 주성분 분석법이라 하며 주로 다루기 힘든 고차원의 신호를 낮은 차원으로 줄여 다루기 쉽게 해주는 통계적 방법이다. 그리고 PCA 방법은 얼굴 이미지만이 존재하는 낮은 차원의 영상공간을 얻기 위해서 사용되었는데 그렇게 하여 구한 안면 이미지만을 위한 공간을 고유공간이라 하며 그 공간을 구성하는 좌표계에 해당하는 벡터로 표현하였다. Principal Component Analysis (PCA) is called Principal Component Analysis and is a statistical method that makes it easier to handle high-dimensional signals that are difficult to handle. The PCA method was used to obtain a low-dimensional image space with only a face image. The space for the facial image obtained was called eigenspace and represented by a vector corresponding to the coordinate system constituting the space.
본 발명의 PCA부(131)는 일정개수 이상의 피인증자의 얼굴정보를 고유공간상의 좌표계로 변환하면, IPCA부(132)는 추출된 대표성분인 아이겐 벡터(eigen-vector)나 아이겐 벨류(eigen-value)를 이용하여, 데이터의 특징 정보를 추출한다. 즉 PCA부(131)는 고차원의 시/청각 융합 정보를 저차원의 데이터로 변환하고 아이겐 벡터(eigenvector)나 아이겐 벨류(eigen-value)인 저차원 특징을 추출한다. 그러면, IPCA부(132)는 PCA부(131)에서 추출된 아이겐 벡터값과 아이겐 벨류 값을 이용하여 새롭게 추가되는 정보에 대해서만 학습하여 축을 추가하거나 로테이션함으로써 시/청각 융합 정보의 특징 데이터를 추출한다. When the PCA unit 131 of the present invention converts face information of a certain number of subjects into a coordinate system in a unique space, the
도 4는 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)의 판단부(140)를 보여주는 블록도이다.4 is a block diagram illustrating a
도 4를 참조하면 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)의 판단부(140)는 리소스 할당 네트워크(RAN, 141)와 장기 메모리(LTM, 142)를 포함한다.Referring to FIG. 4, the
RAN(141)은 숨겨진 항목의 할당을 자동으로 수행하는 Radial Basis Function(RBF) 네트워크의 확장된 모델이다. 여기서, 입력 항목의 수, 숨겨진 항목의 수 및 출력 항목의 수를 각각 I, J, K로 나타내고, 입력을 , 숨겨진 항목의 출력을 , 출력을 라고 나타내면, 숨겨진 항목의 출력 값 및 출력의 출력값을 다음과 같이 표시할 수 있다.
여기서 이고, 는 j번째 숨겨진 항목의 중심 및 분산이고, 는 j번째 숨겨진 항목으로부터 k번째 출력 항목의 연결 가중치이고, 는 k번째 출력 항목의 바이어스(bias)이다. here ego, Is the center and variance of the jth hidden item, Is the concatenation weight of the kth output item from the jth hidden item, Is the bias of the k th output item.
LTM(142)은 대표 입-출력 쌍에 대응되는 '메모리 항목(memory items)'이라 불리는 항목을 저장할 수 있다. 이러한 입-출력 쌍은 학습 데이터(tranning data)로부터 선택될 수 있으며, 이들 쌍이 삭제되는 것을 방지하기 위하여 새롭게 주어진 학습 데이터로 학습이 수행될 수 있다. The
이러한 학습 알고리즘에서, 메모리 항목은 숨겨진 항목이 할당될 때 생성된다. 즉, RBF 센터 및 대응되는 출력이 메모리 항목으로 저장될 수 있다. In this learning algorithm, memory items are created when hidden items are allocated. That is, the RBF center and its corresponding output can be stored as a memory item.
이러한 RAN-LTM 학습기의 학습 알고리즘은 두 단계로 나눠진다. 구체적으로, 숨겨진 항목(예를 들어, RBF 센터의 선택)의 할당하는 동작과, 숨겨진 항목과 출력 항목 사이의 연결 가중치를 계산하는 동작으로 나눠질 수 있다. 전자의 동작은 메모리 항목이 동시에 생성된다는 점을 제외하고는 일반적인 RAN에서의 동작과 동일하다. 숨겨진 항목이 할당되면, 그 값들은 이후에 고정된다. The learning algorithm of this RAN-LTM learner is divided into two stages. Specifically, the method may be divided into an operation of allocating a hidden item (eg, selection of an RBF center) and an operation of calculating a connection weight between the hidden item and the output item. The former operation is the same as that in a typical RAN except that memory items are created at the same time. When a hidden item is assigned, its values are later fixed.
따라서, 연결 가중치()는 출력 에러에 기초하여 갱신되는 유일한 파라미터가 된다. Therefore, connection weight ( ) Is the only parameter that is updated based on the output error.
에러를 최소화하기 위하여, 다음과 같은 수학식 3과 같은 스퀘어 방법(squares method)이 이용될 수 있다. In order to minimize the error, a squares method such as Equation 3 may be used.
여기서, D는 타깃 출력에 대응되는 칼럼 벡터들의 행렬이다. Here, D is a matrix of column vectors corresponding to the target output.
학습 데이터(x, d)가 주어지고, 메모리 항목(M) 이 생성되어 있다고 가정하면, 타깃 행렬(D)은 이다. Given the training data (x, d), memory item (M) Assume that is generated, the target matrix (D) to be.
따라서, 는 학습 데이터 및 메모리 항목을 이용하여 수학식 4와 같이 계산될 수 있다. therefore, May be calculated as shown in Equation 4 using the training data and the memory item.
한편, 수학식 1의 W를 풀기 위하여, 특이값 분해(Singular value Decompostion, SVD)가 이용될 수 있다.Meanwhile, in order to solve W in
도 5는 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 방법을 보여주는 순서도이다.5 is a flowchart illustrating a gradual personal authentication method using multiple biometric information according to an embodiment of the present invention.
도 5를 참조하면 본 발명의 다른 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 방법(500)은 피인증자 영상정보와 음성정보를 수집하는 정보 수집단계(S510), 영상정보에서 안면정보를 추출하고, 음성정보에서 음성특징 정보를 추출하여 융합하는 정보 추출단계(S520), 안면정보와 음성특징 정보를 융합하여 생성되는 고차원 데이터를 대표성분이 포함된 저차원 데이터로 변환하는 정보 변환단계(S530), 대표성분을 이용하여 새로 입력되는 데이터를 분리하는 정보 분리단계(S540), 및 분리된 데이터를 이용하여 피인증자를 판별하는 피인증자 판별단계(S550)를 포함한다.Referring to FIG. 5, in the progressive
도 5와 같이 구성된 본 발명의 다른 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 방법(500)의 수행은 다음과 같다.Performance of the progressive
우선 카메라와 같은 촬상수단을 이용하여 피인증자의 이미지를 촬상하고, 마이크와 같은 녹음수단을 이용하여 피인증자의 목소리를 녹음한다(S510).First, the image of the subject is captured by using an imaging unit such as a camera, and the subject's voice is recorded using a recording unit such as a microphone (S510).
그 후, 피인증자의 이미지에서 안면 이미지를 추출하고, 목소리에서 인증에 필요한 음성특징 정보를 추출하여 융합한다(S520). Thereafter, a facial image is extracted from the image of the subject, and voice feature information necessary for authentication is extracted from the voice and fused (S520).
여기서 피인증자의 이미지에서 안면 이미지를 추출하는 과정은 다음과 도 6을 참조하여 설명하면 다음과 같다.The process of extracting the facial image from the image of the subject is described below with reference to FIG. 6.
도 6은 본 발명의 다른 실시 예에 따르는 안면 이미지를 추출하는 과정을 보여주는 순서도다.6 is a flowchart illustrating a process of extracting a facial image according to another embodiment of the present invention.
도 6을 참조하면, 우선 피인증자의 영상에서 r(Red), g(Green), b(Blue) 성분을 분리한 후, 밝기 정보(I, Intensity)를 분류하고, 얼굴색 필터링을 수행하여. 그 후, 추출된 real-R, real-G 값을 하나로 합치고 테두리성분(E, Edge)과 I를 추출한다(S521).Referring to FIG. 6, first, r (Red), g (Green), and b (Blue) components are separated from an image of a subject, the brightness information (I, Intensity) is classified, and face color filtering is performed. Thereafter, the extracted real-R and real-G values are combined into one and the edge components E and Edge are extracted (S521).
추출된 정보들은 CSD&N(Center Surround Difference & Normalization) 과정을 수행하여 추출되는 (intensity feature map), (edge feature map), (color feature map)을 모두 합한다(S522).The extracted information is extracted by performing Center Surround Difference & Normalization (CSD & N) process. intensity feature map, (edge feature map), (color feature map) is summed (S522).
마지막으로 합해진 영상에서 돌출맵(SM, Saliency Map)을 생성하고, 이와 같이 생성된 돌출맵에서 얼굴 후보영역들을 설정하여, 설정된 얼굴 후보영역들을 AdaBoost 알고리즘을 적용하여 안면 이미지 영역을 추출한다(S523).Finally, a salient map (SM) is generated from the summed image, face candidate regions are set in the generated salient map, and the facial image regions are extracted by applying the AdaBoost algorithm to the set face candidate regions (S523). .
따라서, 이와 같은 방법을 적용하면 피인증자의 이미지에서 안면 이미지만을 추출할 수 있다.Therefore, by applying this method, only the face image can be extracted from the subject's image.
도 7은 도 6의 방법으로 추출된 안면 이미지의 일 예를 보여주는 예시도이다.7 is an exemplary view illustrating an example of a facial image extracted by the method of FIG. 6.
도 7을 참조하면, (a)는 AdaBoost 알고리즘을 적용하여 출력되는 결과 이미지이고, (b)는 돌출맵의 후보영역을 보여주는 이미지이며, (c)는 본 발명에 따르는 안면 이미지의 추출 이미지이다.Referring to FIG. 7, (a) is a resultant image output by applying the AdaBoost algorithm, (b) is an image showing a candidate region of the protrusion map, and (c) is an extracted image of a face image according to the present invention.
(d)는 (c)와 동일한 방법으로 추출된 안면 이미지들을 보여주는 실험 결과이다.(d) is an experimental result showing facial images extracted in the same manner as (c).
한편, 다음의 도 8은 본 발명의 다른 실시 예에 따르는 음성특징 정보를 추출하기 위해 MLCC 알고리즘을 적용하는 것을 보여주는 순서도이다.Meanwhile, FIG. 8 is a flowchart showing the application of the MLCC algorithm to extract voice feature information according to another embodiment of the present invention.
도 8을 참조하면, 음성정보에 퓨리에 변환을 적용하는 STFT(Short time Fourier transform) 과정(S524), 삼각형의 겹치는 윈도우를 사용해서, 멜 스케일의 위에 포함된 스펙트럼의 파워를 멥핑하는 Mel-scale filter bank 과정(S525), 멜 주파수의 각각에 파워의 로그를 적용하는 Log () 과정(S526), 음성정보일 경우, 멜 로그 파워의 리스트에 DCT(discrete cosine transform)를 적용하는 DCT과정(S527), 및 DCT 과정에서 추출된 정보의 상관관계를 제거하기 위해 Cepstral 변환하는 Cepstral filtering과정(S528)을 수행하여 피인증자의 음성특징 정보를 추출할 수 있다.Referring to FIG. 8, a short time fourier transform (STFT) process of applying Fourier transform to speech information (S524), and a Mel-scale filter that maps power of a spectrum included on a mel scale by using overlapping windows of triangles. In the banking process (S525), a log that applies a log of power to each of the mel frequencies ) Process (S526), the DCT process (S527) to apply a DCT (discrete cosine transform) to the list of the melody power, and the Cepstral transform to remove the correlation of the information extracted in the DCT process By performing the filtering process (S528) it is possible to extract the voice feature information of the subject.
이와 같이 추출된 안면 이미지와 음성특징 정보는 서로 합친 후, PCA 알고리즘을 이용하여 대표성분이 포함된 저차원의 시/청각 융합 특징 벡터 성분의 데이터로 변환된다(S530). 그러면, IPCA 알고리즘을 이용하여 대표성분을 기준으로 신규로 입력되는 데이터에 대하여 점진적으로 특징을 추출한다(S540).The facial image and voice feature information extracted as described above are combined with each other and then converted into data of a low dimensional visual / audio fusion feature vector component including a representative component using a PCA algorithm (S530). Then, the feature is gradually extracted with respect to the newly input data based on the representative component using the IPCA algorithm (S540).
도 9를 참조하면 본 발명의 다른 실시 예에 따르는 정보 변환단계(S530)와 정보 분리단계(S540)를 보여주는 예시도이다.9 is an exemplary view showing an information conversion step (S530) and information separation step (S540) according to another embodiment of the present invention.
도 9를 참조하면, 정보 추출단계(S520)를 거친 데이터(Gray Image)가 입력되면, 일정 개수 이상의 이미지에 PCA 알고리즘을 적용하여 n-dimension의 아이겐 벡터 값을 갖는 저차원 이미지로 변환하고(S530), 새롭게 적용되는 데이터에 대해서는 IPCA 알고리즘을 적용하여 새로운 m-dimension의 아이겐 벡터 값을 갖는 이미지를 추출한다. 그 후, 업데이트된 특징을 배우기 위해서 특징 벡터값을 점진적으로 업데이트한다(S540).Referring to FIG. 9, when data (Gray Image) input through the information extraction step (S520) is input, a PCA algorithm is applied to a predetermined number or more images and converted into a low-dimensional image having an eigen vector value of n-dimension (S530). For the newly applied data, the IPCA algorithm is applied to extract an image with the eigen vector of the new m-dimension. Thereafter, the feature vector value is gradually updated to learn the updated feature (S540).
이와 같이 업데이트된 데이터는 도 4에 도시한 바와 같이 RAN-LTM 알고리즘을 적용하여 피인증자의 판별수단으로 활용한다(S550).As such, the updated data is used as the means for discriminating the subject by applying the RAN-LTM algorithm as shown in FIG. 4 (S550).
<실험 예><Experimental Example>
다음은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템에 대한 실험결과에 대해 기술한다.The following describes the experimental results for the gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.
우선 도 10 및 도 11은 본 발명은 뇌인지 메커니즘 기반의 얼굴 검출 모델과, MFCC를 이용한 음성 특징 추출, 그리고 점진적 특징 추출 모델과 RAN-LTM 분류기 모델을 이용하여, 다중 생체정보를 이용한 다중 생체정보를 이용하는 점진적 개인인증 시스템의 실험 결과를 보여준다.First, FIG. 10 and FIG. 11 illustrate the present invention using a brain recognition mechanism based face detection model, voice feature extraction using MFCC, and progressive feature extraction model and RAN-LTM classifier model. Experimental results of a gradual personal authentication system are shown.
도 10은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템의 안면 이미지를 이용하여 피인증자를 인증한 결과를 보여주는 그래프이다.FIG. 10 is a graph showing a result of authenticating a subject using a face image of a gradual personal authentication system using multiple biometric information according to an exemplary embodiment of the present invention.
도 10을 참조하면 점선은 점진적으로 학습한 데이터 성능이 91.96%까지 수행됨을 알 수 있고, 실선은 학습된 피인증자와 다른 이미지 10장과의 비교 테스트에서 97.0%까지 수행됨을 알 수 있다.Referring to FIG. 10, the dotted line indicates that the data performance gradually learned is performed up to 91.96%, and the solid line indicates that up to 97.0% is performed in a comparison test between the trained subject and 10 other images.
도 11은 본 발명의 일 실시 예에 따르는 영상의 가우시안 노이즈가 0.1 ~ 1.0까지 단계별로 추가된 환경에서의 다중 생체정보(시/청각 융합 정보)를 이용하는 개인인증 시스템의 피인증자의 인증결과와, 단일 생체정보(시각 정보)만을 이용한 개인인증 시스템의 피인증자의 인증 결과를 비교하여 보여주는 그래프이다.11 is an authentication result of a subject of a personal authentication system using multiple biometric information (visual and audio fusion information) in an environment where Gaussian noise of an image is added step by step from 0.1 to 1.0, according to an embodiment of the present invention; It is a graph showing the comparison of the authentication results of the subject of the personal authentication system using a single biometric information (visual information).
도 11을 참조하면 점선은 영상에 단계별 노이즈 추가시 영상만 테스트 한 경우 20.83%의 수행결과를 보여주고, 실선은 영상에 단계별 노이즈 추가시 영상과 음성 테스트 결과는 70.83%의 수행결과를 보여준다.Referring to FIG. 11, the dotted line shows 20.83% of the performance results when only the image is tested when the noise is added step by step, and the solid line shows the results of the image and voice test when the noise is added to the image by the step.
여기서 수행결과는 피인증자의 인증 정확도를 의미한다.The performance result here means the authentication accuracy of the subject.
이상과 같이 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.
그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited by the described embodiments, but should be determined by the scope of the appended claims as well as the appended claims.
110: 수집부, 120: 추출부
130: 변환부, 140: 판별부110: collector, 120: extractor
130: conversion unit, 140: determination unit
Claims (10)
상기 영상정보에서 안면 이미지를 추출하고, 상기 음성정보에서 음성특징 정보를 추출하는 추출부;
상기 안면 이미지와 상기 음성특징 정보를 융합하여 생성되는 고차원 데이터를 대표성분이 포함된 저차원 데이터로 변환하면서, 상기 안면 이미지와 상기 음성특징 정보의 벡터를 획득하고, 신규로 입력되는 데이터만을 점진적으로 상기 안면 이미지와 상기 음성특징 정보를 추출하는 변환부; 및
상기 변환부에서 분리된 정보로 상기 피인증자를 판별하는 판별부;를 포함하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 시스템.Collecting unit for collecting the video information of the subject and the voice information of the subject;
An extraction unit for extracting a facial image from the image information and extracting voice feature information from the voice information;
While converting the high-dimensional data generated by fusing the face image and the voice feature information into low-dimensional data including representative components, a vector of the face image and the voice feature information is obtained and only newly input data is gradually obtained. A converter configured to extract the facial image and the voice feature information; And
And a discrimination unit for discriminating the subject by the information separated by the converting unit.
상기 피인증자의 인증을 위한 정보로서, 상기 영상정보에 웨이브 렛 기반의 방향 윤곽선 정보(AdaBoost) 알고리즘을 이용하여 안면 영역을 추출하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 시스템.The method of claim 1, wherein the facial image is
The personal information system of claim 1, wherein the facial information is extracted from the image information using a wavelet-based directional contour information (AdaBoost) algorithm.
상기 피인증자의 인증을 위한 정보로서, 상기 음성정보에 MFCC(Mel-frequency cepstral coefficients) 방법으로 추출되는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 시스템.The method of claim 1, wherein the voice characteristic information
As the information for the authentication of the subject, a progressive personal authentication system using multiple biometric information, characterized in that the extracted by the MFCC (Mel-frequency cepstral coefficients) method.
학습되지 않은 새로운 입력 데이터를 수용할 수 있는 점진적 학습이 가능한 점진적인 주성분 분석법(Incremental Learning Principal Component Analysis, IPCA)을 이용하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 시스템.The method of claim 1, wherein the conversion unit
A gradual personal authentication system using multiple biometrics, characterized by using Incremental Learning Principal Component Analysis (IPCA), which enables progressive learning to accommodate new untrained input data.
RAN-LTM 알고리즘을 적용하여 피인증자를 판별하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 시스템.The method of claim 1, wherein the determining unit
A gradual personal authentication system using multiple biometric information, characterized by determining the subject by applying the RAN-LTM algorithm.
상기 영상정보에서 안면 이미지를 추출하고, 상기 음성정보에서 음성특징 정보를 추출하여 융합하는 정보 추출단계;
적어도 하나 이상의 상기 안면 이미지와 상기 음성특징 정보를 융합하여 생성되는 고차원 데이터를 대표성분이 포함된 저차원 데이터로 변환하면서, 상기 안면 이미지와 상기 음성특징 정보의 융합 데이터의 고유 벡터 특징을 추출하는 정보 변환단계;
상기 고유 벡터를 포함하는 대표성분의 축을 추가하거나 로테이션 시킴으로써 상기 피인증자 정보를 점진적으로 추출하기 위한 저차원 추출단계; 및
상기 정보 변환단계에서 추출된 정보로 상기 피인증자를 판별하는 피인증자 판별단계;를 포함하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 방법.An information collecting step of collecting the subject image information and the subject voice information;
An information extraction step of extracting a facial image from the image information and extracting and fusing voice feature information from the voice information;
Information for extracting a unique vector feature of the fusion data of the face image and the voice feature information while converting high-dimensional data generated by fusing at least one or more of the face image and the voice feature information into low-dimensional data including a representative component Conversion step;
A low dimensional extraction step for progressively extracting the subject information by adding or rotating an axis of a representative component including the eigenvector; And
And a subject identification step of discriminating the subject by the information extracted in the information conversion step.
상기 저차원 데이이터의 아이겐 벡터값 또는 아이겐 벨류값을 포함하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 방법.The method of claim 6, wherein the representative component
Gradual personal authentication method using multiple biometric information, characterized in that it comprises the eigen vector value or eigen value of the low-dimensional data.
상기 피인증자의 인식을 위한 정보로서, 상기 음성정보에 MFCC(Mel-frequency cepstral coefficients) 방법으로 추출되는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 방법.The method of claim 6, wherein the voice characteristic information
As the information for the recognition of the subject, a progressive personal authentication method using multiple biometric information, characterized in that extracted in the speech information by the MFCC (Mel-frequency cepstral coefficients) method.
상기 음성정보에 퓨리에변환을 적용하는 STFT(Short time Fourier transform) 과정;
삼각형의 겹치는 윈도우를 사용해서, 멜 스케일의 위에 포함된 스펙트럼의 파워를 멥핑하는 Mel-scale filter bank 과정;
멜 주파수의 각각에 파워의 로그를 적용하는 Log () 과정;
상기 음성정보일 경우, 멜 로그 파워의 리스트에 DCT(discrete cosine transform)를 적용하는 DCT과정; 및
상기 DCT 과정에서 추출된 정보의 상관관계를 제거하기 위해 Cepstral 변환하는 Cepstral filtering과정;을 포함하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 방법.The method of claim 8, wherein the MFCC
A short time fourier transform (STFT) process for applying a Fourier transform to the speech information;
A Mel-scale filter bank process that maps the power of the spectrum contained on top of the mel scale using triangle overlapping windows;
Log to apply a log of power to each of the mel frequencies ) process;
A DCT process of applying a discrete cosine transform (DCT) to a list of mellog power in the case of the voice information; And
Cepstral filtering process for converting the Cepstral to remove the correlation of information extracted in the DCT process.
저차원의 고유벡터 및 고유값을 추출하는 단계로서, 학습되지 않은 새로운 입력 데이터를 수용할 수 있는 점진적 학습이 가능한 점진적인 주성분 분석법(Incremental Learning Principal Component Analysis, IPCA)을 이용하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 방법.The method of claim 6, wherein the low dimensional extraction step
Extracting low-order eigenvectors and eigenvalues; multi-biometric information characterized by using Incremental Learning Principal Component Analysis (IPCA) capable of incremental learning to accommodate new untrained input data Progressive personal authentication method using.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110043466A KR101208678B1 (en) | 2011-05-09 | 2011-05-09 | Incremental personal autentication system and method using multi bio-data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110043466A KR101208678B1 (en) | 2011-05-09 | 2011-05-09 | Incremental personal autentication system and method using multi bio-data |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20120125802A KR20120125802A (en) | 2012-11-19 |
KR101208678B1 true KR101208678B1 (en) | 2012-12-06 |
Family
ID=47511296
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110043466A KR101208678B1 (en) | 2011-05-09 | 2011-05-09 | Incremental personal autentication system and method using multi bio-data |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101208678B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102060563B1 (en) * | 2018-12-31 | 2020-02-11 | 호서대학교 산학협력단 | Method and apparatus for providing authentication using voice and facial data |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103841108B (en) * | 2014-03-12 | 2018-04-27 | 北京天诚盛业科技有限公司 | The authentication method and system of user biological feature |
KR101962203B1 (en) * | 2017-03-10 | 2019-03-27 | 크루셜텍 (주) | Non-contact multi biometric verification method using multi biometric data and multi biometric apparatus |
KR20210057401A (en) | 2019-11-12 | 2021-05-21 | 한국전자통신연구원 | Apparatus and method for authenticating user based on multiple biometric infomation |
-
2011
- 2011-05-09 KR KR1020110043466A patent/KR101208678B1/en active IP Right Grant
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102060563B1 (en) * | 2018-12-31 | 2020-02-11 | 호서대학교 산학협력단 | Method and apparatus for providing authentication using voice and facial data |
US10867022B2 (en) | 2018-12-31 | 2020-12-15 | Hoseo University Academic Cooperation Foundation | Method and apparatus for providing authentication using voice and facial data |
Also Published As
Publication number | Publication date |
---|---|
KR20120125802A (en) | 2012-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105976809B (en) | Identification method and system based on speech and facial expression bimodal emotion fusion | |
Kim et al. | Person authentication using face, teeth and voice modalities for mobile device security | |
CN104361276B (en) | A kind of multi-modal biological characteristic identity identifying method and system | |
Soltane et al. | Face and speech based multi-modal biometric authentication | |
US20030110038A1 (en) | Multi-modal gender classification using support vector machines (SVMs) | |
CN111461176A (en) | Multi-mode fusion method, device, medium and equipment based on normalized mutual information | |
CN108346427A (en) | A kind of audio recognition method, device, equipment and storage medium | |
CN100363938C (en) | Multi-model ID recognition method based on scoring difference weight compromised | |
CN103413113A (en) | Intelligent emotional interaction method for service robot | |
CN102982322A (en) | Face recognition method based on PCA (principal component analysis) image reconstruction and LDA (linear discriminant analysis) | |
CN107766781B (en) | Method and system for quickly recognizing electrocardio identity | |
Lip et al. | Comparative study on feature, score and decision level fusion schemes for robust multibiometric systems | |
KR101208678B1 (en) | Incremental personal autentication system and method using multi bio-data | |
Sarria-Paja et al. | Feature mapping, score-, and feature-level fusion for improved normal and whispered speech speaker verification | |
Sun et al. | A novel convolutional neural network voiceprint recognition method based on improved pooling method and dropout idea | |
Vasuhi et al. | An efficient multi-modal biometric person authentication system using fuzzy logic | |
Shen et al. | Secure mobile services by face and speech based personal authentication | |
Neelima et al. | Mimicry voice detection using convolutional neural networks | |
Brunet et al. | Speaker recognition for mobile user authentication: An android solution | |
CN110738985A (en) | Cross-modal biometric feature recognition method and system based on voice signals | |
Kartik et al. | Multimodal biometric person authentication system using speech and signature features | |
Mok et al. | Person authentication using ASM based lip shape and intensity information | |
Shang et al. | Multimodal-database-XJTU: An available database for biometrics recognition with its performance testing | |
Cheng et al. | An efficient approach to multimodal person identity verification by fusing face and voice information | |
CN106971725B (en) | Voiceprint recognition method and system with priority |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20151023 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20161017 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20171017 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20191022 Year of fee payment: 8 |