KR101208678B1 - Incremental personal autentication system and method using multi bio-data - Google Patents

Incremental personal autentication system and method using multi bio-data Download PDF

Info

Publication number
KR101208678B1
KR101208678B1 KR1020110043466A KR20110043466A KR101208678B1 KR 101208678 B1 KR101208678 B1 KR 101208678B1 KR 1020110043466 A KR1020110043466 A KR 1020110043466A KR 20110043466 A KR20110043466 A KR 20110043466A KR 101208678 B1 KR101208678 B1 KR 101208678B1
Authority
KR
South Korea
Prior art keywords
information
subject
voice
image
personal authentication
Prior art date
Application number
KR1020110043466A
Other languages
Korean (ko)
Other versions
KR20120125802A (en
Inventor
이민호
장영민
오자와 세이치
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020110043466A priority Critical patent/KR101208678B1/en
Publication of KR20120125802A publication Critical patent/KR20120125802A/en
Application granted granted Critical
Publication of KR101208678B1 publication Critical patent/KR101208678B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은 개인인증에 관한 것으로서 더욱 상세하게는 피인증자의 안면 이미지와 음성특징 정보를 융합하여 저차원의 고유벡터 및 고유값으로 시/청각 융합정보의 특징을 추출한 후, 새로 입력되는 데이터만을 점진적으로 학습하여 피인증자를 인증하는 다중 생체정보를 이용하는 점진적 개인인증 시스템 및 방법에 관한 것이다.The present invention relates to personal authentication. More specifically, after fusion of facial image and voice feature information of a subject, the feature of visual and auditory convergence information is extracted with low eigenvectors and eigenvalues. The present invention relates to a gradual personal authentication system and method using multiple biometric information to authenticate a subject.

Description

다중 생체정보를 이용하는 점진적 개인인증 시스템 및 방법{INCREMENTAL PERSONAL AUTENTICATION SYSTEM AND METHOD USING MULTI BIO-DATA}Progressive personal authentication system and method using multiple biometric information {INCREMENTAL PERSONAL AUTENTICATION SYSTEM AND METHOD USING MULTI BIO-DATA}

본 발명은 개인인증에 관한 것으로서 더욱 상세하게는 피인증자의 안면 이미지와 음성특징 정보를 융합하여, 시/청각 정보를 고유벡터의 특징데이터로 변환한 후, 새로 입력되는 개인 인증 정보를 점진적으로 학습하여 피인증자를 인증하는 다중 생체정보를 이용하는 점진적 개인인증 시스템 및 방법에 관한 것이다.The present invention relates to personal authentication, and more specifically, converges a subject's face image and voice feature information, converts visual and audio information into characteristic data of a unique vector, and then gradually learns new personal authentication information. It relates to a gradual personal authentication system and method using multiple biometric information to authenticate the subject.

최근 들어, 시스템 보안에 대한 관심과 연구가 활발히 진행되고 있다.Recently, interest and research on system security have been actively conducted.

이에 따라 개인 인증에 대한 관심이 날로 증가하고 있다.Accordingly, interest in personal authentication is increasing day by day.

종래에는 키보드에 기초하여 패스워드를 입력하는 방식을 흔히 사용하고 있다. 패스워드 입력방식은 개인 인증을 수행하기 위해 키보드로 사용자가 숫자나 문자, 또는 숫자와 문자의 조합으로 비밀번호를 입력하여 인증하는 방식이다.Conventionally, a method of inputting a password based on a keyboard is commonly used. The password input method is a method in which a user inputs a password by using a keyboard or a combination of numbers and letters in order to perform personal authentication.

그러나 이러한 패스워드 방식은 개인의 생일이나 전화번호와 같은 쉽게 추측되는 번호가 사용되는 경우가 많기 때문에, 쉽게 추측되고 타인의 도청과 몰래 카메라와 같은 수단에 의해 쉽게 노출된다는 문제점이 있었다.However, such a password method has a problem that easily guessed numbers such as a person's birthday or a phone number are often used, and thus easily guessed and easily exposed by a means such as a camera eavesdropping by another person.

이런 이유로 강력한 보안을 위해 지문, 홍채인식, 안면 윤곽과 같은 생체정보를 이용하여 개인을 인증하는 방법이 대두되고 있다.For this reason, a method of authenticating an individual using biometric information such as fingerprints, iris recognitions, and facial contours has emerged for strong security.

생체정보는 개인마다 다르기 때문에 고유의 특징을 갖는다는 장점이 있었다.Biological information is unique because it varies from person to person.

이 중에서도 얼굴인식을 이용하는 개인 인증 방법이 최근 많이 사용되고 있다. 그러나 사람은 나이가 들어감에 따라 얼굴의 형태가 바뀌고 체중에 의해서도 그 형태가 바뀐다는 문제점이 있었다.Among these, personal authentication methods using face recognition have been widely used in recent years. However, people have a problem that the shape of the face changes with age and the shape also changes with weight.

또한, 빛의 상태에 따른 얼굴의 형태, 표정, 화장 등과 같은 제약에 의해 용이하게 인식하지 못한다는 문제점도 있었다.In addition, there is a problem in that it is not easily recognized by constraints such as the shape of the face, facial expressions, makeup, etc. according to the light conditions.

덧붙여 복잡하고 잡음이 많은 상황에서 시각 정보와 청각 정보가 쉽게 왜곡되는 이유로 정확한 개인인증이 어렵다는 문제점도 있었다.In addition, there is a problem that accurate personal authentication is difficult because visual and auditory information are easily distorted in a complicated and noisy situation.

따라서, 얼굴인식을 통한 개인인증과 더불어 개인인증의 정확도를 향상시킬 수 있는 다른 수단이 절실히 요구되고 있다.Therefore, in addition to personal authentication through face recognition, other means for improving the accuracy of personal authentication are urgently required.

본 발명은 상술한 바와 같은 종래기술의 문제점을 해결하기 위해 안출된 것으로서, 본 발명의 목적은, 특히 피인증자를 정확하게 인증하고, 인증을 수행하는데 있어 데이터의 량을 대폭 줄이며, 점진적으로 피인증자를 정확하게 인증하기 위한 다중 생체정보를 이용하는 점진적 개인인증 시스템 및 방법을 제공하는 것이다. The present invention has been made to solve the problems of the prior art as described above, the object of the present invention is to accurately authenticate the subject, in particular to significantly reduce the amount of data in performing the authentication, and gradually It is to provide a progressive personal authentication system and method using multiple biometric information for accurate authentication.

이를 위해 본 발명에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템은, 피인증자의 영상정보와 상기 피인증자의 음성정보 수집을 위한 수집부, 상기 영상정보에서 안면 이미지를 추출하고, 상기 음성정보에서 음성특징 정보를 추출하는 추출부, 상기 안면 이미지와 상기 음성특징 정보를 융합하여 생성되는 고차원 데이터를 대표성분이 포함된 저차원 데이터로 변환하면서, 상기 안면 이미지와 상기 음성특징 정보의 벡터를 획득하고, 새로 입력되는 데이터만을 점진적으로 상기 안면 이미지와 상기 음성특징 정보를 추출하는 변환부, 상기 변환부에서 분리된 정보로 상기 피인증자를 판별하는 판별부를 포함한다.To this end, a gradual personal authentication system using multiple biometric information according to the present invention comprises: a collecting unit for collecting video information of a subject and voice information of the subject, extracting a face image from the video information, and voice from the voice information. An extraction unit for extracting feature information, and converting the high-dimensional data generated by fusing the face image and the voice feature information into low-dimensional data including representative components, obtaining a vector of the face image and the voice feature information, A conversion unit for gradually extracting only the newly input data of the face image and the voice feature information, and a determination unit for determining the subject by the information separated by the conversion unit.

상기 안면 이미지는 상기 피인증자의 인증을 위한 정보로서, 상기 영상정보에 웨이브 렛 기반의 방향 윤곽선 정보(AdaBoost) 알고리즘을 이용하여 안면 영역을 추출한다.The facial image is information for authentication of the subject, and extracts a facial region using a wavelet-based directional contour information (AdaBoost) algorithm on the image information.

상기 음성 특징정보는 상기 피인증자의 인증을 위한 정보로서, 상기 음성정보에 MFCC(Mel-frequency cepstral coefficients) 방법으로 추출된다.The voice characteristic information is information for authentication of the subject, and is extracted to the voice information by a Mel-frequency cepstral coefficients (MFCC) method.

상기 변환부는 학습되지 않은 새로운 입력 데이터를 수용할 수 있는 점진적 학습이 가능한 점진적인 주성분 분석법(Incremental Learning Principal Component Analysis, IPCA)을 이용한다.The transform unit uses incremental learning principle component analysis (IPCA), which enables progressive learning to accommodate new input data that has not been learned.

상기 판별부는 RAN-LTM 알고리즘을 적용하여 피인증자를 판별하는 것을 특징으로 하는 다중 생체정보를 이용한다.The determination unit uses the multi-biometric information, characterized in that to determine the subject by applying the RAN-LTM algorithm.

또한, 이를 위해 본 발명에 따르는 다중 생체정보를 이용하는 점진적 개인인증 방법은, 피인증자 영상정보와 상기 피인자 음성정보를 수집하는 정보 수집단계, 상기 영상정보에서 안면 이미지를 추출하고, 상기 음성정보에서 음성특징 정보를 추출하여 융합하는 정보 추출단계, 적어도 하나 이상의 상기 안면 이미지와 상기 음성특징 정보를 융합하여 생성되는 고차원 데이터를 대표성분이 포함된 저차원 데이터로 변환하면서 시/청각 융합 정보의 고유 벡터의 특징을 추출하는 정보 변환단계, 상기 고유 벡터 대표성분의 축을 추가하거나 로테이션 시킴으로써 점진적으로 시/청각 데이터의 특징을 추출하기 위한 저차원 추출단계, 및 상기 시/청각 융합정보 특징 추출 단계에서 추출된 정보로 상기 피인증자를 판별하는 피인증자 판별단계를 포함한다.In addition, a progressive personal authentication method using multiple biometric information according to the present invention for this purpose, information collection step of collecting the subject image information and the subject voice information, extracting a facial image from the image information, An information extraction step of extracting and fusing voice feature information, a unique vector of visual / audio fusion information while converting high-dimensional data generated by fusing at least one or more of the face image and the voice feature information into low-dimensional data including representative components An information transformation step of extracting features of the information, a low dimensional extraction step of gradually extracting features of the visual and auditory data by adding or rotating the axes of the eigenvector representative components, and the visual and auditory fusion information feature extraction steps And a subject determining step of discriminating the subject by the information.

상기 대표성분은 상기 저차원 데이이터의 벡터값 또는 아이겐 벨류값이다.The representative component is a vector value or an eigen value of the low dimensional data.

상기 음성 특징정보는 상기 피인증자의 인식을 위한 정보로서, 상기 음성정보에MFCC(Mel-frequency cepstral coefficients) 방법으로 추출된다.The speech feature information is information for recognition of the subject, and is extracted by the Mel-frequency cepstral coefficients (MFCC) method.

상기 MFCC는 상기 음성정보에 퓨리에 변환을 적용하는 STFT(Short time Fourier transform) 과정, 삼각형의 겹치는 윈도우를 사용해서, 멜 스케일의 위에 포함된 스펙트럼의 파워를 멥핑하는 Mel-scale filter bank 과정, 멜 주파수의 각각에 파워의 로그를 적용하는 Log (

Figure 112011034149119-pat00001
) 과정, 상기 음성정보일 경우, 멜 로그 파워의 리스트에DCT(discrete cosine transform)를 적용하는 DCT과정, 및 상기 DCT 과정에서 추출된 정보의 상관관계를 제거하기 위해 Cepstral 변환하는 Cepstral filtering과정을 포함한다.The MFCC is a short time fourier transform (STFT) process for applying Fourier transform to the speech information, a mel-scale filter bank process for mapping power of a spectrum included on a mel scale using a triangle overlapping window, and a mel frequency. Apply a log of power to each of the Logs (
Figure 112011034149119-pat00001
) Process, the DCT process of applying a discrete cosine transform (DCT) to the list of the melodic power, and the Cepstral filtering process of performing Cepstral transformation to remove the correlation of information extracted from the DCT process. do.

상기 저차원 데이터 추출단계는 학습되지 않은 새로운 입력 데이터를 수용할 수 있는 점진적 학습이 가능한 점진적인 주성분 분석법(Incremental Learning Principal Component Analysis, IPCA)을 이용한다. The low dimensional data extraction step uses an incremental learning principle component analysis (IPCA) capable of incremental learning that can accommodate new untrained input data.

본 발명의 다양한 실시 예에 따르면, 다중 생체정보를 이용함으로써 개인 인증의 정확도를 높이는 효과가 있다.According to various embodiments of the present disclosure, the use of multiple biometric information increases the accuracy of personal authentication.

또한, 본 발명의 다양한 실시 예에 따르면, 개인 인증을 위해 입력되는 데이터의 량을 대폭 축소함으로써 시스템의 부하가 줄어들어 저비용으로도 효율적인 인증 시스템을 구축할 수 있는 효과도 있다.In addition, according to various embodiments of the present disclosure, by significantly reducing the amount of data input for personal authentication, the load on the system may be reduced, and an efficient authentication system may be established at low cost.

따라서 본 발명의 다양한 실시 예에 따르면, 궁극적으로 보안 시스템, 출입통제 시스템, 전자여권 등 실생활 환경에서 상황적응적으로 피인증자를 인식할 수 있기 때문에 산업 전반에 용이하게 적용될 수 있는 효과가 있다. Therefore, according to various embodiments of the present disclosure, the subject may be recognized in a real-life environment such as a security system, an access control system, an ePassport, and thus may be easily applied to the entire industry.

도 1은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템을 보여주는 블록도.
도 2는 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템의 추출부의 동작을 보여주는 블록도.
도 3은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템의 변환부를 보여주는 블록도.
도 4는 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템의 판단부를 보여주는 블록도.
도 5는 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 방법을 보여주는 순서도.
도 6은 본 발명의 다른 실시 예에 따르는 안면 이미지를 추출하는 과정을 보여주는 순서도.
도 7은 도 6의 방법으로 추출된 안면 이미지의 일 예를 보여주는 예시도.
도 8은 본 발명의 다른 실시 예에 따르는 음성특징 정보를 추출하기 위해 MLCC 알고리즘을 적용하는 것을 보여주는 순서도.
도 9를 참조하면 본 발명의 다른 실시 예에 따르는 정보 변환단계와 정보 분리단계를 보여주는 예시도.
도 10은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템의 안면 이미지를 이용하여 피인증자를 인증한 결과를 보여주는 그래프.
도 11은 본 발명의 일 실시 예에 따르는 영상의 가우시안 노이즈가 0.1 ~ 1.0까지 단계별로 추가된 환경에서의 다중 생체정보(시/청각 융합 정보)를 이용하는 개인인증 시스템의 피인증자의 인증결과와, 단일 생체정보(시각 정보)만을 이용한 개인인증 시스템의 피인증자의 인증 결과를 비교하여 보여주는 그래프.
1 is a block diagram illustrating a gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.
Figure 2 is a block diagram showing the operation of the extraction unit of the gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.
3 is a block diagram showing a conversion unit of a gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.
4 is a block diagram showing a determination unit of a gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.
5 is a flowchart illustrating a gradual personal authentication method using multiple biometric information according to an embodiment of the present invention.
6 is a flowchart illustrating a process of extracting a facial image according to another embodiment of the present invention.
7 is an exemplary view showing an example of a facial image extracted by the method of FIG.
8 is a flowchart showing the application of the MLCC algorithm to extract the voice feature information according to another embodiment of the present invention.
9 is an exemplary view illustrating an information conversion step and an information separation step according to another embodiment of the present invention.
10 is a graph showing a result of authenticating a subject using a face image of a gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.
11 is an authentication result of a subject of a personal authentication system using multiple biometric information (visual and audio fusion information) in an environment where Gaussian noise of an image is added step by step from 0.1 to 1.0, according to an embodiment of the present invention; A graph showing a comparison of the subject's authentication results using a single biometric information (visual information).

이하에서는 첨부된 도면들을 참조하여 본 발명의 실시 예에 따른 다중 생체정보를 이용하는 점진적 개인인증 시스템 및 방법을 상세히 설명한다.Hereinafter, a gradual personal authentication system and method using multiple biometric information according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1 내지 도 11의 동일 부재에 대해서는 동일한 도면 번호를 기재하였다.The same reference numerals are used for the same members in FIGS. 1 to 11.

본 발명을 설명함에 있어 시/청각 정보와 안면 이미지와 음성특징 정보는 동일한 의미로 사용되었다.In describing the present invention, visual / audio information, facial images, and voice feature information are used in the same sense.

본 발명의 기본 원리는 피인증자의 안면 이미지와 음성특징 정보를 저차원 데이터로 변환하여 추출되는 고유벡터 대표성분의 축을 추가하거나 일정 각도만큼 회전시킴으로써 데이터를 분리하여 개인인증을 수행하는 것이다.The basic principle of the present invention is to perform personal authentication by separating the data by adding the axis of the eigenvector representative component extracted by converting the facial image and the voice feature information of the subject into low-dimensional data or rotating by a predetermined angle.

아울러, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다.In the following description of the present invention, detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

도 1은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템을 보여주는 블록도이다.1 is a block diagram illustrating a gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.

도 1을 참조하면 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)은 피인증자의 영상정보와 피인증자의 음성정보 수집을 위한 수집부(110), 수집부(110)에서 수집된 영상정보에서 안면정보를 추출하고, 음성정보에서 음성특징 정보를 추출하여 융합하는 추출부(120), 추출부(120)에서 융합하여 생성되는 고차원 데이터를 저차원 데이터로 변환하면서 시/청각 융합정보의 특징 벡터의 대표성분을 추출하여 데이터를 분리하기 위한 변환부(130), 및 변환부(130)에서 변환된 정보로 피인증자를 판별하는 판별부(140)를 포함한다.Referring to FIG. 1, a gradual personal authentication system 100 using multiple biometric information according to an embodiment of the present invention includes a collecting unit 110 and a collecting unit 110 for collecting image information of a subject and voice information of a subject. Facial information is extracted from the image information collected from the image), voice feature information is extracted from the voice information extractor 120, and the high-dimensional data generated by fusion in the extraction unit 120 is converted to low-dimensional data And a determining unit 140 for extracting representative components of the feature vector of the auditory convergence information to separate the data, and a determining unit 140 for determining the subject by the information converted by the converting unit 130.

도 1과 같이 구성된 본 발명의 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템의 동작을 설명하면 다음과 같다.Referring to the operation of a gradual personal authentication system using multiple biometric information according to an embodiment of the present invention configured as shown in Figure 1 as follows.

우선 수집부(110)는 피인증자의 영상정보와 음성정보를 수집한다. 예를 들면, 카메라를 이용하여 피인증자의 안면이 포함된 이미지를 획득하고, 마이크를 이용하여 피인증자의 목소리를 녹음한다.First, the collecting unit 110 collects the video information and the audio information of the subject. For example, an image including the subject's face is obtained by using a camera, and the subject's voice is recorded by using a microphone.

그러면, 추출부(120)는 수집부(110)에서 수집된 영상에서 안면 이미지를 추출하고, 음성정보에서 음성특징 정보를 추출하여 융합한다. 예를 들면, 수집된 영상정보에서 피인증자의 인증을 위한 안면 이미지 외의 배경 이미지를 제외시키는 것이다.Then, the extractor 120 extracts a facial image from the image collected by the collector 110, and extracts and fuses voice feature information from the voice information. For example, the background image other than the face image for authentication of the subject is excluded from the collected image information.

한편, 음성정보는 언어적 의미, 피인증자 정보, 음향의 채널 정보의 3가지 유형으로 분리될 수 있다. 여기서 3가지 유형의 정보 중 피인증자의 인증에 필요한 음성특징 정보만을 추출하여 추출된 안면 이미지와 융합한다. On the other hand, the voice information may be divided into three types: linguistic meaning, subject information, and channel information of sound. Here, only the voice feature information necessary for authentication of the subject is extracted from the three types of information, and then fused with the extracted facial image.

변환부(130)는 PCA(Principal Component Analysis) 알고리즘을 적용하여 대표성분을 추출한다. 여기서 대표성분은 데이터를 분리하기 위한 분리선의 개념으로서, 아이겐 벡터(eigen-vector)나, 아이겐 벨류(eigen-value)를 들 수 있다. 즉, PCA 알고리즘을 적용하여 일정 수 이상의 개인정보에서 대표되는 고유성분을 추출한 후, IPCA(Incremental Principal Component Analysis) 알고리즘을 적용한다. The transform unit 130 extracts a representative component by applying a Principal Component Analysis (PCA) algorithm. Here, the representative component may be an eigen-vector or an eigen-value as a concept of a separation line for separating data. That is, after applying the PCA algorithm to extract the unique components represented from a certain number of personal information or more, apply the IPCA (Incremental Principal Component Analysis) algorithm.

여기서 IPCA 알고리즘은 점진적인 PCA 방법으로서, 아이겐 벡터의 축을 추가 시키거나 로테이션 시킴으로써 새로운 데이터를 분리하고, 분리된 새로운 데이터에 대해서만 업데이트 시키는 방법이다.Here, the IPCA algorithm is a gradual PCA method that separates new data by adding or rotating axes of eigen vectors and updates only the separated new data.

마지막으로 판별부(140)에서는 추출된 영상과 음성을 RNA-LTM(Resource Allocating Network with Long-Term Memory) 모델을 이용하여 판별함으로써 개인인증을 수행한다.Finally, the determination unit 140 performs personal authentication by discriminating the extracted video and audio using a resource allocating network with long-term memory (RNA-LTM) model.

이와 같이 피인증자의 영상과 음성 두 가지의 생체정보를 활용하여 개인을 인증함으로써 보다 높은 신뢰도를 확보할 수 있고, 또한 생체정보의 고차원 데이터를 저차원 데이터로 변환함으로써 데이터의 계산 속도를 높일 수 있다.In this way, by authenticating the individual by using the biometric information of the subject's video and audio, it is possible to secure higher reliability, and the data calculation speed can be increased by converting the high-dimensional data of the biometric information into low-dimensional data. .

도 2는 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)의 추출부(120)의 동작을 보여주는 블록도이다.2 is a block diagram illustrating an operation of the extractor 120 of the gradual personal authentication system 100 using multiple biometric information according to an embodiment of the present invention.

도 2를 참조하면 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)의 추출부(120)는 피인증자의 이미지에서 안면 이미지를 추출하는 안면이미지 추출수단(121)과 피인증자의 목소리에서 음성특징 정보를 추출하는 음성특징 추출수단(122)을 포함한다.Referring to FIG. 2, the extractor 120 of the gradual personal authentication system 100 using multiple biometric information according to an embodiment of the present invention may include a face image extracting unit 121 for extracting a face image from an image of a subject; And voice feature extraction means 122 for extracting voice feature information from the voice of the subject.

우선 안면이미지 추출수단(121)은 인간 두뇌의 시각정보처리 메커니즘에 기반을 둔 선택적 주의집중 모델에 기인한 얼굴검출 방법을 이용한다.First, the face image extracting unit 121 uses a face detection method based on a selective attention model based on the visual information processing mechanism of the human brain.

본 발명의 일 실시 예에 따르는 안면이미지 추출수단(121)은 인간의 망막이 갖는 윤곽선 정보와 보색정보를 추출하는 기능을 모방하여 돌출맵에서는 윤곽선과 보색 정보를 위한 색(RG)정보를 기본 입력정보로 사용한다. 또한, 밝기정보(Intensity)는 인간의 심리적 요소로서 가설을 반영하기 위해 돌출맵의 입력으로 사용된다. 피인증자의 얼굴을 효과적으로 검출하기 위해서 피인증자의 얼굴색 정보를 기억하여, 안면 영역에 가중치를 실시간으로 반영함으로써 관심영역을 선택한다. 이와 같이 선택된 얼굴 후보 영역 내에서 웨이브 렛 기반의 방향 윤곽선 정보(AdaBoost) 알고리즘을 이용하여, 안면 영역만을 선별한다.The facial image extracting unit 121 according to an embodiment of the present invention mimics a function of extracting contour information and complementary color information of the human retina, and thus, in the protrusion map, basic input of color (RG) information for contour and complementary color information. Use as information. In addition, intensity information is used as an input of the protrusion map to reflect the hypothesis as a psychological element of human. In order to effectively detect the subject's face, the subject's region is selected by storing the subject's face color information and reflecting the weight to the facial region in real time. In the face candidate region thus selected, only the facial region is selected using a wavelet-based directional contour information (AdaBoost) algorithm.

한편, 음성특징 추출수단(122)은 피인증자의 음성정보인 언어적 의미, 피인증자 정보, 음향의 채널 정보의 3가지 유형에서 MFCC(Mel-Frequency Cepstral Coefficients)를 이용하여 인증을 위한 음성특징 정보를 추출한다.On the other hand, the speech feature extraction means 122 uses the MFCC (Mel-Frequency Cepstral Coefficients) for authentication of speech feature information in three types of verbal meaning, subject information, and sound channel information. Extract

이와 같이 추출부(120)부는 피인증자의 안면 이미지와 음성특징 정보를 추출하여 융합한다.As such, the extractor 120 extracts and fuses the facial image of the subject and voice feature information.

도 3은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)의 변환부(130)를 보여주는 블록도이다.3 is a block diagram illustrating a conversion unit 130 of a gradual personal authentication system 100 using multiple biometric information according to an embodiment of the present invention.

도 3을 참조하면 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)의 변환부(130)는 PCA(Principal Component Analysis)부(131)와 IPCA(Incremental Principal Component Analysis)부(132)를 포함한다.Referring to FIG. 3, the conversion unit 130 of the gradual personal authentication system 100 using multiple biometric information according to an embodiment of the present invention may include a PCA (Principal Component Analysis) unit 131 and an IPCA (Incremental Principal Component Analysis). Section 132.

여기서 PCA(Principal Component Analysis)는 주성분 분석법이라 하며 주로 다루기 힘든 고차원의 신호를 낮은 차원으로 줄여 다루기 쉽게 해주는 통계적 방법이다. 그리고 PCA 방법은 얼굴 이미지만이 존재하는 낮은 차원의 영상공간을 얻기 위해서 사용되었는데 그렇게 하여 구한 안면 이미지만을 위한 공간을 고유공간이라 하며 그 공간을 구성하는 좌표계에 해당하는 벡터로 표현하였다. Principal Component Analysis (PCA) is called Principal Component Analysis and is a statistical method that makes it easier to handle high-dimensional signals that are difficult to handle. The PCA method was used to obtain a low-dimensional image space with only a face image. The space for the facial image obtained was called eigenspace and represented by a vector corresponding to the coordinate system constituting the space.

본 발명의 PCA부(131)는 일정개수 이상의 피인증자의 얼굴정보를 고유공간상의 좌표계로 변환하면, IPCA부(132)는 추출된 대표성분인 아이겐 벡터(eigen-vector)나 아이겐 벨류(eigen-value)를 이용하여, 데이터의 특징 정보를 추출한다. 즉 PCA부(131)는 고차원의 시/청각 융합 정보를 저차원의 데이터로 변환하고 아이겐 벡터(eigenvector)나 아이겐 벨류(eigen-value)인 저차원 특징을 추출한다. 그러면, IPCA부(132)는 PCA부(131)에서 추출된 아이겐 벡터값과 아이겐 벨류 값을 이용하여 새롭게 추가되는 정보에 대해서만 학습하여 축을 추가하거나 로테이션함으로써 시/청각 융합 정보의 특징 데이터를 추출한다. When the PCA unit 131 of the present invention converts face information of a certain number of subjects into a coordinate system in a unique space, the IPCA unit 132 is an eigen-vector or eigen- value) to extract feature information of the data. That is, the PCA unit 131 converts high-dimensional visual / audio fusion information into low-dimensional data and extracts low-dimensional features that are eigenvectors or eigen-values. Then, the IPCA unit 132 extracts the characteristic data of the visual / audio fusion information by adding or rotating axes by learning only the newly added information using the eigen vector value and the eigen value extracted from the PCA unit 131. .

도 4는 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)의 판단부(140)를 보여주는 블록도이다.4 is a block diagram illustrating a determination unit 140 of a gradual personal authentication system 100 using multiple biometric information according to an embodiment of the present invention.

도 4를 참조하면 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템(100)의 판단부(140)는 리소스 할당 네트워크(RAN, 141)와 장기 메모리(LTM, 142)를 포함한다.Referring to FIG. 4, the determination unit 140 of the gradual personal authentication system 100 using multiple biometric information according to an embodiment of the present invention includes a resource allocation network (RAN) 141 and a long-term memory (LTM) 142. do.

RAN(141)은 숨겨진 항목의 할당을 자동으로 수행하는 Radial Basis Function(RBF) 네트워크의 확장된 모델이다. 여기서, 입력 항목의 수, 숨겨진 항목의 수 및 출력 항목의 수를 각각 I, J, K로 나타내고, 입력을

Figure 112011034149119-pat00002
, 숨겨진 항목의 출력을
Figure 112011034149119-pat00003
, 출력을
Figure 112011034149119-pat00004
라고 나타내면, 숨겨진 항목의 출력 값 및 출력의 출력값을 다음과 같이 표시할 수 있다. RAN 141 is an extended model of the Radial Basis Function (RBF) network that automatically performs the assignment of hidden items. Here, the number of input items, the number of hidden items, and the number of output items are represented by I, J, and K, respectively.
Figure 112011034149119-pat00002
, The output of hidden items
Figure 112011034149119-pat00003
Output
Figure 112011034149119-pat00004
, The output value of the hidden item and the output value of the output can be displayed as follows.

Figure 112011034149119-pat00005
Figure 112011034149119-pat00005

Figure 112011034149119-pat00006
Figure 112011034149119-pat00006

여기서

Figure 112011034149119-pat00007
이고,
Figure 112011034149119-pat00008
는 j번째 숨겨진 항목의 중심 및 분산이고,
Figure 112011034149119-pat00009
는 j번째 숨겨진 항목으로부터 k번째 출력 항목의 연결 가중치이고,
Figure 112011034149119-pat00010
는 k번째 출력 항목의 바이어스(bias)이다. here
Figure 112011034149119-pat00007
ego,
Figure 112011034149119-pat00008
Is the center and variance of the jth hidden item,
Figure 112011034149119-pat00009
Is the concatenation weight of the kth output item from the jth hidden item,
Figure 112011034149119-pat00010
Is the bias of the k th output item.

LTM(142)은 대표 입-출력 쌍에 대응되는 '메모리 항목(memory items)'이라 불리는 항목을 저장할 수 있다. 이러한 입-출력 쌍은 학습 데이터(tranning data)로부터 선택될 수 있으며, 이들 쌍이 삭제되는 것을 방지하기 위하여 새롭게 주어진 학습 데이터로 학습이 수행될 수 있다. The LTM 142 may store an item called 'memory items' corresponding to the representative input-output pair. These input-output pairs can be selected from the training data, and learning can be performed with the newly given training data to prevent these pairs from being deleted.

이러한 학습 알고리즘에서, 메모리 항목은 숨겨진 항목이 할당될 때 생성된다. 즉, RBF 센터 및 대응되는 출력이 메모리 항목으로 저장될 수 있다. In this learning algorithm, memory items are created when hidden items are allocated. That is, the RBF center and its corresponding output can be stored as a memory item.

이러한 RAN-LTM 학습기의 학습 알고리즘은 두 단계로 나눠진다. 구체적으로, 숨겨진 항목(예를 들어, RBF 센터의 선택)의 할당하는 동작과, 숨겨진 항목과 출력 항목 사이의 연결 가중치를 계산하는 동작으로 나눠질 수 있다. 전자의 동작은 메모리 항목이 동시에 생성된다는 점을 제외하고는 일반적인 RAN에서의 동작과 동일하다. 숨겨진 항목이 할당되면, 그 값들은 이후에 고정된다. The learning algorithm of this RAN-LTM learner is divided into two stages. Specifically, the method may be divided into an operation of allocating a hidden item (eg, selection of an RBF center) and an operation of calculating a connection weight between the hidden item and the output item. The former operation is the same as that in a typical RAN except that memory items are created at the same time. When a hidden item is assigned, its values are later fixed.

따라서, 연결 가중치(

Figure 112011034149119-pat00011
)는 출력 에러에 기초하여 갱신되는 유일한 파라미터가 된다. Therefore, connection weight (
Figure 112011034149119-pat00011
) Is the only parameter that is updated based on the output error.

에러를 최소화하기 위하여, 다음과 같은 수학식 3과 같은 스퀘어 방법(squares method)이 이용될 수 있다. In order to minimize the error, a squares method such as Equation 3 may be used.

Figure 112011034149119-pat00012
Figure 112011034149119-pat00012

여기서, D는 타깃 출력에 대응되는 칼럼 벡터들의 행렬이다. Here, D is a matrix of column vectors corresponding to the target output.

학습 데이터(x, d)가 주어지고, 메모리 항목(M)

Figure 112011034149119-pat00013
Figure 112011034149119-pat00014
이 생성되어 있다고 가정하면, 타깃 행렬(D)은
Figure 112011034149119-pat00015
이다. Given the training data (x, d), memory item (M)
Figure 112011034149119-pat00013
Figure 112011034149119-pat00014
Assume that is generated, the target matrix (D)
Figure 112011034149119-pat00015
to be.

따라서,

Figure 112011034149119-pat00016
는 학습 데이터 및 메모리 항목을 이용하여 수학식 4와 같이 계산될 수 있다. therefore,
Figure 112011034149119-pat00016
May be calculated as shown in Equation 4 using the training data and the memory item.

Figure 112011034149119-pat00017
Figure 112011034149119-pat00017

한편, 수학식 1의 W를 풀기 위하여, 특이값 분해(Singular value Decompostion, SVD)가 이용될 수 있다.Meanwhile, in order to solve W in Equation 1, singular value decompostion (SVD) may be used.

도 5는 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 방법을 보여주는 순서도이다.5 is a flowchart illustrating a gradual personal authentication method using multiple biometric information according to an embodiment of the present invention.

도 5를 참조하면 본 발명의 다른 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 방법(500)은 피인증자 영상정보와 음성정보를 수집하는 정보 수집단계(S510), 영상정보에서 안면정보를 추출하고, 음성정보에서 음성특징 정보를 추출하여 융합하는 정보 추출단계(S520), 안면정보와 음성특징 정보를 융합하여 생성되는 고차원 데이터를 대표성분이 포함된 저차원 데이터로 변환하는 정보 변환단계(S530), 대표성분을 이용하여 새로 입력되는 데이터를 분리하는 정보 분리단계(S540), 및 분리된 데이터를 이용하여 피인증자를 판별하는 피인증자 판별단계(S550)를 포함한다.Referring to FIG. 5, in the progressive personal authentication method 500 using multiple biometric information according to another embodiment of the present invention, an information collection step (S510) of collecting subject image information and voice information, and extracting facial information from the image information is performed. Information extraction step (S520) of extracting and fusing voice feature information from voice information and converting high-dimensional data generated by fusing facial information and voice feature information into low-dimensional data including representative components (S530). ), An information separation step of separating the newly input data by using the representative component (S540), and a subject identification step (S550) of determining the subject by using the separated data.

도 5와 같이 구성된 본 발명의 다른 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 방법(500)의 수행은 다음과 같다.Performance of the progressive personal authentication method 500 using multiple biometric information according to another embodiment of the present invention configured as shown in FIG. 5 is as follows.

우선 카메라와 같은 촬상수단을 이용하여 피인증자의 이미지를 촬상하고, 마이크와 같은 녹음수단을 이용하여 피인증자의 목소리를 녹음한다(S510).First, the image of the subject is captured by using an imaging unit such as a camera, and the subject's voice is recorded using a recording unit such as a microphone (S510).

그 후, 피인증자의 이미지에서 안면 이미지를 추출하고, 목소리에서 인증에 필요한 음성특징 정보를 추출하여 융합한다(S520). Thereafter, a facial image is extracted from the image of the subject, and voice feature information necessary for authentication is extracted from the voice and fused (S520).

여기서 피인증자의 이미지에서 안면 이미지를 추출하는 과정은 다음과 도 6을 참조하여 설명하면 다음과 같다.The process of extracting the facial image from the image of the subject is described below with reference to FIG. 6.

도 6은 본 발명의 다른 실시 예에 따르는 안면 이미지를 추출하는 과정을 보여주는 순서도다.6 is a flowchart illustrating a process of extracting a facial image according to another embodiment of the present invention.

도 6을 참조하면, 우선 피인증자의 영상에서 r(Red), g(Green), b(Blue) 성분을 분리한 후, 밝기 정보(I, Intensity)를 분류하고, 얼굴색 필터링을 수행하여. 그 후, 추출된 real-R, real-G 값을 하나로 합치고 테두리성분(E, Edge)과 I를 추출한다(S521).Referring to FIG. 6, first, r (Red), g (Green), and b (Blue) components are separated from an image of a subject, the brightness information (I, Intensity) is classified, and face color filtering is performed. Thereafter, the extracted real-R and real-G values are combined into one and the edge components E and Edge are extracted (S521).

추출된 정보들은 CSD&N(Center Surround Difference & Normalization) 과정을 수행하여 추출되는

Figure 112011034149119-pat00018
(intensity feature map),
Figure 112011034149119-pat00019
(edge feature map),
Figure 112011034149119-pat00020
(color feature map)을 모두 합한다(S522).The extracted information is extracted by performing Center Surround Difference & Normalization (CSD & N) process.
Figure 112011034149119-pat00018
intensity feature map,
Figure 112011034149119-pat00019
(edge feature map),
Figure 112011034149119-pat00020
(color feature map) is summed (S522).

마지막으로 합해진 영상에서 돌출맵(SM, Saliency Map)을 생성하고, 이와 같이 생성된 돌출맵에서 얼굴 후보영역들을 설정하여, 설정된 얼굴 후보영역들을 AdaBoost 알고리즘을 적용하여 안면 이미지 영역을 추출한다(S523).Finally, a salient map (SM) is generated from the summed image, face candidate regions are set in the generated salient map, and the facial image regions are extracted by applying the AdaBoost algorithm to the set face candidate regions (S523). .

따라서, 이와 같은 방법을 적용하면 피인증자의 이미지에서 안면 이미지만을 추출할 수 있다.Therefore, by applying this method, only the face image can be extracted from the subject's image.

도 7은 도 6의 방법으로 추출된 안면 이미지의 일 예를 보여주는 예시도이다.7 is an exemplary view illustrating an example of a facial image extracted by the method of FIG. 6.

도 7을 참조하면, (a)는 AdaBoost 알고리즘을 적용하여 출력되는 결과 이미지이고, (b)는 돌출맵의 후보영역을 보여주는 이미지이며, (c)는 본 발명에 따르는 안면 이미지의 추출 이미지이다.Referring to FIG. 7, (a) is a resultant image output by applying the AdaBoost algorithm, (b) is an image showing a candidate region of the protrusion map, and (c) is an extracted image of a face image according to the present invention.

(d)는 (c)와 동일한 방법으로 추출된 안면 이미지들을 보여주는 실험 결과이다.(d) is an experimental result showing facial images extracted in the same manner as (c).

한편, 다음의 도 8은 본 발명의 다른 실시 예에 따르는 음성특징 정보를 추출하기 위해 MLCC 알고리즘을 적용하는 것을 보여주는 순서도이다.Meanwhile, FIG. 8 is a flowchart showing the application of the MLCC algorithm to extract voice feature information according to another embodiment of the present invention.

도 8을 참조하면, 음성정보에 퓨리에 변환을 적용하는 STFT(Short time Fourier transform) 과정(S524), 삼각형의 겹치는 윈도우를 사용해서, 멜 스케일의 위에 포함된 스펙트럼의 파워를 멥핑하는 Mel-scale filter bank 과정(S525), 멜 주파수의 각각에 파워의 로그를 적용하는 Log (

Figure 112011034149119-pat00021
) 과정(S526), 음성정보일 경우, 멜 로그 파워의 리스트에 DCT(discrete cosine transform)를 적용하는 DCT과정(S527), 및 DCT 과정에서 추출된 정보의 상관관계를 제거하기 위해 Cepstral 변환하는 Cepstral filtering과정(S528)을 수행하여 피인증자의 음성특징 정보를 추출할 수 있다.Referring to FIG. 8, a short time fourier transform (STFT) process of applying Fourier transform to speech information (S524), and a Mel-scale filter that maps power of a spectrum included on a mel scale by using overlapping windows of triangles. In the banking process (S525), a log that applies a log of power to each of the mel frequencies
Figure 112011034149119-pat00021
) Process (S526), the DCT process (S527) to apply a DCT (discrete cosine transform) to the list of the melody power, and the Cepstral transform to remove the correlation of the information extracted in the DCT process By performing the filtering process (S528) it is possible to extract the voice feature information of the subject.

이와 같이 추출된 안면 이미지와 음성특징 정보는 서로 합친 후, PCA 알고리즘을 이용하여 대표성분이 포함된 저차원의 시/청각 융합 특징 벡터 성분의 데이터로 변환된다(S530). 그러면, IPCA 알고리즘을 이용하여 대표성분을 기준으로 신규로 입력되는 데이터에 대하여 점진적으로 특징을 추출한다(S540).The facial image and voice feature information extracted as described above are combined with each other and then converted into data of a low dimensional visual / audio fusion feature vector component including a representative component using a PCA algorithm (S530). Then, the feature is gradually extracted with respect to the newly input data based on the representative component using the IPCA algorithm (S540).

도 9를 참조하면 본 발명의 다른 실시 예에 따르는 정보 변환단계(S530)와 정보 분리단계(S540)를 보여주는 예시도이다.9 is an exemplary view showing an information conversion step (S530) and information separation step (S540) according to another embodiment of the present invention.

도 9를 참조하면, 정보 추출단계(S520)를 거친 데이터(Gray Image)가 입력되면, 일정 개수 이상의 이미지에 PCA 알고리즘을 적용하여 n-dimension의 아이겐 벡터 값을 갖는 저차원 이미지로 변환하고(S530), 새롭게 적용되는 데이터에 대해서는 IPCA 알고리즘을 적용하여 새로운 m-dimension의 아이겐 벡터 값을 갖는 이미지를 추출한다. 그 후, 업데이트된 특징을 배우기 위해서 특징 벡터값을 점진적으로 업데이트한다(S540).Referring to FIG. 9, when data (Gray Image) input through the information extraction step (S520) is input, a PCA algorithm is applied to a predetermined number or more images and converted into a low-dimensional image having an eigen vector value of n-dimension (S530). For the newly applied data, the IPCA algorithm is applied to extract an image with the eigen vector of the new m-dimension. Thereafter, the feature vector value is gradually updated to learn the updated feature (S540).

이와 같이 업데이트된 데이터는 도 4에 도시한 바와 같이 RAN-LTM 알고리즘을 적용하여 피인증자의 판별수단으로 활용한다(S550).As such, the updated data is used as the means for discriminating the subject by applying the RAN-LTM algorithm as shown in FIG. 4 (S550).

<실험 예><Experimental Example>

다음은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템에 대한 실험결과에 대해 기술한다.The following describes the experimental results for the gradual personal authentication system using multiple biometric information according to an embodiment of the present invention.

우선 도 10 및 도 11은 본 발명은 뇌인지 메커니즘 기반의 얼굴 검출 모델과, MFCC를 이용한 음성 특징 추출, 그리고 점진적 특징 추출 모델과 RAN-LTM 분류기 모델을 이용하여, 다중 생체정보를 이용한 다중 생체정보를 이용하는 점진적 개인인증 시스템의 실험 결과를 보여준다.First, FIG. 10 and FIG. 11 illustrate the present invention using a brain recognition mechanism based face detection model, voice feature extraction using MFCC, and progressive feature extraction model and RAN-LTM classifier model. Experimental results of a gradual personal authentication system are shown.

도 10은 본 발명의 일 실시 예에 따르는 다중 생체정보를 이용하는 점진적 개인인증 시스템의 안면 이미지를 이용하여 피인증자를 인증한 결과를 보여주는 그래프이다.FIG. 10 is a graph showing a result of authenticating a subject using a face image of a gradual personal authentication system using multiple biometric information according to an exemplary embodiment of the present invention.

도 10을 참조하면 점선은 점진적으로 학습한 데이터 성능이 91.96%까지 수행됨을 알 수 있고, 실선은 학습된 피인증자와 다른 이미지 10장과의 비교 테스트에서 97.0%까지 수행됨을 알 수 있다.Referring to FIG. 10, the dotted line indicates that the data performance gradually learned is performed up to 91.96%, and the solid line indicates that up to 97.0% is performed in a comparison test between the trained subject and 10 other images.

도 11은 본 발명의 일 실시 예에 따르는 영상의 가우시안 노이즈가 0.1 ~ 1.0까지 단계별로 추가된 환경에서의 다중 생체정보(시/청각 융합 정보)를 이용하는 개인인증 시스템의 피인증자의 인증결과와, 단일 생체정보(시각 정보)만을 이용한 개인인증 시스템의 피인증자의 인증 결과를 비교하여 보여주는 그래프이다.11 is an authentication result of a subject of a personal authentication system using multiple biometric information (visual and audio fusion information) in an environment where Gaussian noise of an image is added step by step from 0.1 to 1.0, according to an embodiment of the present invention; It is a graph showing the comparison of the authentication results of the subject of the personal authentication system using a single biometric information (visual information).

도 11을 참조하면 점선은 영상에 단계별 노이즈 추가시 영상만 테스트 한 경우 20.83%의 수행결과를 보여주고, 실선은 영상에 단계별 노이즈 추가시 영상과 음성 테스트 결과는 70.83%의 수행결과를 보여준다.Referring to FIG. 11, the dotted line shows 20.83% of the performance results when only the image is tested when the noise is added step by step, and the solid line shows the results of the image and voice test when the noise is added to the image by the step.

여기서 수행결과는 피인증자의 인증 정확도를 의미한다.The performance result here means the authentication accuracy of the subject.

이상과 같이 본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시 예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.

그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited by the described embodiments, but should be determined by the scope of the appended claims as well as the appended claims.

110: 수집부, 120: 추출부
130: 변환부, 140: 판별부
110: collector, 120: extractor
130: conversion unit, 140: determination unit

Claims (10)

피인증자의 영상정보와 상기 피인증자의 음성정보 수집을 위한 수집부;
상기 영상정보에서 안면 이미지를 추출하고, 상기 음성정보에서 음성특징 정보를 추출하는 추출부;
상기 안면 이미지와 상기 음성특징 정보를 융합하여 생성되는 고차원 데이터를 대표성분이 포함된 저차원 데이터로 변환하면서, 상기 안면 이미지와 상기 음성특징 정보의 벡터를 획득하고, 신규로 입력되는 데이터만을 점진적으로 상기 안면 이미지와 상기 음성특징 정보를 추출하는 변환부; 및
상기 변환부에서 분리된 정보로 상기 피인증자를 판별하는 판별부;를 포함하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 시스템.
Collecting unit for collecting the video information of the subject and the voice information of the subject;
An extraction unit for extracting a facial image from the image information and extracting voice feature information from the voice information;
While converting the high-dimensional data generated by fusing the face image and the voice feature information into low-dimensional data including representative components, a vector of the face image and the voice feature information is obtained and only newly input data is gradually obtained. A converter configured to extract the facial image and the voice feature information; And
And a discrimination unit for discriminating the subject by the information separated by the converting unit.
제 1항에 있어서, 상기 안면 이미지는
상기 피인증자의 인증을 위한 정보로서, 상기 영상정보에 웨이브 렛 기반의 방향 윤곽선 정보(AdaBoost) 알고리즘을 이용하여 안면 영역을 추출하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 시스템.
The method of claim 1, wherein the facial image is
The personal information system of claim 1, wherein the facial information is extracted from the image information using a wavelet-based directional contour information (AdaBoost) algorithm.
제 1항에 있어서, 상기 음성 특징정보는
상기 피인증자의 인증을 위한 정보로서, 상기 음성정보에 MFCC(Mel-frequency cepstral coefficients) 방법으로 추출되는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 시스템.
The method of claim 1, wherein the voice characteristic information
As the information for the authentication of the subject, a progressive personal authentication system using multiple biometric information, characterized in that the extracted by the MFCC (Mel-frequency cepstral coefficients) method.
제 1항에 있어서, 상기 변환부는
학습되지 않은 새로운 입력 데이터를 수용할 수 있는 점진적 학습이 가능한 점진적인 주성분 분석법(Incremental Learning Principal Component Analysis, IPCA)을 이용하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 시스템.
The method of claim 1, wherein the conversion unit
A gradual personal authentication system using multiple biometrics, characterized by using Incremental Learning Principal Component Analysis (IPCA), which enables progressive learning to accommodate new untrained input data.
제 1항에 있어서, 상기 판별부는
RAN-LTM 알고리즘을 적용하여 피인증자를 판별하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 시스템.
The method of claim 1, wherein the determining unit
A gradual personal authentication system using multiple biometric information, characterized by determining the subject by applying the RAN-LTM algorithm.
피인증자 영상정보와 상기 피인증자 음성정보를 수집하는 정보 수집단계;
상기 영상정보에서 안면 이미지를 추출하고, 상기 음성정보에서 음성특징 정보를 추출하여 융합하는 정보 추출단계;
적어도 하나 이상의 상기 안면 이미지와 상기 음성특징 정보를 융합하여 생성되는 고차원 데이터를 대표성분이 포함된 저차원 데이터로 변환하면서, 상기 안면 이미지와 상기 음성특징 정보의 융합 데이터의 고유 벡터 특징을 추출하는 정보 변환단계;
상기 고유 벡터를 포함하는 대표성분의 축을 추가하거나 로테이션 시킴으로써 상기 피인증자 정보를 점진적으로 추출하기 위한 저차원 추출단계; 및
상기 정보 변환단계에서 추출된 정보로 상기 피인증자를 판별하는 피인증자 판별단계;를 포함하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 방법.
An information collecting step of collecting the subject image information and the subject voice information;
An information extraction step of extracting a facial image from the image information and extracting and fusing voice feature information from the voice information;
Information for extracting a unique vector feature of the fusion data of the face image and the voice feature information while converting high-dimensional data generated by fusing at least one or more of the face image and the voice feature information into low-dimensional data including a representative component Conversion step;
A low dimensional extraction step for progressively extracting the subject information by adding or rotating an axis of a representative component including the eigenvector; And
And a subject identification step of discriminating the subject by the information extracted in the information conversion step.
제 6항에 있어서, 상기 대표성분은
상기 저차원 데이이터의 아이겐 벡터값 또는 아이겐 벨류값을 포함하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 방법.
The method of claim 6, wherein the representative component
Gradual personal authentication method using multiple biometric information, characterized in that it comprises the eigen vector value or eigen value of the low-dimensional data.
제 6항에 있어서, 상기 음성 특징정보는
상기 피인증자의 인식을 위한 정보로서, 상기 음성정보에 MFCC(Mel-frequency cepstral coefficients) 방법으로 추출되는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 방법.
The method of claim 6, wherein the voice characteristic information
As the information for the recognition of the subject, a progressive personal authentication method using multiple biometric information, characterized in that extracted in the speech information by the MFCC (Mel-frequency cepstral coefficients) method.
제 8항에 있어서, 상기 MFCC는
상기 음성정보에 퓨리에변환을 적용하는 STFT(Short time Fourier transform) 과정;
삼각형의 겹치는 윈도우를 사용해서, 멜 스케일의 위에 포함된 스펙트럼의 파워를 멥핑하는 Mel-scale filter bank 과정;
멜 주파수의 각각에 파워의 로그를 적용하는 Log (
Figure 112012075612053-pat00022
) 과정;
상기 음성정보일 경우, 멜 로그 파워의 리스트에 DCT(discrete cosine transform)를 적용하는 DCT과정; 및
상기 DCT 과정에서 추출된 정보의 상관관계를 제거하기 위해 Cepstral 변환하는 Cepstral filtering과정;을 포함하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 방법.
The method of claim 8, wherein the MFCC
A short time fourier transform (STFT) process for applying a Fourier transform to the speech information;
A Mel-scale filter bank process that maps the power of the spectrum contained on top of the mel scale using triangle overlapping windows;
Log to apply a log of power to each of the mel frequencies
Figure 112012075612053-pat00022
) process;
A DCT process of applying a discrete cosine transform (DCT) to a list of mellog power in the case of the voice information; And
Cepstral filtering process for converting the Cepstral to remove the correlation of information extracted in the DCT process.
제 6항에 있어서, 상기 저차원추출단계는
저차원의 고유벡터 및 고유값을 추출하는 단계로서, 학습되지 않은 새로운 입력 데이터를 수용할 수 있는 점진적 학습이 가능한 점진적인 주성분 분석법(Incremental Learning Principal Component Analysis, IPCA)을 이용하는 것을 특징으로 하는 다중 생체정보를 이용하는 점진적 개인인증 방법.
The method of claim 6, wherein the low dimensional extraction step
Extracting low-order eigenvectors and eigenvalues; multi-biometric information characterized by using Incremental Learning Principal Component Analysis (IPCA) capable of incremental learning to accommodate new untrained input data Progressive personal authentication method using.
KR1020110043466A 2011-05-09 2011-05-09 Incremental personal autentication system and method using multi bio-data KR101208678B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110043466A KR101208678B1 (en) 2011-05-09 2011-05-09 Incremental personal autentication system and method using multi bio-data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110043466A KR101208678B1 (en) 2011-05-09 2011-05-09 Incremental personal autentication system and method using multi bio-data

Publications (2)

Publication Number Publication Date
KR20120125802A KR20120125802A (en) 2012-11-19
KR101208678B1 true KR101208678B1 (en) 2012-12-06

Family

ID=47511296

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110043466A KR101208678B1 (en) 2011-05-09 2011-05-09 Incremental personal autentication system and method using multi bio-data

Country Status (1)

Country Link
KR (1) KR101208678B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102060563B1 (en) * 2018-12-31 2020-02-11 호서대학교 산학협력단 Method and apparatus for providing authentication using voice and facial data

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103841108B (en) * 2014-03-12 2018-04-27 北京天诚盛业科技有限公司 The authentication method and system of user biological feature
KR101962203B1 (en) * 2017-03-10 2019-03-27 크루셜텍 (주) Non-contact multi biometric verification method using multi biometric data and multi biometric apparatus
KR20210057401A (en) 2019-11-12 2021-05-21 한국전자통신연구원 Apparatus and method for authenticating user based on multiple biometric infomation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102060563B1 (en) * 2018-12-31 2020-02-11 호서대학교 산학협력단 Method and apparatus for providing authentication using voice and facial data
US10867022B2 (en) 2018-12-31 2020-12-15 Hoseo University Academic Cooperation Foundation Method and apparatus for providing authentication using voice and facial data

Also Published As

Publication number Publication date
KR20120125802A (en) 2012-11-19

Similar Documents

Publication Publication Date Title
CN105976809B (en) Identification method and system based on speech and facial expression bimodal emotion fusion
Kim et al. Person authentication using face, teeth and voice modalities for mobile device security
CN104361276B (en) A kind of multi-modal biological characteristic identity identifying method and system
Soltane et al. Face and speech based multi-modal biometric authentication
US20030110038A1 (en) Multi-modal gender classification using support vector machines (SVMs)
CN111461176A (en) Multi-mode fusion method, device, medium and equipment based on normalized mutual information
CN108346427A (en) A kind of audio recognition method, device, equipment and storage medium
CN100363938C (en) Multi-model ID recognition method based on scoring difference weight compromised
CN103413113A (en) Intelligent emotional interaction method for service robot
CN102982322A (en) Face recognition method based on PCA (principal component analysis) image reconstruction and LDA (linear discriminant analysis)
CN107766781B (en) Method and system for quickly recognizing electrocardio identity
Lip et al. Comparative study on feature, score and decision level fusion schemes for robust multibiometric systems
KR101208678B1 (en) Incremental personal autentication system and method using multi bio-data
Sarria-Paja et al. Feature mapping, score-, and feature-level fusion for improved normal and whispered speech speaker verification
Sun et al. A novel convolutional neural network voiceprint recognition method based on improved pooling method and dropout idea
Vasuhi et al. An efficient multi-modal biometric person authentication system using fuzzy logic
Shen et al. Secure mobile services by face and speech based personal authentication
Neelima et al. Mimicry voice detection using convolutional neural networks
Brunet et al. Speaker recognition for mobile user authentication: An android solution
CN110738985A (en) Cross-modal biometric feature recognition method and system based on voice signals
Kartik et al. Multimodal biometric person authentication system using speech and signature features
Mok et al. Person authentication using ASM based lip shape and intensity information
Shang et al. Multimodal-database-XJTU: An available database for biometrics recognition with its performance testing
Cheng et al. An efficient approach to multimodal person identity verification by fusing face and voice information
CN106971725B (en) Voiceprint recognition method and system with priority

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151023

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161017

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20171017

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191022

Year of fee payment: 8