KR20060057110A - Apparatus and method for detecting and authenticating facial data - Google Patents

Apparatus and method for detecting and authenticating facial data Download PDF

Info

Publication number
KR20060057110A
KR20060057110A KR1020040096172A KR20040096172A KR20060057110A KR 20060057110 A KR20060057110 A KR 20060057110A KR 1020040096172 A KR1020040096172 A KR 1020040096172A KR 20040096172 A KR20040096172 A KR 20040096172A KR 20060057110 A KR20060057110 A KR 20060057110A
Authority
KR
South Korea
Prior art keywords
face
authentication
algorithm
detection
feature
Prior art date
Application number
KR1020040096172A
Other languages
Korean (ko)
Other versions
KR100702226B1 (en
Inventor
홍기천
민지홍
홍광석
Original Assignee
홍기천
홍광석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 홍기천, 홍광석 filed Critical 홍기천
Priority to KR1020040096172A priority Critical patent/KR100702226B1/en
Priority to PCT/KR2004/003480 priority patent/WO2006057475A1/en
Publication of KR20060057110A publication Critical patent/KR20060057110A/en
Application granted granted Critical
Publication of KR100702226B1 publication Critical patent/KR100702226B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints

Abstract

본 발명은 얼굴 검출 및 인증 장치 및 그 방법에 관한 것으로, 보다 상세하게는 서버에 얼굴 데이터를 저장하고 개인 휴대 착용 단말기에서 동영상에 대한 얼굴 검출과 얼굴 특징 추출이 가능하고 상기 서버에서 검출된 얼굴 데이터와 저장된 얼굴데이터를 비교하여 상기 개인 휴대 착용 단말기로 얼굴 인증 유무를 출력하는 얼굴 검출 및 인증 장치 및 그 방법에 관한 것이다. 본 발명은 개인 휴대 착용 단말기인 웨어러블퍼스널스테이션(wearable personal station; WPS) 단말기내에 얼굴을 검출하는 검출부 및 검출된 얼굴이미지 및 검출알고리즘을 저장하는 저장부를 두고, 서버에 얼굴이미지와 얼굴인증알고리즘을 저장하고 상기 검출된 이미지와 저장된 이미지를 비교하여 인증하는 처리부를 구비하여 동영상에 대한 얼굴 검출과 얼굴 특징 추출이 가능하고 개인이나 그 이상의 많은 사용자를 두어 서버에서 개인에 대한 인증, 로그인 기능, 얼굴만 나타나는 화상회의, 상대방의 신원확인 등을 구현하는데 효율적인 솔루션을 제공한다.The present invention relates to a face detection and authentication apparatus and a method thereof, and more particularly, to store face data in a server and to extract face features and extract facial features from a mobile wearable terminal, and to detect face data detected by the server. And a face detection and authentication device and a method for comparing the stored face data and outputting the presence or absence of face authentication to the personal wearable terminal. The present invention has a detection unit for detecting a face and a storage unit for storing a detected face image and an detection algorithm in a wearable personal station (WPS) terminal, which is a personal wearable terminal, and stores a face image and a face authentication algorithm in a server. And a processing unit for comparing and detecting the detected image and the stored image to detect a face and extract a feature of a video, and display only authentication, a login function, and a face for the individual in the server by placing a lot of individuals or more users. It provides an efficient solution for implementing video conferencing and identification of the other party.

Description

얼굴 검출 및 인증 장치 및 그 방법{Apparatus and method for detecting and authenticating facial data}Apparatus and method for detecting and authenticating facial data

도 1은 본 발명에 적용되는 할라이크 특징(Haar-like feature)의 프로토타입을 도시한 도면이다.1 shows a prototype of a Haar-like feature applied to the present invention.

도 2는 본 발명에 적용되는 아다부스트(AdaBoost)알고리즘을 이용한 각 단계별 그룹화를 설명하기 위한 도면이다.FIG. 2 is a view for explaining each step grouping using the AdaBoost algorithm applied to the present invention.

도 3은 본 발명에 의한 얼굴 검출을 위한 할라이크 특징을 이용한 얼굴 검출 흐름도이다.3 is a flowchart of face detection using a Halle feature for face detection according to the present invention.

도 4는 본 발명에 의한 얼굴 인증을 위한 HMM알고리즘을 이용한 얼굴 데이터의 생성방식과 확률계산원리를 설명하기 위한 도면이다.4 is a diagram illustrating a generation method and probability calculation principle of face data using the HMM algorithm for face authentication according to the present invention.

도 5는 본 발명에 의한 얼굴 검출 및 인증을 위한 얼굴데이터의 트레이닝 과정과 데이터베이스화를 설명하기 위한 도면이다.5 is a view for explaining the training process and the database of the face data for face detection and authentication according to the present invention.

도 6은 본 발명에 의한 얼굴 검출 및 얼굴 인증 과정의 전체 블록도이다.6 is a block diagram of a face detection and face authentication process according to the present invention.

도 7은 본 발명에 의한 얼굴 인증결과를 설명하기 위한 도면이다.7 is a view for explaining the face authentication results according to the present invention.

도 8은 본 발명의 바람직한 실시예에 의한 얼굴 검출 및 인증 과정을 설명하기 위한 개념도이다.8 is a conceptual diagram illustrating a face detection and authentication process according to a preferred embodiment of the present invention.

<도면의 주요부분에 대한 설명><Description of main parts of drawing>

60...동영상 62...얼굴검출60 Videos 62 Face Detection

64...블록추출부 66...특징추출부64 ... block extractor 66 ... feature extractor

71,72...유사모델계산부 76...최대확률선택부71, 72 Similar model calculator 76 Maximum probability selector

78...얼굴인증 80...개인 휴대 착용 단말기78.Face authentication 80 ... Personal mobile terminal

82...카메라 86...얼굴검출무선전송 및 인증출력82 Camera 86 Face Detection Wireless Transmission and Authentication Output

90...서버90 ... server

본 발명은 얼굴 검출 및 인증 장치 및 그 방법에 관한 것으로, 보다 상세하게는 서버에 얼굴 데이터를 저장하고 개인 휴대 착용 단말기에서 동영상에 대한 얼굴을 검출하고 상기 서버에서 상기 검출된 얼굴 데이터와 저장된 얼굴데이터를 비교하여 상기 개인 휴대 착용 단말기로 얼굴 인증 유무를 출력하는 얼굴 검출 및 인증 장치 및 그 방법에 관한 것이다.The present invention relates to a face detection and authentication apparatus and a method thereof, and more particularly, to store face data in a server, detect a face for a video in a personal wearable terminal, and detect the face data and stored face data in the server. The present invention relates to a face detection and authentication device for outputting the presence or absence of face authentication to the personal portable wearable terminal and a method thereof.

영상 처리와 해석에 있어서, 인간의 얼굴은 시각적인 판별과 신원 확인에 대한 중요한 요소이다. 1990년대 초부터, 얼굴 인식과 얼굴 표정 해석에 대한 분석이 광범위하게 개발되어왔다. 최근에, 영상의 흐름 속에서 얼굴 검색과 신원확인을 위하여, 엠펙 세븐(MPEG-7) 얼굴 서술자(face descriptor)들이 제안되어왔다. 종래의 얼굴 인식 알고리즘에 반하여 상기 얼굴 서술자의 주요한 기능은 가능한 한 신속하고 효과적으로 조회 이미지와 똑같은 얼굴 이미지들을 검색하는 것이다. In image processing and interpretation, the human face is an important factor for visual discrimination and identification. Since the early 1990s, analyzes of face recognition and facial expression interpretation have been extensively developed. Recently, MPEG-7 face descriptors have been proposed for face searching and identification in the flow of video. In contrast to conventional face recognition algorithms, the main function of the face descriptor is to retrieve face images that are identical to the query image as quickly and effectively as possible.

얼굴인식기술이란 정지영상이나 동영상에 존재하는 한사람 이상의 얼굴에 대하여 주어진 얼굴 데이터베이스를 이용하여 그 신원을 확인하는 기술을 일컫는다. 얼굴 인식 기술은 다른 생체인식기술인 지문인식등과 다르게 자신의 신체 일부를 인식장치에 직접 접촉시키지 않아도 되고 생체정보의 획득방법에서 강제성이 적지만 얼굴은 조명 및 포즈(자세)의 변화에 따라 자체의 변화가 심하고 주변 환경에 매우 민감하기 때문에 인식률이 타 생체 인식 시스템에 비해 낮은 단점이 있다.Face recognition technology refers to a technology for verifying the identity of one or more faces present in a still image or video using a given face database. Unlike other biometrics, such as fingerprint recognition, face recognition technology does not require direct contact with a part of its body to the recognition device, and the method of obtaining biometric information is less mandatory. The recognition rate is lower than other biometric systems because the change is severe and very sensitive to the surrounding environment.

기존에도 얼굴을 검출하고 인식하는 기술들로서, 대우전자(주)의 "사람 얼굴의 화상처리를 이용한 개인인식방법"(공개번호 10-1995-29985), 한국전자통신연구원의 "얼굴 구성요소 추출시스템 및 그 추출방법(공개번호 10-1998-20738), 한국과학기술원의 "얼굴의 컬러모델과 타원체 근사모델을 이용한 실시간 얼굴추적방법 및 그 기록매체"(공개번호 10-2000-60745), 삼성전자(주)의 "가버필터링반응값의 차원공간 변환을 이용한 얼굴 인식 방법 및 그 장치"(공개번호 10-2001-87487) 등 많이 있으나, 이 모두 얼굴 인식률에 있어서 한계에 부딪혀 실용성이 떨어지게 되었다.Conventional technologies for detecting and recognizing faces include Daewoo Electronics Co., Ltd.'s "Personal Recognition Method Using Image Processing of Human Face" (Publication No. 10-1995-29985), "Face Component Extraction System" of Korea Electronics and Telecommunications Research Institute And its extraction method (Publication No. 10-1998-20738), "Real-time face tracking method using the color model of the face and the ellipsoid approximation model and its recording medium" (Publication No. 10-2000-60745), Samsung Electronics Co., Ltd. "Face Recognition Method and Apparatus Using Dimensional Spatial Transformation of Gabor Filtering Response Values" (Publication No. 10-2001-87487), but all of them face limitations in face recognition rate and are not practical.

본 발명이 이루고자 하는 기술적 과제는 개인 휴대 착용 단말기상에 저장된 동영상에 적용가능한 빠른 얼굴 검출 알고리즘을 사용하여 얼굴을 검출하고, 서버에 저장된 얼굴 데이터베이스 및 얼굴 인증알고리즘을 이용하여 상기 개인 휴대 착용 단말기에서 검출된 얼굴데이터와 상기 서버에 저장된 얼굴데이터를 실시간으로 비교 인증하는 얼굴 검출 및 인증장치를 제공하는 데 그 목적이 있다. The technical problem to be achieved by the present invention is to detect a face using a fast face detection algorithm applicable to a video stored on a personal wearable terminal, the detection using the face database and facial authentication algorithm stored in the server in the personal wearable terminal It is an object of the present invention to provide a face detection and authentication device for comparing and authenticating the face data stored in the server with the face data stored in real time.                         

본 발명이 이루고자 하는 다른 기술적 과제는 개인 휴대 착용 단말기에 저장된 동영상에 적용가능한 빠른 얼굴 검출 알고리즘을 사용하여 얼굴을 검출하고, 서버에 얼굴 데이터베이스 및 얼굴 인증알고리즘을 이용하여 상기 개인 휴대 착용 단말기에서 검출된 얼굴데이터와 상기 서버에 저장된 얼굴데이터를 실시간으로 비교 인증하는 얼굴 검출 및 인증 방법을 제공하는 데 그 다른 목적이 있다.Another technical problem to be solved by the present invention is to detect a face using a fast face detection algorithm applicable to a video stored in a personal wearable terminal, and detected by the personal wearable terminal using a face database and a face authentication algorithm on a server. Another object is to provide a face detection and authentication method for comparing and authenticating face data and face data stored in the server in real time.

본 발명은 상술한 기술적 과제를 달성하기 위하여, 얼굴 검출 및 인증 장치에 있어서, 얼굴 데이터 및 얼굴검출알고리즘을 저장하는 저장부 및 입력된 동영상에 대한 얼굴을 검출하여 특징값의 파라미터를 출력하는 검출부를 포함하는 개인 휴대 착용 단말기; 및 얼굴데이터베이스와 얼굴인증알고리즘을 저장하는 저장부 및 상기 특징값의 파라미터에 따라서 상기 검출된 얼굴 데이터와 얼굴데이터베이스에 저장된 얼굴데이터를 비교하여 인증유무를 출력하는 처리부를 포함하는 서버를 포함하는 얼굴 검출 및 인증 장치를 제공한다.According to an aspect of the present invention, in the face detection and authentication apparatus, a storage unit for storing face data and a face detection algorithm and a detection unit for detecting a face for an input video and outputting parameters of feature values Personal portable wear terminal comprising; And a server for storing a face database and a face authentication algorithm, and a server for comparing the detected face data with face data stored in the face database according to a parameter of the feature value and outputting an authentication status. And an authentication device.

본 발명은 상술한 기술적 과제를 달성하기 위하여, 얼굴 검출 및 인증 방법에 있어서, 서버에 얼굴 데이터베이스 및 얼굴인증알고리즘을 저장하는 단계; 개인 휴대 착용 단말기에 저장된 얼굴검출알고리즘에 의해 입력된 동영상에 대한 얼굴을 검출하여 특징값의 파라미터를 출력하는 단계; 및 상기 특징값의 파라미터에 따라서 상기 개인 휴대 착용 단말기로부터 검출된 얼굴 데이터와 상기 서버에 얼굴데이터베이스에 저장된 얼굴데이터를 비교하여 인증유무를 출력하는 단계를 포함하는 얼굴 검출 및 인증 방법을 제공한다.In order to achieve the above technical problem, the present invention provides a face detection and authentication method comprising: storing a face database and a face authentication algorithm in a server; Detecting a face for a video input by a face detection algorithm stored in a personal wearable terminal and outputting a parameter of a feature value; And comparing the face data detected from the personal portable terminal with the face data stored in the face database to the server and outputting the presence or absence of the authentication according to the parameter of the feature value.

바람직하게는 상기 얼굴 검출은 할라이크(Haar-like) 특징 프로토타입과 아다부스트(AdaBoost) 학습알고리즘을 사용하여 얼굴부분에 윈도우를 씌운 후 그 영역에 대하여 할라이크 특징값을 구한 후, 할라이크 특징값을 그룹화하여 저장함으로써 얼굴을 검출함을 특징으로 한다.Preferably, the face detection uses a Haar-like feature prototype and an AdaBoost learning algorithm to cover the face area with a window, and then calculates the Halle feature for the area. The face is detected by grouping and storing the values.

바람직하게는 상기 얼굴 인증은 HMM알고리즘(Hidden Markov Model algorithm)을 통하여 얼굴의 특징을 사용하여 모델링하고 모델링된 얼굴이미지를 저장된 얼굴의 이미지에 위에서 아래로 순차적으로 적용 비교하여 인증함을 특징으로 한다.Preferably, the face authentication is characterized by using the HMM algorithm (Hidden Markov Model algorithm) modeled using the features of the face and by comparing the modeled face image to the image of the stored face sequentially from top to bottom to authenticate.

더욱 바람직하게는 상기 HMM 알고리즘은 각각 얼굴의 블록의 확장으로 이루어지는데 각 부분(super state)에 대하여 일정한 부분(state)으로 다시 나누어 각각의 확률을 계산하고 다시 전체에 대한 확률을 계산한 뒤 다음 과정으로 넘어가게 되는 2차 HMM을 추가로 더 포함하는 것을 특징으로 한다.More preferably, the HMM algorithm consists of an extension of a block of a face, each of which is divided into a state for each super state, calculates each probability, and then calculates a probability for the whole. Further characterized in that it further comprises a secondary HMM is passed to.

이하, 첨부된 도면을 참조하여 본 발명의 얼굴 검출 및 인증 장치 및 방법의 바람직한 실시예의 구성 및 동작에 대해서 상세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings will be described in detail the configuration and operation of the preferred embodiment of the apparatus and method for face detection and authentication of the present invention.

얼굴인식 기술 분야에 있어서 할라이크 특징(Haar-like feature)을 이용한 얼굴 검출 알고리즘은 많은 관련 알고리즘 중에 매우 빠른 트레이닝 시간과 처리속도 향상의 장점을 가지고 있다. 그러므로 특히 동영상에서의 얼굴 검출에서 유용하게 쓰일 수 있다. 이러한 방법으로 검출된 얼굴 데이터는 HMM(Hidden Markov Model)알고리즘을 이용하여 이미 트레이닝된 얼굴 데이터베이스와의 비교를 통해 얼굴인식에 있어서 가장 확률이 높은 사람을 본인의 얼굴로 인증하는 신원 확인 시 스템을 구현할 수 있다. In the field of face recognition technology, face detection algorithm using haar-like feature has advantages of very fast training time and processing speed among many related algorithms. Therefore, it can be particularly useful for face detection in moving pictures. The facial data detected in this way is compared with the face database already trained using the Hidden Markov Model (HMM) algorithm to implement an identification system that authenticates the person with the highest probability of facial recognition as his face. Can be.

신원 확인 시스템에 있어서 얼굴 검출률이나 신원 확인 성공률은 모두 학습 과정에 의해 결정되기 때문에 얼마나 많은 학습을 효율적으로 하느냐에 따라 성능이 좌우된다. 이러한 시스템은 카메라에 얼굴을 보여주는 것만으로 신원 확인이 가능하기 때문에 번거로운 신원 확인 가정을 거쳐야 하는 다른 시스템 구조에 비해 매우 편리한 기능을 제공할 수 있다.In the identification system, both the face detection rate and the success rate of identification are determined by the learning process, so the performance depends on how much learning is done efficiently. These systems can be identified by simply showing their face to the camera, providing a very convenient feature compared to other system architectures that require a cumbersome identification assumption.

본 발명에서는 이러한 할라이크 특징 및 HMM 알고리즘을 이용하여 얼굴 검출 및 인증 장치 및 방법을 구현하였다. 본 발명에서는 이러한 인식률을 높이기 위한 방법들 중의 하나로 HMM(Hidden Markov Model)에 기반을 둔 얼굴 인증을 수행한다. HMM 기법은 얼굴 영상을 부위별로 나누어서 처리하는데 이때의 입력 영상 데이터를 구축하기 위한 얼굴 추출 방법을 본 발명에서는 할라이크 특징(Haar-like feature)을 이용하여 추출하는 방식을 사용한다 (참조논문: P. Viola and M. J. Jones, "Robust real-time object detection", Technical Report Series, Compaq Cambridge research Laboratory, CRL 2001/01, Feb. 2001). In the present invention, the apparatus and method for face detection and authentication are implemented by using the Halle feature and the HMM algorithm. In the present invention, face authentication based on the Hidden Markov Model (HMM) is performed as one of methods for increasing the recognition rate. In the HMM technique, a face image is processed by dividing it into parts, and in the present invention, a face extraction method for constructing input image data is extracted using a haar-like feature (see paper: P). Viola and MJ Jones, "Robust real-time object detection", Technical Report Series, Compaq Cambridge research Laboratory, CRL 2001/01, Feb. 2001).

다시 말하면, 본 발명은 할라이크특징(Haar-like feature)을 사용하여 추출된 얼굴 데이터를 HMM 알고리즘을 이용하여 이미 트레이닝 되어진 얼굴 데이터베이스와 비교를 통해 가장 확률이 높은 얼굴의 사람을 출력으로 내보내는 방식을 이용하여 인증하는 것이며, 그러한 얼굴 검출률 및 인식률을 경제적으로 높히고 있다.In other words, the present invention compares a face data extracted using a haar-like feature with a face database that has already been trained using an HMM algorithm, and outputs the person with the most probable face as an output. It uses authentication, and it raises such a face detection rate and recognition rate economically.

우선 본 발명에 적용되는 얼굴 검출에 대하여 설명하기로 한다.First, face detection applied to the present invention will be described.

할라이크 특징(Haar-like feature)과 아다부스트(AdaBoost) 학습 알고리즘은 본 발명에 적용되는 얼굴 검출 알고리즘 중의 하나이다. 할라이크특징(Haar-like feature)은 얼굴 검색 시 주로 사용하는 기법으로 많은 프로토타입이 존재하는데 이러한 프로트타입들은 아다부스트(AdaBoost) 학습 알고리즘에 의해서 얼굴을 잘 표현하는 것들만 사용하게 되기 때문에 보다 효율적인 얼굴 검출이 가능하다 (참조논문: 박성훈, 이재호, 김회율, "Haar-like feature/LDA를 이용한 얼굴인식", 2004년 제16회 영상처리 및 이해에 관한 워크샵 발표 논문집, 2004년 1월). Haar-like features and AdaBoost learning algorithms are one of the face detection algorithms applied to the present invention. Haar-like features are a common technique used for face searching, and there are many prototypes. These prototypes use more efficient faces because they use only the faces that are well represented by the AdaBoost learning algorithm. Detection is possible (Reference papers: Sunghoon Park, Jaeho Lee, Hoeul Kim, "Face Recognition Using Haar-like Feature / LDA", 2004 16th Workshop on the Processing and Understanding, January 2004).

할라이크특징(Haar-like feature)은 비올라(Viola)가 처음 얼굴 검출에서 사용한 인식자로써 방식이 간단하고 계산방법에 있어서도 단순 합연산만을 이용한다. 이는 얼굴을 검출하는데 있어 픽셀을 이용한 연산이 아닌 특징을 이용하여 각 영역 안에 있는 픽셀들의 값을 더하여 영역합을 구하고 그 값들에 가중치(weight)를 곱한 합만을 계산한다는 것으로 동영상에서의 얼굴 검출에 용이하게 쓰일 수 있게 된다. 도 1은 할라이크특징(Haar-like feature)의 프로토타입들로써 윈도우에서 특징에 맞게 위치가 변하기 때문에 인식할 영상에 따라 많은 특징값을 나타내는 것이 가능해진다. 도 1에서 1은 엣지특징을, 2는 라인특징을, 3은 센터특징을 나타내는 할라이크특징의 프로토타입들이다.Haar-like features are viola's first recognizer for face detection, and the method is simple and uses only simple concatenation in the calculation method. It is easy to detect the face in video by calculating the sum of the area by adding the values of the pixels in each area using the feature, not the operation using the pixel to detect the face. Can be used. 1 is a prototype of a haar-like feature, and since the position is changed according to the feature in the window, it is possible to display many feature values according to an image to be recognized. 1 are prototypes of a Halle feature where 1 represents an edge feature, 2 represents a line feature, and 3 represents a center feature.

본 발명에서 얼굴을 검출할 때 아다부스트(AdaBoost) 학습 알고리즘을 이용하여 인식률을 향상시키고 있다. 본 발명에서는 얼굴과 얼굴이 아닌 영역간의 구별과 얼굴로 판단할 확률을 높이기 위해 부스트(Boost) 알고리즘 중에서 단순하면서도 효율적인 아다부스트(AdaBoost) 학습 알고리즘을 사용하였다. 이 알고리즘은 그룹화하는 단계가 올라갈수록 각 할라이크특징(Haar-like feature)의 프로토타입들 의 위치가 얼굴의 세밀한 특징까지도 나타내는 장점을 가지고 있다. 아다부스트 (AdaBoost) 학습 알고리즘으로 얻은 특징값들은 도 2와 같이 단계(stage) 그룹화(classifier)한다. 도 2에서 전체 부윈도우(10)는 노드 1에서 진위를 판단하여 진(T)이면 노드 2로 진행하고 위(F)이면 부윈도우를 거부하게 된다(20). 마찬가지로 노드 2, 3, 4 등을 진행하면서 추가로 처리된다(30).In the present invention, the recognition rate is improved by using an AdaBoost learning algorithm when detecting a face. In the present invention, a simple and efficient AdaBoost learning algorithm is used among boost algorithms in order to distinguish between a face and a non-face area and increase a probability of judging by a face. This algorithm has the advantage that the position of prototypes of each Haar-like feature can be as fine as the grouping stage. The feature values obtained by the AdaBoost learning algorithm are stage grouped as shown in FIG. 2. In FIG. 2, the entire sub-window 10 determines the authenticity at node 1 and proceeds to node 2 if true (T), and rejects the secondary window (20). Similarly, it proceeds to nodes 2, 3, 4, and so on (30).

이러한 그룹화는 더 강력한 인식 알고리즘을 구현하기 위한 것으로 단계를 거듭할수록 전 단계보다 더 많은 수의 특징값을 만들어서 그룹화를 하며 본 발명에서는 25 단계까지 그룹화를 하였고 이때 특징값의 개수는 200개로 하여 실험하였다.This grouping is for implementing a more powerful recognition algorithm. As the number of steps is repeated, more groups of feature values are created and grouped. In the present invention, the grouping is performed up to 25 levels, and the number of feature values is 200. .

이하, 도 3을 참조하여 할라이크특징(Haar-like feature)을 이용한 얼굴 검출 방법에 대해서 설명하기로 한다.Hereinafter, a face detection method using a haar-like feature will be described with reference to FIG. 3.

첫 번째로 얼굴 영상의 이미지 데이터를 받아 얼굴 부분에 윈도우를 씌운 후 그 영역에 대해서 할라이크특징(Haar-like feature)값을 구한다. 그 다음 아다부스트(AdaBoost) 학습 알고리즘을 통해 선택된 할라이크특징(Haar-like feature)을 그룹화하여 저장한다. 이 때 첫번째 단계의 그룹에서는 가장 적은 9개의 할라이크특징(Haar-like feature)이 들어간다. 각 단계는 총 25단계로 그룹화되고 이 때에는 200개의 할라이크특징(Haar-like feature)이 들어가게 된다. 이렇게 그룹화한 데이터들은 텍스트 파일로 저장이 되어 얼굴 인식에 있어서 감춰진 캐스케이드(hidden cascade)로 사용이 된다. 본 발명에서는 24*24크기의 윈도우로 정해졌고 25개의 단계로 높은 단계로 올라갈수록 할라이크특징(Haar-like feature)의 개수도 증가하고 각각의 프로토타입들도 세밀한 부분까지 위치하게 된다 (참조논문: Alexander Kuranov, Rainer Lienhart, and Vadim Pisarevsky, "An Empirical Analysis of Boosting Algorithms for Rapid Objects With an Extended Set of Haar-like Features", Intel Technical Report MRL-TR-July 02-01, 2002).Firstly, image data of the face image is received and a window is put on the face part, and then a haar-like feature value is obtained for the area. The selected Haar-like features are then grouped and stored using the AdaBoost learning algorithm. At this point, the first nine groups contain the least nine Haar-like features. Each stage is grouped into a total of 25 stages, with 200 haar-like features. The grouped data is saved as a text file and used as a hidden cascade for face recognition. In the present invention, the size of the window is 24 * 24 size, and the number of haar-like features increases as the level goes up to 25 levels, and each prototype is located in the detail. : Alexander Kuranov, Rainer Lienhart, and Vadim Pisarevsky, "An Empirical Analysis of Boosting Algorithms for Rapid Objects With an Extended Set of Haar-like Features", Intel Technical Report MRL-TR-July 02-01, 2002).

이러한 할라이크특징을 이용한 얼굴 검출 원리를 설명하기로 한다.The principle of face detection using such a hake feature will be described.

도 3은 할라이크특징을 이용한 얼굴 검출 원리를 간단하게 표현한 것이다. 즉, 한 프레임의 영상에서 트레이닝된 얼굴의 그룹(300)을 이용하여 영상을 피라미드 구조의 형식으로 줄여나가며 얼굴인 영역을 결정하고 그러한 과정에서 얼굴 영역은 줄인 영상을 복원하는 과정에 여러 개의 후보영역이 출력되므로 그 영역의 평균을 낸 한 영역을 출력으로 하게 된다 (단계 ①-⑤). 이 때, 트레이닝된 얼굴을 얼굴 분류자(face classifier)를 사용하여 얼굴과 비얼굴로 분류하여 검출하게 된다.Figure 3 is a simplified representation of the principle of face detection using the Halle feature. That is, by using the group of faces 300 trained in one frame of image, the image is reduced in the form of a pyramid structure to determine an area that is a face, and in the process, a plurality of candidate areas are used to restore an image whose face is reduced. Is outputted, so that an area obtained by averaging the area is outputted (steps 1 to 5). In this case, the trained face is classified into a face and a non-face using a face classifier to detect the face.

본 발명에서는 이렇게 검출된 얼굴을 HMM을 이용하여 저장된 얼굴데이터베이스와 비교하여 얼굴 인증을 수행한다.In the present invention, the face thus detected is compared with the face database stored using the HMM to perform face authentication.

HMM 알고리즘은 과거와 현재의 주어진 상황에서 미래는 과거와 관계없이 현재에만 의존하는 마코프 성질을 이용하는 것으로써 마코프과정(state)은 숨겨져 있는 것이고, 다른 확률 과정(observation)을 통해서만 과정이 관찰된다 (참조논문: F. Samaria and S. Young, "HMM based architecture for face identification", Image and Computer Vision, vol. 12, pp.537-543, October 1994). The HMM algorithm uses the Markov property that the future depends only on the present regardless of the past in the past and present, so that the Markov state is hidden and the process is observed only through other probabilities. Papers: F. Samaria and S. Young, "HMM based architecture for face identification", Image and Computer Vision, vol. 12, pp. 537-543, October 1994).

얼굴을 인식하는데 있어서 HMM 알고리즘은 얼굴의 특징들을 이용하여 인식한 다. 이러한 얼굴의 가장 큰 특징은 크게 머리, 이마, 눈, 코, 입을 생각할 수 있는데 이러한 특징을 이용하여 1차 HMM (1D-HMM)을 사용하여 모델링되어진다. 각각의 상태는 HMM의 과정에 종속적이고 순서는 얼굴 이미지의 위에서 아래로 순차적으로 적용된다. 또한 얼굴을 나누는 간격은 얼굴만의 이미지에 각각 고정적인 위치에 자리 잡게 된다. 이러한 1차 HMM은 약 85%의 인식률을 보인다 (참조논문: A. V. Nefian and M. H. Hayes, "A Hidden Markov Model for face recognition", in ICASSP 98, vol. 5, pp.2721-2724, 1988; A. V. Nefian and M. H. Hayes, "Face detection and recognition using Hidden Markov Models", in International Conference on Image Processing, 1988).In face recognition, HMM algorithm recognizes face features. The biggest feature of these faces is head, forehead, eyes, nose, and mouth. These features are modeled using the primary HMM (1D-HMM). Each state is dependent on the process of the HMM and the order is applied sequentially from top to bottom of the face image. In addition, the interval between dividing the face is set in a fixed position in the image of the face only. This primary HMM has a recognition rate of about 85% (Ref .: AV Nefian and MH Hayes, "A Hidden Markov Model for face recognition", in ICASSP 98, vol. 5, pp. 2721-2724, 1988; AV Nefian and MH Hayes, "Face detection and recognition using Hidden Markov Models", in International Conference on Image Processing, 1988).

1차 HMM에 대한 확장은 의사(pseudo) 2D-HMM으로 확장될 수 있다 (참조논문: S. Kuo and O. Agazzi, "Keyword spotting in poorly printed documents using pseudo 2-D Hidden Markov Models", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 16, pp.842-848, August 1994). 이러한 2D-HMM은 각각 얼굴의 블록의 확장으로 이루어지는데 도 4와 같이 각 대부분(super state)(42)에 대하여 일정한 소부분(state)(44)으로 다시 나누어 각각의 확률을 계산하고 다시 전체에 대한 확률을 계산한 뒤 다음 과정으로 넘어가게 되는 것이다. 도 4에서는 얼굴에서 이마, 눈, 코, 입, 턱으로 순차적으로 진행하는 것을 도시하고 있다.Extensions to primary HMMs can be extended to pseudo 2D-HMMs (see S. Kuo and O. Agazzi, "Keyword spotting in poorly printed documents using pseudo 2-D Hidden Markov Models", IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 16, pp. 842-848, August 1994). Each of these 2D-HMMs consists of an extension of the block of the face, which is divided into a predetermined state 44 for each super state 42, and the respective probabilities are calculated again. After calculating the probabilities, we move on to the next step. In Figure 4 shows the progression from the face to the forehead, eyes, nose, mouth, chin sequentially.

도 5는 본 발명에 의한 얼굴 검출 및 인증을 위한 얼굴 데이터의 트레이닝 과정과 데이터베이스화를 설명하기 위한 도면이다.5 is a view for explaining the training process and the database of the face data for face detection and authentication according to the present invention.

도 5에서, N번째 사람에 대한 트레이닝 이미지(500)를 받아 블록추출부(510) 는 블록을 추출하고, 추출된 블록을 받아 특징추출부(520)는 특징(O1 N,O2 N,...,OJ N)을 초기 파라미터 평가부(540)와 바움-웰치 파라미터 재평가부(550)로 출력한다. 한편 초기 파라미터 평가부(540)는 프로토타입 HMM모델부(530)로부터 HMM모델(λ0)을 받아 특징추출부(520)로부터 보내온 특징을 평가하여 파라미터 평가 결과(λinit)를 상기 바움-웰치 파라미터 재평가부(550)로 보낸다. 바움-웰치 파라미터 재평가부(550)는 상기 특징추출부(520)로부터 보내온 특징들(O1 N,O2 N,...,OJ N)과 상기 초기 파라미터 평가부(540)로부터 전달된 파라미터 평가 결과(λinit)를 받아 트레이닝된 얼굴 이미지(λN)를 출력하여 얼굴데이터베이스에 저장한다. In FIG. 5, the block extractor 510 extracts a block by receiving the training image 500 for the N-th person, and the feature extractor 520 receives the extracted block by using features O 1 N , O 2 N , and the like. ..., O J N ) is output to the initial parameter evaluator 540 and the Baum-welch parameter reevaluator 550. Meanwhile, the initial parameter evaluator 540 receives the HMM model λ 0 from the prototype HMM model unit 530 and evaluates the feature sent from the feature extractor 520 to calculate the parameter evaluation result λ init . The parameter is sent to the parameter reevaluation unit 550. The Baum-Welch parameter reevaluator 550 transmits the features O 1 N , O 2 N ,..., O J N sent from the feature extractor 520 and the initial parameter evaluator 540. After receiving the parameter evaluation result (λ init ), the trained face image (λ N ) is output and stored in the face database.

도 6은 본 발명에 의한 얼굴 검출 및 얼굴 인증 과정의 전체 블록도이다. 도 6에서, 인증을 원할 때 할라이크특징(Haar-like feature)을 이용하여 동영상에서 얼굴영역을 자동검출하여 BMP포맷으로 저장한다. 이때의 데이터는 하나의 얼굴과 하나의 얼굴당 6개 이미지를 데이터로 하고 여기에 기존에 수집한 얼굴의 데이터베이스를 합하여 얼굴 데이터베이스에 인증하고자 하는 얼굴을 추가한다. 도 6에서는 사진이 아닌 동영상에서 추가할 사람의 얼굴영역을 자동으로 추출하여 저장하는 것을 보이기 위한 것이다. 이렇게 검출된 얼굴 이미지는 블록추출부(64)와 특징추출부(66)를 거쳐 파라미터를 출력하고 그 파라미터는 유사모델계산부(71,..., 72)에서 얼굴 데이터베이스에 저장된 파라미터들과 비교하여 최대 확률선택부(80)에서 가장 유사한 이미지를 선택하여 출력부(90)를 통하여 인증출력하게 된다.6 is a block diagram of a face detection and face authentication process according to the present invention. In FIG. 6, when the authentication is desired, a face area is automatically detected in a video using a haar-like feature and stored in a BMP format. At this time, one face and 6 images per face are used as data, and a face database to be authenticated is added to the face database by combining the database of previously collected faces. In FIG. 6, it is intended to automatically extract and store a face area of a person to be added from a video rather than a picture. The detected face image is outputted through the block extractor 64 and the feature extractor 66, and the parameter is compared with the parameters stored in the face database by the similar model calculator 71,..., 72. By selecting the most similar image in the maximum probability selection unit 80 to output the authentication through the output unit (90).

표 1은 24*24 윈도우 크기에 할라이크특징(Haar-like feature)의 프로토타입에 대한 트레이닝 된 위치정보와 임계치들을 나타내고 있다. 얼굴 인증 시스템을 검증한 결과 표 2와 같은 결과를 얻었다.Table 1 shows the trained location information and thresholds for prototypes of Haar-like features at 24 * 24 window size. As a result of verifying the facial authentication system, the result shown in Table 2 was obtained.

extern const char* FaceCascade[]={ /*Stage 0*/ "9 1 2 6 4 12 9 0 -1 6 7 12 3 0 3 haar_y3 -0.031512 0 -1 2.087538 -2.217210 1 2 6 4 12 7 0 -1\n" "10 4 4 7 0 3 haar_x3 0.012396 0 - -1.863394 1.327205 1 2 3 9 18 9 0 -1 3 12 18 3 0 3\n" "haar_y3 0.021928 0 -1 -1.510525 1.062573 1 2 8 18 9 6 0 -1 8 20 9 2 0 3 haar_y3\n" ... "1 2 5 8 12 6 0 -1 5 11 12 3 0 2 haar_y2 0.002734 0 -1 -1.691193 0.440097 1 2 11 14 4 10 0 -1\n" "11 19 4 5 0 2 haar-y2 -0.018859 0 -1 -1.476954 0.443501 1 2 4 0 7 6 0 -1 4 3 7 3 0 2\n" "haar_y2 0.005974 0 -1 -0.859092 0.852556 -5.042550\n", /*Stage 1*/ "16 1 2 6 6 12 6 0 -1 6 8 12 2 0 3 haar_y3 -0.021110 0 -1 1.243565 - 1.571301 1 2\n" "6 4 12 7 0 -1 10 4 4 7 0 3 haar_x3 0.020356 0 -1 -1.620478 1.181776 1 2 1 8 19 12 0 -1\n" ... "9 5 2 10 0 3 haar_x3 -0.007507 0 -1 0.927821 -0.663499 1 2 10 8 6 10 0 -1 12 8 2 10 0 3\n" "haar_x3 -0.009877 0 -1 1.157747 -0.297748 1 2 2 5 4 9 0 -1 4 5 2 9 0 2 haar_x2 0.015814 0 -1\n" ... extern const char * FaceCascade [] = {/ * Stage 0 * / "9 1 2 6 4 12 9 0 -1 6 7 12 3 0 3 haar_y3 -0.031512 0 -1 2.087538 -2.217210 1 2 6 4 12 7 0 -1 \ n "" 10 4 4 7 0 3 haar_x3 0.012396 0--1.863394 1.327205 1 2 3 9 18 9 0 -1 3 12 18 3 0 3 \ n "" haar_y3 0.021928 0 -1 -1.510525 1.062573 1 2 8 18 9 6 0 -1 8 20 9 2 0 3 haar_y3 \ n "                                                  ... "1 2 5 8 12 6 0 -1 5 11 12 3 0 2 haar_y2 0.002734 0 -1 -1.691193 0.440097 1 2 11 14 4 10 0 -1 \ n" "11 19 4 5 0 2 haar-y2- 0.018859 0 -1 -1.476954 0.443501 1 2 4 0 7 6 0 -1 4 3 7 3 0 2 \ n "" haar_y2 0.005974 0 -1 -0.859092 0.852556 -5.042550 \ n ", / * Stage 1 * /" 16 1 2 6 6 12 6 0 -1 6 8 12 2 0 3 haar_y3 -0.021110 0 -1 1.243565-1.571301 1 2 \ n "" 6 4 12 7 0 -1 10 4 4 7 0 3 haar_x3 0.020356 0 -1 -1.620478 1.181776 1 2 1 8 19 12 0 -1 \ n "                                                  ... "9 5 2 10 0 3 haar_x3 -0.007507 0 -1 0.927821 -0.663499 1 2 10 8 6 10 0 -1 12 8 2 10 0 3 \ n" "haar_x3 -0.009877 0 -1 1.157747 -0.297748 1 2 2 5 4 9 0 -1 4 5 2 9 0 2 haar_x2 0.015814 0 -1 \ n "                                                  ...                                             

실험횟수  Number of experiments 총실험인원수  Total experimental population 인증성공 인원수 Certification Success 인증실패 인원수 Certification failure 인증성공확률 Certification success probability 인증실패확률 Certification Failure Probability 10회  10th 48명 48 people 46명 46 people 2명 2 people 95.65% 95.65% 4.35% 4.35%

도 7은 본 발명에 의한 얼굴 인증결과를 설명하기 위한 도면이다. 데이터는 8명의 얼굴과 각각 6개씩 48개의 이미지를 데이터로 하고 여기에 기존에 수집한 얼굴의 데이터베이스(40명의 얼굴과 각각 6개씩 240개의 이미지)를 합하여 48명의 얼굴에 대한 데이터베이스를 구축하여 실험하였다. 잘못 검증이 된 얼굴들의 특징을 보면 도 7에서 보는 바와 같이 공통적으로 이마 부분이 넓어 얼굴의 특징영역 부분이 다른 사람의 얼굴과는 다른 것을 알 수 있고 이러한 이유는 2D-HMM으로 트레이닝 하기 위한 얼굴 분할 과정에서 눈의 위치가 영역 밖으로 벗어났다는 결과를 나타내 주고 있다.7 is a view for explaining the face authentication results according to the present invention. The data consisted of 8 faces and 48 images of 6 each, and a database of 48 faces was constructed by combining the database of previously collected faces (40 faces and 240 images of 6 each). . As shown in FIG. 7, the features of the wrongly verified faces can be seen that the forehead part of the face is wider than the other person's face because the forehead part is wider in common. This is because face segmentation for training with 2D-HMM. In the process, the eye position is out of the area.

지금까지 본 발명의 얼굴 검출 및 인증 과정에 대해서 설명하였으나, 본 발명이 적용되는 도 8의 개인 휴대 착용 단말기인 웨어러블퍼스널스테이션(wearable personal station; WPS)을 참조하여, 본 발명의 바람직한 실시예에 의한 얼굴 검출 및 인증 과정을 설명한다.The face detection and authentication process of the present invention has been described so far, but with reference to a wearable personal station (WPS), a personal wearable terminal of FIG. 8 to which the present invention is applied, according to a preferred embodiment of the present invention Describes the face detection and authentication process.

도 8의 개인 휴대 착용 단말기인 웨어러블퍼스널스테이션(wearable personal station; WPS)는 단말기내에 얼굴을 검출하는 검출부 및 얼굴이미지 및 얼굴검출알고리즘을 저장하는 저장부를 포함하고, 서버에 얼굴데이터베이스와 얼굴인증알고리즘을 저장하여 상기 단말기로부터 검출된 이미지와 상기 서버에 저장된 이미지를 비교하여 인증하는 처리부를 포함하는 경우이다. WPS(80)는 자체 내장된 카메라(82)로부터 입력된 얼굴이미지를 받아 할라이크특징(Haar-like feature)기법에 의하여 얼굴을 검출한다(84). 이렇게 검출된 얼굴이미지는 불루투스 또는 무선 인터넷을 통하여 서버(90)로 전송된다. 이 경우, 전술한 바와 같이 WPS(80)에 저장 된 얼굴검출알고리즘인 할라이크특징(Haar-like feature)과 아다부스트(AdaBoost) 학습알고리즘을 이용하여 수많은 얼굴이미지를 트레이닝하여 분류하고, 트레이닝된 각각의 그룹을 25개의 단계로 하여 단계가 높을수록 세밀화된 얼굴영역 마스크를 생성하여 처리할 이미지를 받아 영상을 축소해 가면서 얼굴영역 마스크와 일치되는 곳을 얼굴로 검출한다. 검출된 얼굴은 서버(90)에 저장된 얼굴인증알고리즘인 HMM알고리즘과 다수 사람의 얼굴 데이터베이스를 이용하여 얼굴 파라미터들을 비교 인식하여 인증을 완료한다(86).A wearable personal station (WPS) as a personal wearable terminal of FIG. 8 includes a detection unit for detecting a face and a storage unit for storing a face image and a face detection algorithm in the terminal, and includes a face database and a face authentication algorithm in a server. And a processing unit for storing and comparing the image detected by the terminal with the image stored in the server. The WPS 80 receives a face image input from a built-in camera 82 and detects a face by a haar-like feature (84). The detected face image is transmitted to the server 90 via Bluetooth or wireless Internet. In this case, as described above, a number of face images are trained and classified using a Haar-like feature and an AdaBoost learning algorithm, which are face detection algorithms stored in the WPS 80, and each trained. With 25 groups of steps, the higher the level, the finer the face area mask is generated, the image to be processed is received, and the image is reduced to detect the face that matches the face area mask. The detected face compares facial parameters by using the HMM algorithm, which is a face authentication algorithm stored in the server 90, and the face database of a plurality of people, and completes authentication (86).

상술한 바와 같이, 본 발명에서는 할라이크특징(Haar-like feature)과 HMM 을 이용하여 얼굴을 인증하는 시스템에 대해서 설명하였다. 이러한 시스템은 정지 영상에서의 얼굴 인증 방법을 확장하여 실시간 동영상에서의 얼굴 검출 및 인증과정을 할 수 있기에 매우 유용하다. 할라이크특징(Haar-like feature)을 이용하면 빠른 얼굴 검출 시간으로 인해 동영상으로의 적용이 용이하고 이렇게 검출된 얼굴 영역데이터를 바로 HMM에 이용함으로써 실시간 처리를 요하는 비디오 영상에서의 빠른 얼굴 검출 및 인증이 가능하게 된 것이다. 인증률에 대한 향상은 향후 얼굴 검출 후에 HMM을 적용함에 있어 눈과 입 등의 위치를 더욱 세밀하게 하고 피부색 검출 등을 이용하면 충분히 인식률을 향상시킬 수 있다.As described above, the present invention has described a system for authenticating a face using a haar-like feature and an HMM. Such a system is very useful for extending the face authentication method for still images to perform face detection and authentication in real time video. By using the Haar-like feature, it is easy to apply to a video due to the fast face detection time, and by using the detected face region data directly to the HMM, it is possible to quickly detect and detect a face in a video image requiring real time processing. Authentication is now possible. The improvement of the authentication rate can be sufficiently improved by applying the HMM after the face detection in the future to further refine the position of the eyes and mouth, and to use the skin color detection.

상술한 바와 같이, 본 발명의 얼굴 검출 및 인증 장치 및 방법은 단말기내에서 얼굴영역만을 자동검출하여 특징값의 파라미터를 서버로 무선전송한 후 서버에서 얼굴데이터베이스와 비교 후 인증유무를 출력한다. 단말기에서 동영상에 대한 얼굴 검출과 얼굴 특징 추출이 가능하고 서버에 다수의 데이터를 저장할 수 있어 개인이나 다수의 사용자가 사용하여 개인에 대한 인증, 로그인 기능, 얼굴만 나타나는 화상회의, 및 상대방의 신원확인 등을 구현하는데 효율적인 솔루션을 제공한다.As described above, the apparatus and method for detecting and authenticating a face of the present invention automatically detects only a face area in a terminal, wirelessly transmits a parameter of a feature value to a server, and then outputs the presence or absence of authentication after comparing with a face database in the server. Face detection and facial feature extraction for video can be performed on the terminal, and multiple data can be stored on the server, which can be used by individuals or multiple users for authentication, login function, video conferencing with only faces, and identification of the other party. Provide an efficient solution to implement

Claims (8)

얼굴 검출 및 인증 장치에 있어서, In the face detection and authentication device, 얼굴 데이터 및 얼굴검출알고리즘을 저장하는 저장부 및 입력된 동영상에 대한 얼굴을 검출하여 특징값의 파라미터를 출력하는 검출부를 포함하는 개인 휴대 착용 단말기; 및 A personal portable wear terminal comprising a storage unit for storing face data and a face detection algorithm and a detection unit for detecting a face of an input video and outputting a parameter of a feature value; And 얼굴데이터베이스와 얼굴인증알고리즘을 저장하는 저장부 및 상기 특징값의 파라미터에 따라서 상기 검출된 얼굴 데이터와 얼굴데이터베이스에 저장된 얼굴데이터를 비교하여 인증유무를 출력하는 처리부를 포함하는 서버를 포함하는 얼굴 검출 및 인증 장치.And a server including a storage unit for storing a face database and a face authentication algorithm and a processing unit for comparing the detected face data with face data stored in the face database according to the parameter of the feature value and outputting an authentication status. Authentication device. 제1항에 있어서, 상기 얼굴 검출은 할라이크(Haar-like) 특징 프로토타입과 아다부스트(AdaBoost) 학습알고리즘을 사용하여 얼굴부분에 윈도우를 씌운 후 그 영역에 대하여 할라이크 특징값을 구한 후, 할라이크 특징값을 그룹화하여 저장함으로써 얼굴을 검출함을 특징으로 하는 얼굴 검출 및 인증 장치.The method of claim 1, wherein the face detection comprises using a Haar-like feature prototype and an AdaBoost learning algorithm to cover the area of the face, and then obtain a Halle feature value for the area. And detecting the face by grouping and storing the Halle feature values. 제1항 또는 제2항에 있어서, 상기 얼굴 인증은 HMM알고리즘(Hidden Markov Model algorithm)을 통하여 얼굴의 특징을 사용하여 모델링하고 모델링된 얼굴이미지를 저장된 얼굴의 이미지에 위에서 아래로 순차적으로 적용 비교하여 인증함을 특징으로 하는 얼굴 검출 및 인증 장치.According to claim 1 or 2, wherein the face authentication is modeled using the facial features through the HMM algorithm (Hidden Markov Model algorithm) by comparing the modeled face image to the image of the stored face sequentially from top to bottom Face detection and authentication apparatus characterized in that the authentication. 제3항에 있어서, 상기 HMM 알고리즘은 각각 얼굴의 블록의 확장으로 이루어지는데 각 부분(super state)에 대하여 일정한 부분(state)으로 다시 나누어 각각의 확률을 계산하고 다시 전체에 대한 확률을 계산한 뒤 다음 과정으로 넘어가게 되는 2차 HMM을 추가로 더 포함하는 것을 특징으로 하는 얼굴 검출 및 인증 장치.The method of claim 3, wherein the HMM algorithm consists of an extension of a block of a face. The face detection and authentication device further comprises a second HMM to be passed to the next process. 얼굴 검출 및 인증 방법에 있어서, In the face detection and authentication method, 서버에 얼굴 데이터베이스 및 얼굴인증알고리즘을 저장하는 단계; Storing a face database and a face authentication algorithm in a server; 개인 휴대 착용 단말기에 저장된 얼굴검출알고리즘에 의해 입력된 동영상에 대한 얼굴을 검출하여 특징값의 파라미터를 출력하는 단계; 및 Detecting a face for a video input by a face detection algorithm stored in a personal wearable terminal and outputting a parameter of a feature value; And 상기 특징값의 파라미터에 따라서 상기 서버에서 상기 개인 휴대 착용 단말기로부터 검출된 얼굴 데이터와 상기 서버에 얼굴데이터베이스에 저장된 얼굴데이터를 비교하여 상기 개인 휴대 착용 단말기로 인증유무를 출력하는 단계를 포함하는 얼굴 검출 및 인증 방법.Comparing the face data detected from the personal wearable terminal with the face data stored in the face database in the server and outputting the presence or absence of authentication to the personal wearable terminal according to the feature value parameter. And authentication method. 제5항에 있어서, 상기 얼굴 검출은 할라이크(Haar-like) 특징 프로토타입과 아다부스트(AdaBoost) 학습알고리즘을 사용하여 얼굴부분에 윈도우를 씌운 후 그 영역에 대하여 할라이크 특징값을 구한 후, 할라이크 특징값을 그룹화하여 저장함으로써 얼굴을 검출함을 특징으로 하는 얼굴 검출 및 인증 방법.The method of claim 5, wherein the face detection is performed using a Haar-like feature prototype and an AdaBoost learning algorithm to cover the area of the face, and then obtain a Halle feature value for the area. And detecting the face by grouping and storing the Halle feature values. 제5항 또는 제6항에 있어서, 상기 얼굴 인증은 HMM알고리즘(Hidden Markov Model algorithm)을 통하여 얼굴의 특징을 사용하여 모델링하고 모델링된 얼굴이미지를 저장된 얼굴의 이미지에 위에서 아래로 순차적으로 적용 비교하여 인증함을 특징으로 하는 얼굴 검출 및 인증 방법.According to claim 5 or 6, The face authentication is modeled using the facial features through the HMM algorithm (Hidden Markov Model algorithm) by comparing the modeled face image to the image of the stored face sequentially from top to bottom Face detection and authentication method characterized in that the authentication. 제7항에 있어서, 상기 HMM 알고리즘은 각각 얼굴의 블록의 확장으로 이루어지는데 각 대부분(super state)에 대하여 일정한 소부분(state)으로 다시 나누어 각각의 확률을 계산하고 다시 전체에 대한 확률을 계산한 뒤 다음 과정으로 넘어가게 되는 2차 HMM을 추가로 더 포함하는 것을 특징으로 하는 얼굴 검출 및 인증 방법.The method of claim 7, wherein the HMM algorithm consists of an extension of a block of a face. The method further comprises a second HMM to be passed to the next step.
KR1020040096172A 2004-11-23 2004-11-23 Apparatus and method for detecting and authenticating facial data KR100702226B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020040096172A KR100702226B1 (en) 2004-11-23 2004-11-23 Apparatus and method for detecting and authenticating facial data
PCT/KR2004/003480 WO2006057475A1 (en) 2004-11-23 2004-12-28 Face detection and authentication apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040096172A KR100702226B1 (en) 2004-11-23 2004-11-23 Apparatus and method for detecting and authenticating facial data

Publications (2)

Publication Number Publication Date
KR20060057110A true KR20060057110A (en) 2006-05-26
KR100702226B1 KR100702226B1 (en) 2007-04-03

Family

ID=37152587

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040096172A KR100702226B1 (en) 2004-11-23 2004-11-23 Apparatus and method for detecting and authenticating facial data

Country Status (1)

Country Link
KR (1) KR100702226B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100755800B1 (en) * 2006-06-21 2007-09-07 한국과학기술원 Face detector and detecting method using facial color and adaboost
KR100795160B1 (en) * 2007-03-22 2008-01-16 주식회사 아트닉스 Apparatus for face detection and recognition and method for face detection and recognition
KR100825689B1 (en) * 2006-08-18 2008-04-29 학교법인 포항공과대학교 Facial Disguise Discrimination method
KR100827848B1 (en) * 2007-12-24 2008-05-07 (주)올라웍스 Method and system for recognizing person included in digital data and displaying image by using data acquired during visual telephone conversation
KR100840021B1 (en) * 2007-11-05 2008-06-20 (주)올라웍스 Method and system for recognizing face of person included in digital data by using feature data
KR100862526B1 (en) 2007-04-12 2008-10-09 에스케이 텔레콤주식회사 Method and system constructing moving image database and face recognition method and system using the same
KR20110087025A (en) * 2010-01-25 2011-08-02 엘지전자 주식회사 Video communication method and digital television thereof
KR101436610B1 (en) * 2010-12-30 2014-09-02 임규관 Method for providing street office service using remote access to server via wireless and wire network, Apparatus thereof and System having the same

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2839855B2 (en) * 1995-03-15 1998-12-16 株式会社エイ・ティ・アール通信システム研究所 Facial expression recognition device
JP2962549B2 (en) 1997-03-11 1999-10-12 株式会社エイ・ティ・アール知能映像通信研究所 Facial Expression Recognition Method from Facial Video
JP2948186B2 (en) 1998-02-10 1999-09-13 株式会社エイ・ティ・アール知能映像通信研究所 Expression extraction method from facial video
KR100405636B1 (en) * 2000-05-23 2003-11-15 이성환 Wearable walking guidance device and method for the blind
KR20010074059A (en) * 2001-01-20 2001-08-04 정인수 Personal Verification Method and Apparatus Based on Facial Images for Mobile Systems
JP2002318652A (en) 2001-04-20 2002-10-31 Foundation For Nara Institute Of Science & Technology Virtual input device and its program
US20030046228A1 (en) * 2001-08-28 2003-03-06 Jean-Marc Berney User-wearable functional jewelry with biometrics and smartcard to remotely sign and/or authenticate to e-services
KR20030093464A (en) * 2002-06-03 2003-12-11 (주)아이엠에이테크놀로지 Security Certifying Method of Mobile Telecommunication Devices using Face-Recognition

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100755800B1 (en) * 2006-06-21 2007-09-07 한국과학기술원 Face detector and detecting method using facial color and adaboost
KR100825689B1 (en) * 2006-08-18 2008-04-29 학교법인 포항공과대학교 Facial Disguise Discrimination method
KR100795160B1 (en) * 2007-03-22 2008-01-16 주식회사 아트닉스 Apparatus for face detection and recognition and method for face detection and recognition
KR100862526B1 (en) 2007-04-12 2008-10-09 에스케이 텔레콤주식회사 Method and system constructing moving image database and face recognition method and system using the same
KR100840021B1 (en) * 2007-11-05 2008-06-20 (주)올라웍스 Method and system for recognizing face of person included in digital data by using feature data
US8565493B2 (en) 2007-11-05 2013-10-22 Intel Corporation Method, system, and computer-readable recording medium for recognizing face of person included in digital data by using feature data
KR100827848B1 (en) * 2007-12-24 2008-05-07 (주)올라웍스 Method and system for recognizing person included in digital data and displaying image by using data acquired during visual telephone conversation
KR20110087025A (en) * 2010-01-25 2011-08-02 엘지전자 주식회사 Video communication method and digital television thereof
KR101436610B1 (en) * 2010-12-30 2014-09-02 임규관 Method for providing street office service using remote access to server via wireless and wire network, Apparatus thereof and System having the same

Also Published As

Publication number Publication date
KR100702226B1 (en) 2007-04-03

Similar Documents

Publication Publication Date Title
Zulfiqar et al. Deep face recognition for biometric authentication
Rodriguez et al. Face authentication using adapted local binary pattern histograms
Monwar et al. Multimodal biometric system using rank-level fusion approach
US8837786B2 (en) Face recognition apparatus and method
Kotropoulos et al. Frontal face authentication using discriminating grids with morphological feature vectors
KR101464446B1 (en) Method for user vertification using face recognition and head pose estimation and apparatus thereof
Anila et al. Simple and fast face detection system based on edges
Goudelis et al. Class-specific kernel-discriminant analysis for face verification
Hossain et al. Multimodal identity verification based on learning face and gait cues
Littlewort et al. Fully automatic coding of basic expressions from video
Kim et al. Teeth recognition based on multiple attempts in mobile device
KR100702226B1 (en) Apparatus and method for detecting and authenticating facial data
KR101195539B1 (en) Door on/off switching system using face recognition and detection method therefor
Gofman et al. Multimodal biometrics via discriminant correlation analysis on mobile devices
WO2006057475A1 (en) Face detection and authentication apparatus and method
Olufade et al. Biometric authentication with face recognition using principal component analysis and feature based technique
KR20090005920A (en) Method and apparatus for generating an object descriptor using curvature gabor filter
KR100702225B1 (en) Apparatus and method for detecting and authenticating facial data
Balraj et al. Performance Improvement of Multibiometric Authentication System Using Score Level Fusion with Ant Colony Optimization
Shatnawi et al. The impact of the number of eigen-faces on the face recognition accuracy using different distance measures
LK et al. Face recognition in surveillance system
Hong et al. Real time face detection and recognition system using Haar-like feature/HMM in ubiquitous network environments
Triantafyllou et al. Iris authentication utilizing co-occurrence matrices and textile features
Adebayo et al. Combating Terrorism with Biometric Authentication Using Face Recognition
Raghavendra et al. Multimodal person verification system using face and speech

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130102

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140613

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160325

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170324

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20180322

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20200129

Year of fee payment: 14