KR20060074410A - An adaptive realtime face detecting method based on training - Google Patents

An adaptive realtime face detecting method based on training Download PDF

Info

Publication number
KR20060074410A
KR20060074410A KR1020040113139A KR20040113139A KR20060074410A KR 20060074410 A KR20060074410 A KR 20060074410A KR 1020040113139 A KR1020040113139 A KR 1020040113139A KR 20040113139 A KR20040113139 A KR 20040113139A KR 20060074410 A KR20060074410 A KR 20060074410A
Authority
KR
South Korea
Prior art keywords
face
detection
training image
image
learning
Prior art date
Application number
KR1020040113139A
Other languages
Korean (ko)
Other versions
KR100621883B1 (en
Inventor
김중규
박영경
서해종
민경원
김태완
정찬기
Original Assignee
학교법인 성균관대학
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 학교법인 성균관대학 filed Critical 학교법인 성균관대학
Priority to KR1020040113139A priority Critical patent/KR100621883B1/en
Publication of KR20060074410A publication Critical patent/KR20060074410A/en
Application granted granted Critical
Publication of KR100621883B1 publication Critical patent/KR100621883B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은, 얼굴데이터베이스 상의 훈련영상들의 수평방향/수직방향 크기투영의 상호상관계수 값들의 특징을 Bayesian학습을 통해 학습하는 단계와, 훈련영상집합을 이용해 직사각형특징에 기반을 둔 약한 분류기들을 구성하고 최적의 강한 분류기를 얻기 위해 약한 분류기들을 학습하여 부스팅(boosting)하는 단계를 구비하여 이루어지되, 영상이 입력되면, 얼굴검출을 위한 입력영상의 품질을 개선하고 조명효과를 최소화하기 위한 히스토그램 평활화하고(전처리 단계), 상기 Bayesian학습된 결과를 이용해 상기 입력영상으로부터 얼굴후보를 검출하며(선검출 단계), 상기 부스팅을 통해 얻어진 강한 분류기를 이용해 상기 입력영상이 얼굴인지 아닌지를 검사하여 최적의 얼굴영역을 검출하고(주검출단계), 실시간 얼굴검출을 위하여 스캐닝 과정에서 동일한 얼굴에 대한 중복 검출을 막고 불필요한 검출 과정을 제거하는(단일 얼굴후보 선정단계) 것을 특징으로 하는 학습에 기반을 둔 적응형 실시간 얼굴검출방법을 제공한다.The present invention comprises the steps of learning the features of the correlation coefficient values of horizontal / vertical size projection of the training images on the face database through Bayesian learning, and constructing weak classifiers based on rectangular features using the training image set. Learning and classifying weak classifiers to obtain an optimal strong classifier, and when the image is input, the histogram is smoothed to improve the quality of the input image for face detection and minimize the lighting effect ( Preprocessing step), using the Bayesian-learned result to detect face candidates from the input image (pre-detection step), and checking whether the input image is a face using a strong classifier obtained through the boosting to determine the optimal face area. Detection (main detection step) and same during scanning process for real time face detection Prevent duplicate detection on the face and provides an adaptive real-time face detection method based on a study wherein (a single face candidate selection stage) to remove unnecessary detection process.

Description

학습에 기반을 둔 적응형 실시간 얼굴검출방법{AN ADAPTIVE REALTIME FACE DETECTING METHOD BASED ON TRAINING} Adaptive real-time face detection based on learning {AN ADAPTIVE REALTIME FACE DETECTING METHOD BASED ON TRAINING}             

도 1은 본 발명에 따른 학습에 기반을 둔 실시간 적응형 얼굴검출방법의 전처리, 선검출, 주검출의 흐름도,1 is a flowchart of pre-processing, pre-detection, and main detection of a real-time adaptive face detection method based on learning according to the present invention;

도 2는 본 발명의 전처리과정으로서 히스토그램 평활화를 보여주는 도면,2 is a diagram showing a histogram smoothing as a pretreatment process of the present invention;

도 3은 본 발명에 따른 얼굴 검출의 첫단계로서 크기투영을 보여주는 도면,3 is a view showing size projection as a first step of face detection according to the present invention;

도 4는 본 발명에서 얼굴/비얼굴의 크기 투영 특성을 모델링한 가우시안 분포를 보여주는 도면,4 is a view showing a Gaussian distribution modeling the size projection characteristics of the face / non-face in the present invention,

도 5는 본 발명의 주검출과정의 직사각형 특징을 보여주는 도면,5 is a view showing a rectangular feature of the main detection process of the present invention,

도 6은 본 발명의 주검출과정에서 이용되는 인티그럴 영상 표현법을 보여주는 도면,6 is a view showing an integrated image representation used in the main detection process of the present invention;

도 7은 본 발명의 주검출과정의 직사각형 특징 값을 계산하는 과정을 보여주는 도면,7 is a view showing a process of calculating a rectangular feature value of the main detection process of the present invention,

도 8은 본 발명의 주검출과정에서 훈련영상집합에 대한 직사각형특징 값의 가우시안 분포를 보여주는 도면,8 is a diagram illustrating a Gaussian distribution of rectangular feature values for a training image set in a main detection process of the present invention;

도 9는 본 발명에서 AdaBoost알고리즘의 블록다이어그램을 보여주는 도면,Figure 9 shows a block diagram of the AdaBoost algorithm in the present invention,

도 10은 본 발명에서 단일 얼굴후보선정방법을 보여주는 도면,10 is a view showing a single face candidate selection method in the present invention,

도 11은 본 발명에 따른 얼굴검출방법을 통해 테스트한 검출의 예,11 is an example of detection tested through a face detection method according to the present invention;

도 12는 본 발명에 따른 얼굴검출방법의 도식도이다.12 is a schematic diagram of a face detection method according to the present invention.

본 발명은 정지 및 동영상에서 얼굴을 검출하고 표정을 인식하는 표정인식방법의 개발의 첫단계로 영상에서의 얼굴영역을 검출하는 방법에 관한 것으로서, 크기투영의 상호상관계수 값을 이용한 얼굴검출방법과 Viola와 Jones가 제안한 직사각형특징에 기반을 두는 AdaBoost(Adaptive Boosting)알고리즘을 이용한 얼굴검출방법을 이용한 학습에 기반을 둔 실시간 얼굴검출방법에 관한 것이다. The present invention relates to a method for detecting a face region in an image as a first step of developing a facial recognition method for detecting a face and recognizing a facial expression in a still image and a moving image. The face detection method using a correlation coefficient of size projection and A real-time face detection method based on learning using face detection method using AdaBoost (Adaptive Boosting) algorithm based on the rectangular feature proposed by Viola and Jones.

정보통신 기술이 발전함에 따라 인터넷에 연결되어 데이터 송수신이 가능한 정보가전 기기의 등장으로 인한 정보 디지털 사회가 도래하고 있다. 일반 가정에 홈 네트워크가 구축되면서 디지털 도어폰과 같은 디지털가전 기기의 보급과 얼굴표정인식 시스템 및 사용자 인지/적응 HCI시스템구축에 대한 연구가 활발히 진행되고 있다. 표정인지를 위해서는 정확한 얼굴 검출이 전제되어야 한다. 하지만 정지 영상이나 동영상으로부터 정확하게 얼굴을 검출해 낸다는 것은 결코 쉬운 일이 아니다. 이것은 다양한 얼굴크기 그리고 수염, 안경과 같은 구조적요소의 존재 여부, 얼굴자세, 조명의 변화나 카메라 특성, 얼굴표정의 변화등이 얼굴을검출하는데 어 려움으로 작용하기 때문이다. With the development of information and communication technology, the information digital society is coming due to the emergence of information appliances that can connect to the Internet and transmit and receive data. As home networks are being built in homes, research into the distribution of digital appliances such as digital door phones, facial expression recognition systems, and user recognition / adaptation HCI systems are being actively conducted. Accurate face detection is a prerequisite for facial recognition. However, detecting faces accurately from still images and moving images is no easy task. This is because various face sizes and the presence of structural elements such as beards and glasses, facial posture, changes in illumination, camera characteristics, and facial expressions are difficult to detect.

이러한 영상에서의 얼굴 검출방법은 크게 네 가지로 분류된다. 첫 번째 방법은 지식 기반 방법으로서 전형적인 얼굴에 대한 인간의 일반적인 지식을 기반으로 하는 방법으로 얼굴을 구성하는 눈, 코, 입 간의 위치, 거리등이 이에 해당하며 초기 얼굴 검출에 많이 이용되던 방법이다. 그러나 이 방법은 인간의 다양한 얼굴 자세에 대해서 고정적인 규칙을 적용하기 힘들다는 단점이 있다. There are four types of face detection methods in such an image. The first method is a knowledge-based method, which is based on the general knowledge of a typical face. The position, distance, etc. between eyes, nose, and mouth constituting the face correspond to this method, which was widely used for initial face detection. However, this method has a disadvantage in that it is difficult to apply fixed rules to various face postures of humans.

두 번째 방법으로는 불변 특징 접근방법으로서 자세나 조명등의 변화에서도 얼굴 검출에 용이한 구조적 특징을 찾는 방법으로 주로 얼굴 국부화에 이용된다.The second method is an invariant feature approach, which is mainly used for face localization to find structural features that are easy to detect face even in posture or lighting.

세 번째 방법으로는 템플릿 매칭 방법으로서 몇몇 얼굴의 기본 형태를 얼굴의 전체 및 부분에 따라 저장하고 입력영상과의 비교를 통해 일정수준 이상의 상관관계를 가질 경우 얼굴로 판단하는 방법으로 일반적으로 많이 사용되는 방법이다. The third method is a template matching method. The basic shape of some faces is stored according to the whole and part of the face, and it is commonly used as a method of judging faces when there is a certain level of correlation through comparison with the input image. Way.

마지막으로 외형 기반 방법이 있다. 템플릿 매칭 방법과 달리 얼굴의 대표적인 다양성을 가지고 있는 훈련 영상들로부터 템플릿이나 얼굴모델을 학습하는 방법으로 최근 가장 많은 관심을 불러일으키고 있는 방법이며 검출성능 역시 우수하다.Finally, there is an appearance-based method. Unlike the template matching method, a method of learning a template or a face model from training images having a representative variety of faces has recently been attracting the most attention, and the detection performance is also excellent.

본 발명은, 기존 얼굴검출방법들이 가진 정확도 및 검출 시간의 한계점을 극복하기 위한 것으로, 정지/동영상에서 크기투영의 상호상관계수 값을 이용한 얼굴검출방법 및 직사각형특징에 기반을 둔 AdaBoost알고리즘을 이용한 얼굴검출방법을 이용해서, 학습에 기반을 둔 적응형 실시간 얼굴검출방법을 제공하는 것을 목적 으로 한다.
The present invention is to overcome the limitations of the accuracy and detection time of the existing face detection methods, the face detection method using the correlation coefficient of the size projection in still / movie and the face using the AdaBoost algorithm based on the rectangular feature The object of the present invention is to provide an adaptive real-time face detection method based on the learning method.

본원의 발명자들은, 학습을 위한 훈련얼굴영상을 제작함에 있어서, 피부색이나 얼굴형태, 혹은 얼굴요소들의 다양성을 잘 표현하는 엄선된 얼굴 DB를 획득하는 게 중요하다는 점을 인식하게 되었다. 이에 따라 본 발명은 CMU PIE데이터베이스, BioID데이터베이스 그리고 Slovenian CVL데이터베이스로부터 훈련얼굴영상을 구축함으로써, 학습 알고리즘이 얼굴의 공통적이고 고유한 특성을 발굴해낼 수 있도록 하고, 전처리를 통해 조명이나 카메라의 성능 등 여러 제반환경변화에 무관하게 정확한 얼굴을 검출하도록 하였다. The inventors of the present application have recognized that in producing a training face image for learning, it is important to obtain a selected face DB that expresses a variety of skin colors, facial shapes, or facial elements. Accordingly, the present invention builds a training face image from the CMU PIE database, the BioID database, and the Slovenian CVL database, so that the learning algorithm can discover common and unique characteristics of the face, and pre-process various lighting and camera performances. Accurate face detection was made regardless of changes in the environment.

본 발명에서는 정지/동영상에서 크기투영의 상호상관계수 값을 이용한 판별식과 직사각형특징에 기반을 두는 AdaBoost(Adaptive Boosting)알고리즘을 이용하여 실시간으로 정확하게 얼굴을 검출한다. In the present invention, a face is accurately detected in real time by using a discriminant using a correlation coefficient of size projection in a still image and an AdaBoost (Adaptive Boosting) algorithm based on a rectangular feature.

본 발명에 따른 얼굴검출방법은 후처리 과정에서의 단일 얼굴후보 선정방법을 이용하여 얼굴에서 중복된 검출결과를 보이는 현상을 막고 불필요한 스캐닝에 따른 검출시간의 증가를 최대한 줄임으로써 실시간 얼굴검출을 가능하게 한다.The face detection method according to the present invention uses a single face candidate selection method in the post-processing process to prevent the occurrence of duplicate detection results on the face and to minimize the increase in the detection time due to unnecessary scanning, thereby enabling real-time face detection. do.

본 발명은 입력영상에 대한 전처리 과정과, 크기투영의 상호상관계수 값을 이용한 선검출과정, 직사각형 특징에 기반하고 AdaBoost알고리즘을 이용한 주검출과정을 포함한다. The present invention includes a preprocessing process for an input image, a line detection process using a correlation coefficient value of size projection, and a main detection process using an AdaBoost algorithm based on a rectangular feature.

본 발명에 있어서, 상기 전처리과정은 얼굴영상에서 조명차이에 의한 검출 오류 방지를 위하여 히스토그램 평활화를 수행하는 과정이고, 상기 선검출과정은 전처리된 서브영상을 크기투영평면으로 투영 후 상호상관계수 값을 훈련결과 얻어진 문턱 값과 비교하여 얼굴을 검출하는 과정이며, 상기 주검출과정은 직사각형 특징을 약한 분류기로 구성하고 AdaBoost알고리즘을 통해 조합함으로써 강한 분류기를 구성하여 얼굴을 검출하는 과정이다. In the present invention, the preprocessing is a process of performing histogram smoothing to prevent detection errors due to illumination differences in the face image, and the predetection process is performed after projecting the preprocessed sub-image onto the size projection plane. The main detection process is a process of detecting a face by constructing a strong classifier by combining the rectangular features with a weak classifier and combining them through the AdaBoost algorithm.

또한 본 발명의 상기 선검출과정은 각 훈련영상집합의 수평/수직방향 크기투영과 평균영상의 수평/수직방향 크기투영간의 상호상관계수 값을 구하고 이 값들의 가우시안모델링을 통해 얼굴검출 판별함수를 구성하므로, AdaBoost를 이용한 주검출과정에서 발생할 수 있는 과도한 검출을 방지함을 특징으로 한다.In addition, the pre-detection process of the present invention obtains a correlation value between horizontal / vertical size projection of each training image set and horizontal / vertical size projection of an average image, and constructs a face detection discrimination function through Gaussian modeling of these values. Therefore, it is characterized by preventing excessive detection that may occur in the main detection process using AdaBoost.

또한 본 발명의 상기 주검출과정은 약한 분류기를 조합하여 구성된 강한 분류기를 통해 이루어지는데, 신뢰도 예측을 통해 정확한 분류를 함으로써 98%에 상응하는 높은 검출율을 달성함을 특징으로 한다.In addition, the main detection process of the present invention is made through a strong classifier composed of a combination of weak classifier, characterized by achieving a high detection rate corresponding to 98% by accurate classification through reliability prediction.

(실시예)(Example)

이하, 첨부된 도면을 참조하여 본 발명의 학습에 기반하는 실시간 적응형 얼굴검출방법에 대해서 설명한다.Hereinafter, with reference to the accompanying drawings will be described a real-time adaptive face detection method based on the learning of the present invention.

도 1은 본 발명에 따른 학습에 기반을 둔 실시간 적응형 얼굴검출방법의 흐름도로, 카메라로부터의 입력영상을 탐색윈도우 프로그램으로, 24 x 24픽셀화하고, 히스토그램 평활화하는 전처리과정과, 이 전처리과정에서 처리된 영상을 크기투영평면으로 맵핑하고, 상호상관계수 값을 이용하여 검출하는 선검출단계 및, 24×24 픽셀크기의 훈련영상에서 가능한 직사각형특징의 총 개수를 효율적으로 계산하기 위해 인티그럴영상을 표현하고, 부수팅(Boosting)을 행해 영상을 검출하는 주검출단계가 보여진다. 1 is a flowchart of a method for real-time adaptive face detection based on learning according to the present invention, which comprises a preprocessing process of converting an input image from a camera into a search window program by 24 × 24 pixels and smoothing histogram. The pre-detection step of mapping the processed image to the size projection plane and detecting using the correlation coefficient value, and the integrative image to efficiently calculate the total number of possible rectangular features in the training image of 24 × 24 pixel size The main detection step of detecting the image by performing boosting is shown.

이하, 각 처리과정에 대해 상세히 설명한다. Hereinafter, each process will be described in detail.

1. 전처리과정1. Pretreatment

도 2는 평활화에 의한 전처리과정을 보여준다. 참조부호 201은 원 영상이고 참조부호 202는 원 영상(201)에 대해서 히스토그램 평활화를 수행한 결과를 보여준다. 얼굴 검출과정에서 하나의 어려움으로 작용하는 것이 조명변화이다. 조명변화에 따라 얼굴은 현저하게 다른 특성을 나타내고 이것은 검출 성능에 직접적으로 영향을 미친다. 2 shows a pretreatment process by smoothing. Reference numeral 201 denotes an original image, and reference numeral 202 denotes a result of performing histogram smoothing on the original image 201. One difficulty in face detection is the change in illumination. As the lighting changes, the face is markedly different, which directly affects the detection performance.

본 발명에서는 이러한 조명변화에 의한 영향을 최소화하기 위해 전처리과정으로서 히스토그램 평활화를 적용했고, 이에 따라 도 2에서 알 수 있듯이 원 영상의 빛 상태에 따른 후속 과정에서의 얼굴 검출 오류 요인을 사전에 제거 또는 최소화시킬 수 있게 되었다. In the present invention, histogram smoothing is applied as a preprocessing process in order to minimize the effects of such illumination changes. Accordingly, as shown in FIG. 2, the face detection error factor in the subsequent process according to the light state of the original image is previously removed or It can be minimized.

2. 크기투영(Amplitude Projection)을 이용한 선검출과정2. Line Detection Process Using Amplitude Projection

본 발명에서는 영상의 수직/수평방향의 크기투영의 상호상관계수 값을 이용하여 Bayseian학습을 하고, 그 결과를 이용하여 얼굴을 선검출하는 방법을 사용한다. 이 방법은 이하의 주검출과정에서 AdaBoost알고리즘의 약한 분류기(weak classifier)를 구성하는 단순한 직사각형특징의 단점을 효율적으로 보완할 수 있는 주검출과정의 전처리과정으로 볼 수 있다. 얼굴 검출 시 크기투영의 상호상관계수 값들을 이용해 판별함수에 적용하여 얼굴인지 아닌지를 미리 검사하게 된다. 이하의 주검출 과정인 AdaBoost알고리즘을 이용한 검출방법보다 정확도면에서는 좋지 않지만 훈련시간과 검출시간이 상대적으로 매우 빠르다. 이러한 점을 이용하여 본 발명에서는 얼굴검출시스템 속도와 정확도를 개선시키기 위해 크기투영의 상호상관계수 값을 주검출과정의 전 단계로 이용한다. In the present invention, Bayseian learning is performed using the correlation coefficient values of the size projection in the vertical and horizontal directions of the image, and the method of pre-detecting the face is used using the result. This method can be regarded as the preprocessing of the main detection process that can effectively compensate for the shortcomings of the simple rectangular features that constitute the weak classifier of the AdaBoost algorithm. When detecting the face, the correlation function of the size projection is applied to the discrimination function to check whether the face is a face or not. Although the accuracy is lower than the detection method using the AdaBoost algorithm, which is the main detection process, the training time and detection time are relatively fast. Using this point, the present invention uses the correlation coefficient value of size projection as the previous step of the main detection process to improve the speed and accuracy of the face detection system.

도 3은 얼굴영상의 수평/수직방향으로의 크기 투영을 보여준다. 참조부호 301은 원 영상을 표현하며, 302는 수평방향 크기투영, 303은 수직방향크기투영을 보여준다. 얼굴 영상 자체로는 측정할 수 없었던 특징 즉, 코 부분이 다른 부분보다 그레이레벨 값이 더 크게 나타남을 수평, 수직 방향으로 영상을 투영한 그림을 통해서 알 수 있다. 3 shows the size projection of the face image in the horizontal / vertical direction. Reference numeral 301 denotes an original image, 302 shows a horizontal size projection, and 303 shows a vertical size projection. It is understood from the picture projecting the image in the horizontal and vertical directions that the gray portion value of the nose part is larger than the other parts, which could not be measured by the face image itself.

본 발명에서의 크기투영을 이용한 선검출과정의 훈련은 다음과 같이 이루어진다. Training of the pre-detection process using the size projection in the present invention is carried out as follows.

각 훈련영상집합 수평/수직 방향 크기 투영을 구하고 평균 얼굴영상(mean face)의 수평/수직방향 크기투영을 구한다. 그리고 이들 간의 상호계수 값(ρ)들을 식 1과 같이 구한다. The horizontal and vertical size projections of each training image set are obtained, and the horizontal and vertical size projections of the mean face images are obtained. The mutual coefficient values ρ are calculated as shown in Equation 1.

Figure 112004061741041-PAT00001
Figure 112004061741041-PAT00001

일반적인 얼굴의 크기 투영을 모델링하기 위해 본 발명에서는 상호상관계수 값의 2차원 가우시안 분포를 가정한다. 즉, 수직 방향 및 수평 방향에 대한 상호상관계수가 2차원 벡터를 형성하게 되고 훈련영상집합과 입력영상간의 계산된 상호상관계수를 이용하여 일반적인 얼굴의 크기 투영특성을 가우시안 모델링하는 것이다. 가우시안 모델링은 2차원 가우시안 함수를 구성하는 데 필요한 평균 및 공분산행렬을 구하는 과정으로 얼굴 훈련영상집합과 비얼굴 훈련영상집합에 대해 각각 계산되어 얼굴과 비 얼굴의 크기 투영 특성을 모델링하게 된다. 도 4는 이러한 가우시안 분포를 그림으로 보여준다. In order to model the size projection of a typical face, the present invention assumes a two-dimensional Gaussian distribution of correlation values. That is, the correlation coefficients in the vertical direction and the horizontal direction form a two-dimensional vector, and Gaussian modeling of the general face size projection characteristics using the calculated correlation coefficients between the training image set and the input image. Gaussian modeling is the process of obtaining the mean and covariance matrix needed to construct a two-dimensional Gaussian function. 4 graphically illustrates this Gaussian distribution.

가우시안 모델을 위한 파라미터를 구하게 되면, 입력영상에 대해 수평/수직 크기 투영 값을 구하고 평균 영상과의 상호상관계수 값을 구한다. 상호상관계수 값을 이미 모델링된 얼굴과 비얼굴에 대한 가우시안 함수에 적용시켰을 때 더 높은 값을 가지는 클래스로 분류하게 된다. 이 때 계산을 용이하게 하기 위해 가우시안 함수로부터 유도된 판별함수를 이용한다. 각 클래스에 대한 판별함수는 식 (2)와 같다. When the parameters for the Gaussian model are obtained, the horizontal and vertical size projection values of the input image are obtained, and the correlation coefficient with the average image is obtained. When the correlation value is applied to the Gaussian function for the face and non-face already modeled, it is classified as a higher value class. In this case, a discrimination function derived from a Gaussian function is used to facilitate the calculation. The discrimination function for each class is shown in Equation (2).

Figure 112004061741041-PAT00002
Figure 112004061741041-PAT00002

이렇게 판별함수를 적용하여 얼굴이 아닐 것 같은 영상을 미리 제거 하고 얼굴검출의 정확도와 속도 개선을 이루어낸다. 판별함수는 아래와 같이 적용된다.The discrimination function is applied in this way to remove images that are not likely to be faces and improve the accuracy and speed of face detection. The discrimination function is applied as follows.

Figure 112004061741041-PAT00003
Figure 112004061741041-PAT00003

식 (3)은 얼굴 클래스의 판별함수이다. Equation (3) is the discrimination function of the face class.

Figure 112004061741041-PAT00004
Figure 112004061741041-PAT00004

식 (4)는 비얼굴 클래스의 판별함수이다. Equation (4) is the discriminant function of the non-face class.

Figure 112004061741041-PAT00005
Figure 112004061741041-PAT00005

식 (5)는 얼굴 클래스의 판별함수 값이 비얼굴 클레스의 판별함수 값 보다 큰 것을 나타낸다. Equation (5) indicates that the discrimination function value of the face class is larger than the discrimination function value of the non-face class.

Figure 112004061741041-PAT00006
Figure 112004061741041-PAT00006

얼굴 클래스의 판별함수 값(gNegative)이 비얼굴 클래스의 판별함수 값(gPositive)보다 크면 얼굴 후보로 판정한다. If the discrimination function value g Negative of the face class is larger than the discrimination function value g Positive of the non-face class, it is determined as a face candidate.

그리고 두 식의 차의 크기는 결국 얼굴일 신뢰도(confidence)를 나타내는 것으로 이 값이 크면 클수록 얼굴일 확률이 크고 작으면 얼굴일 확률이 상대적으로 작음을 의미한다. 빠른 검출시간을 바탕으로 주검출단계에서 발생할 수 있는 과 검출을 미리 제거하거나 또는 최소화시키는 역할을 담당한다.In addition, the magnitude of the difference between the two expressions represents the confidence of the face, and the larger the value, the greater the probability of the face and the smaller the probability of the face. It is responsible for eliminating or minimizing the over-detection that may occur in the main detection stage based on the fast detection time.

3. 직사각형특징에 기반하고 AdaBoost알고리즘을 이용한 주검출과정3. Main Detection Process Based on Rectangular Features and Using AdaBoost Algorithm

정확한 얼굴검출을 하기 위하여 학습에 기반하는 AdaBoost알고리즘을 사용한다. AdaBoost알고리즘으로의 적용을 위한 약한 분류기는 얼굴의 세부요소 분류기를 이용할 수 있다. 얼굴의 일부분에 대한 분류기들을 AdaBoost알고리즘을 통해 조합함으로써 얼굴 전체에 대한 강한 분류기를 생성할 수 있는 것이다. 본 발명에서 적용한 직사각형은 이러한 요구를 잘 만족시킨다. We use the learning-based AdaBoost algorithm for accurate face detection. Weak classifiers for application to the AdaBoost algorithm can use facial subclassifiers. By combining the classifiers for parts of the face through the AdaBoost algorithm, we can create a strong classifier for the whole face. The rectangle applied in the present invention satisfies this requirement well.

직사각형특징은 인접한 직사각형 영역들의 픽셀 값들의 합의 차로 단순하면서도 계산하기에 용이하다. 주검출과정의 얼굴검출 방법에서 적용하고 있는 직사각형 특징들은 도 5와 같이 세 개로서 두 개로 이루어진 직사각형 특징(도 5의 (a))과 세 개로 이루어진 직사각형특징(도 5의 (b))들 모두 같은 모양, 같은 면적을 가진 수평, 수직으로 인접한 직사각형으로 구성되어있다. The rectangular feature is simple and easy to calculate due to the difference of the sum of the pixel values of adjacent rectangular regions. The rectangular features applied in the face detection method of the main detection process are three as shown in Fig. 5, two rectangular features (Fig. 5 (a)) and three rectangular features (Fig. 5 (b)) Consists of horizontally and vertically adjacent rectangles with the same shape and the same area.

본 발명에서는 24×24 픽셀크기의 훈련영상을 사용하는데 24 x 24픽셀크기에서 가능한 직사각형특징의 총 개수는 매우 많으며 이들 각 특징들을 효율적으로 계산하기 위해 인티그럴영상 표현법을 사용하였다. 인티그럴영상은 픽셀 당 소량의 연산을 가지고도 쉽게 구현이 가능하며 인티그럴영상이 얻어지면 빠르게 직사각형특징 값을 계산할 수 있다.In the present invention, a 24 × 24 pixel size training image is used, and the total number of possible rectangular features in a 24 × 24 pixel size is very large, and an integrated image representation method is used to efficiently calculate each of these features. Integral images can be easily implemented with a small amount of computation per pixel, and the rectangular feature values can be quickly calculated when the integral image is obtained.

도 3에 나타낸 바와 같이, 본 발명에서 이용한 세 개의 특징은 Viola와 Jones가 제안한 간단한 5가지 직사각형특징 중 단순하면서도 얼굴을 가장 잘 검출하는 두 개(가로, 세로)의 직사각형 특징(도 5의 (a))과 세 개의 직사각형 특징(도 5의 (b))이다. 두 개로 이루어진 직사각형 특징 값은 두 직사각형 이내에 있는 픽셀들의 합의 차이다. 세 개로 이루어진 직사각형 특징 값은 가운데에 위치한 직사각형 이내에 있는 픽셀 값들의 합에서 바깥쪽 직사각형들의 픽셀 값들의 합의 차이다. 여기서 특징 값이 음의 실수를 가지지 않도록 모든 특징 값은 절대 값을 유지 한다. 24 x 24 픽셀크기의 영상에서 직사각형 두 개로 이루어진 특징은 가로 세로 모두 합쳐서 86,400개, 직사각형 세 개로 이루어진 특징은 27,600개로 구성된다. As shown in FIG. 3, the three features used in the present invention are two simple (vertical, vertical) rectangular features among the five simple rectangular features proposed by Viola and Jones (horizontal and vertical). ) And three rectangular features (Fig. 5 (b)). The two rectangular feature values are the difference of the sum of the pixels within the two rectangles. The three rectangular feature values are the difference of the sum of the pixel values of the outer rectangles in the sum of the pixel values within the center rectangle. Here, all feature values are kept absolute so that feature values do not have negative real numbers. In a 24 x 24 pixel image, two rectangular features consist of 86,400 horizontal and vertical combinations and 27,600 three rectangular features.

인티그럴 영상은 원 영상의 원점 픽셀을 기준으로 오른쪽 대각선 방향으로 픽셀 값을 더해가며 얻어지는 영상으로 도 6과 같은 영상으로 보이게 된다. 인티그럴영상은 식 (7)을 통해 구한다. 도 6은 Lena영상의 인티그럴영상의 변환을 표현한 것이고 도 7은 인티그럴영상에서의 직사각형 특징 값의 계산식을 보여준다.The integrated image is an image obtained by adding pixel values in the diagonal direction to the right with respect to the original pixel of the original image. The integrated image is shown in FIG. 6. Integral images are obtained from equation (7). FIG. 6 illustrates the conversion of an integral image of a Lena image, and FIG. 7 illustrates a calculation formula of rectangular feature values in the integrated image.

Figure 112004061741041-PAT00007
Figure 112004061741041-PAT00007

본 발명에서 직사각형특징에 의한 약한 분류기를 AdaBoost알고리즘을 효과적으로 적용함으로써 얼굴내의 복잡한 클래스의 분류를 위해 다양한 형태의 결정 경계가 필요한 요구를 만족시킨다. AdaBoost알고리즘의 입력이 되는 훈련 영상집합은 Sm=(x1,y1),..(xn,yn)으로 표현되며, 각 xi에 대한 yi=1일 경우에 얼굴인 영상을, yi=0일 경우에 얼굴이 아닌 영상을 나타낸다. AdaBoost알고리즘은 t=1,...,T 라운드동안 반복적으로 학습기를 호출하여 약한 분류기를 선정하고 분류성능에 맞 게 가중치(weight)를 부여한다. 본 발명의 얼굴검출방법에서 학습기는 각 라운드(round)에서 훈련영상집합에 대해 가장 적은 에러를 가지는 약한 분류기를 선정하도록 되어 있다. 약한 분류기는 상기 직사각형특징을 이용하여 식(8)과 같이 구성된다.In the present invention, by applying the AdaBoost algorithm effectively to the weak classifier according to the rectangular feature, various types of crystal boundaries are required for the classification of complex classes in the face. The training image set that is input to the AdaBoost algorithm is expressed as Sm = (x1, y1), .. (xn, yn), and the image that is the face when yi = 1 for each xi, and when yi = 0. Represents an image rather than a face. The AdaBoost algorithm repeatedly calls the learner during t = 1, ..., T rounds to select a weak classifier and assigns a weight to the classification performance. In the face detection method of the present invention, the learner is configured to select a weak classifier having the least error for the training image set in each round. The weak classifier is constructed as shown in equation (8) using the rectangular feature.

Figure 112004061741041-PAT00008
Figure 112004061741041-PAT00008

훈련 영상에 대해 가능한 모든 약한 분류기에 대해 j번째 분류기를 hj(x)라고 하면 임계 값 θj와 극값 pj를 이용해 직사각형특징 값인 fj(x)가 일정 값보다 크거나 작을 경우 얼굴이라고 판단하게 된다. 이때 부호 및 임계 값은 도 8과 같이 훈련영상집합에 대한 직사각형특징의 값의 가우시안 분포를 가정함으로써 구해질 수 있다. If the j th classifier is h j (x) for all possible weak classifiers for the training image, it is judged to be a face if the rectangular feature value f j (x) is greater than or less than a certain value using the threshold θ j and the extreme value p j . Done. At this time, the sign and the threshold value can be obtained by assuming Gaussian distribution of the rectangular feature values for the training image set as shown in FIG. 8.

약한 분류기가 훈련영상집합을 이용해 구성되면 AdaBoost알고리즘은 다음과 같이 동작한다. 먼저 훈련영상전체에 걸쳐 일련의 가중치(분포)를 부여한다. t번째 라운드에서 i번째 훈련영상에 대한 가중치는 Wt,i로 정의하며 초기단계에서는 모든 훈련영상들에 대한 가중치가 동등하게 주어진다. 그 값은 얼굴과 얼굴이 아닌 클래스를 구성하는 얼굴 훈련영상집합의 크기 m과 비얼굴 훈련영상집합의 크기 n에 의해 식(9)와 같이 결정된다.If the weak classifier is constructed using training image sets, the AdaBoost algorithm works as follows. First, a series of weights (distributions) are assigned to the entire training image. The weight of the i-th training image in the t-th round is defined as Wt, i. In the initial stage, the weights of all the training images are equally given. The value is determined by Eq. (9) by the size m of the face training image set and the size n of the non-face training image set constituting the class.

Figure 112004061741041-PAT00009
Figure 112004061741041-PAT00009

입력된 가중치는 매 라운드마다 식(10)과 같이 정규화 된다.The input weight is normalized as shown in equation (10) every round.

Figure 112004061741041-PAT00010
0)
Figure 112004061741041-PAT00010
0)

학습기는 매 라운드마다 가능한 모든 약한 분류기에 대해 에러 ε을 계산한다. 학습기는 임무는 에러 ε를 최소화하는 약한 분류기를 찾고 분류성능에 맞게 가중치를 부여하는 것이다. 에러 ε는 식(11)과 같이 결정된다.The learner calculates the error ε for every weak classifier possible every round. The learner's task is to find a weak classifier that minimizes the error ε and weight it according to the classification performance. The error ε is determined as shown in equation (11).

Figure 112004061741041-PAT00011
Figure 112004061741041-PAT00011

최소의 에러ε를 가진 약한 분류기 h를 선택되면 식(12)와 같이 훈련영상집합에 대한 가중치를 갱신한다. If the weak classifier h with the minimum error ε is selected, the weight for the training image set is updated as shown in equation (12).

Figure 112004061741041-PAT00012
Figure 112004061741041-PAT00012

식(12)에 따르면 i번째 데이터의 새로운 가중치는 약한 분류기가 옳은 판단을 내린 경우 그 값이 줄어들고 잘못된 판단을 내린 경우 동일하게 유지된다. 갱신된 가중치는 다시 정규화되므로 이러한 갱신과정의 효과는 반복 t에서 결정된 분류기가 잘 분류하지 못한 영상들의 가중치를 높임으로써, 분류가 어려웠던 영상들을 가장 잘 분류하는 새로운 약한 분류기를 선택하는 것이다.According to Equation (12), the new weight of the i th data is reduced when the weak classifier makes the right decision and remains the same when the wrong judgment is made. Since the updated weights are normalized again, the effect of this update process is to select a new weak classifier that best classifies the images that were difficult to classify by increasing the weights of the images that the classifier determined at the repetition t did not classify well.

아래 표 1은 두 가지의 최종분류기의 가중치 결정 방법을 보여준다.Table 1 below shows the weighting methods of the two final classifiers.

[표1]Table 1

Figure 112004061741041-PAT00013
Figure 112004061741041-PAT00013

얼굴검출을 위한 강한 분류기 H는 가중치 결정방식에 따라 H의 성능이 달라진다. 가중치 결정법은 표 1과 같이 두 가지의 경우로 나누어 생각해 볼 수 있다. Case 1은 각 훈련영상집합의 모든 분류기에 같은 가중치를 할당하는 경우이다. 훈련영상집합의 특성이 분류기의 구성에 영향을 주지 않기 때문에 각 훈련영상집합간의 성질이 유사한 경우에만 성능을 보장 할 수 있다. Case 2는 해당 훈련영상집합의 분류성능에 따라 가중치를 결정하는 방법이다. 이 방법은 가중치가 해당 훈련 영상집합의 분류성능에만 의존하므로 분류가 용이한 훈련 영상집합으로부터 선택된 Ht가 높은 가중치를 갖는 특징이 있다.The strong classifier H for face detection depends on the weight determination method. The weight determination method can be divided into two cases as shown in Table 1. Case 1 is a case where the same weight is assigned to all classifiers of each training image set. Since the characteristics of the training image sets do not affect the composition of the classifier, performance can be guaranteed only when the characteristics of each training image set are similar. Case 2 is a method of determining weights according to the classification performance of the training image set. The method is characterized because it depends only on the weight classification performance of the training image set with an H t selected from a training image category is easy to set a high weight.

본 발명에서는 case 2와 같은 방법을 채택함으로써, 가중된 메저리티 보팅 (weighted majority voting)방법에 의거하여 분류기들을 결합하고 최종 분류기 H를 생성함으로써 신뢰도에 기반을 두는 정확도 높은 얼굴검출시스템을 구축한다.In the present invention, by adopting the method as in case 2, we build a highly accurate face detection system based on reliability by combining the classifiers and generating the final classifier H based on the weighted majority voting method. .

아래 표 2는 Schapire와 Freund에 의해 제시된 일반화된 AdaBoost알고리즘을 요약한 것이고 도 9는 AdaBoost알고리즘의 블록다이어그램을 보여준다. Table 2 below summarizes the generalized AdaBoost algorithm presented by Schapire and Freund and FIG. 9 shows a block diagram of the AdaBoost algorithm.

[표 2] TABLE 2

Figure 112004061741041-PAT00014
Figure 112004061741041-PAT00014

4. 단일 얼굴후보 선정방법4. Single Face Candidate Selection Method

본 발명에서는 크기투영을 이용한 선검출과정과 AdaBoost알고리즘을 통해 생성한 강한 분류기를 사용하는 주검출과정에서 얼굴검출 시 얼굴주변에서 잘못된 검출을 함으로써, 검출기의 정확도를 떨어뜨리고 속도를 지연시키는 문제를 해결하기 위하여 스캐닝 과정에서 단일 얼굴후보 선정방법을 사용한다. 얼굴이라고 최초로 판단되는 지점에서 오른쪽으로 7픽셀 까지, 아래쪽으로 7픽셀까지 1픽셀크기씩 서브윈도우를 이동하면서 각 서브영상의 신뢰도를 조사한다. 조사하는 동안 얼굴이라고 최초로 판별한 지점보다 더 높은 신뢰도를 가진 지점이 존재한다면 그 부분을 얼굴로 분류한다. 그렇지 않다면, 얼굴이라고 최초로 판별된 부분이 얼굴이 될 것이다. 즉 서브윈도우들 중에서 가장 높은 신뢰도를 가진 서브윈도우를 찾음으로써 얼굴주변에서 얼굴이라고 분류되는 서브윈도우중 정확히 얼굴에 해당하는 한 개의 서브윈도우만을 얼굴로 검출하는 것이다. 이후 얼굴이라고 검출된 서브윈도우 영역에 대해서는 스캐닝을 수행하지 않고 넘어간다. 이 후 기존의 스캐닝을 입력 영상의 우측하단까지 계속하면서 또 다른 얼굴이 있는지 없는지를 검색한다. 만약 얼굴이라고 판별되는 부분이 다시 검출된다면 이전의 과정을 다시 한 번 거쳐서 가장 높은 신뢰도를 가진 부분을 얼굴로 검출한다. The present invention solves the problem of lowering the accuracy of the detector and slowing down the speed by detecting incorrectly around the face during face detection in the main detection process using the line detection process using the size projection and the strong classifier generated by the AdaBoost algorithm. To do this, the single face candidate selection method is used in the scanning process. The reliability of each sub-image is examined by moving the sub-window by 1 pixel size up to 7 pixels to the right and 7 pixels to the bottom from the point where the face is first determined to be a face. During the investigation, if there is a point with higher reliability than the point that was first identified as a face, the part is classified as a face. Otherwise, the face first identified as the face will be the face. That is, by searching for the sub-window with the highest reliability among the sub-windows, only one sub-window corresponding to the face is detected as the face among the sub-windows classified as the face around the face. Subsequently, the subwindow region detected as a face is skipped without performing scanning. After that, existing scanning is continued to the lower right corner of the input image to search for another face. If the part determined to be a face is detected again, the previous process is once again detected with the face having the highest reliability.

본 발명에서는 얼굴 검출 시 단일 얼굴후보 선정방법을 적용하면 테스트 영상 내에 실제로 얼굴이 있는 부분에서 과 검출이 일어나는 것을 방지하므로 얼굴검출방법의 검출 정확도를 향상시키고 얼굴이라고 검출된 영역에 대해서는 스캐닝을 수행하지 않음으로써 모든 픽셀에 걸쳐서 스캐닝을 수행하지 않기 때문에 얼굴검출시스템의 속도를 향상을 가능하게 한다. In the present invention, applying a single face candidate selection method in face detection prevents over-detection in the part where the face actually exists in the test image, thereby improving detection accuracy of the face detection method and not scanning the area detected as face. By not doing this, the scanning of all the pixels is not performed, which makes it possible to speed up the face detection system.

도 10은 단일 얼굴후보선정방법을 보여준다.10 shows a single face candidate selection method.

본 얼굴 발명에서의 얼굴검출 시스템은 크게 네 과정으로 나누어 볼 수 있다. The face detection system of the present invention can be divided into four processes.

첫째, 전처리과정으로서, 입력영상집합에 대해 히스토그램 평활화를 수행하는 부분이다. 히스토그램 평활화는 서로 다른 조명조건을 가진 DB로부터 구성된 훈련영상집합과 얼굴검출을 위한 입력 영상의 이미지 질을 개선하고 조명효과를 최소화시키기 위해서 수행된다. First, as a preprocessing process, it is a part that performs histogram smoothing on the input image set. Histogram smoothing is performed to improve the image quality of the input image for face detection and training image set composed from DB with different lighting conditions and to minimize the lighting effect.

둘째, 얼굴검출의 첫 번째 과정으로서, 훈련영상집합들의 수평방향/수직방향 크기투영의 상호상관계수 값들의 특징을 Bayesian학습을 통해 학습하고 이 특징을 얼굴후보 검출의 요소로써 이용하는 부분이다. 훈련은 오프라인으로 이루어지며 훈련에 의해 산출된 가우시안 파라미터 값들은 파일로 저장된 후 검출기에 의해 호출된다.Second, as the first process of face detection, this study learns the features of the correlation coefficients of horizontal / vertical size projection of training image sets through Bayesian learning and uses this feature as an element of face candidate detection. The training is done offline and the Gaussian parameter values produced by the training are saved to a file and called by the detector.

셋째, 얼굴검출의 핵심 단계로서, AdaBoost알고리즘을 적용하여 얼굴 검출을 수행한다. 직사각형특징들을 약한 분류기로써 훈련영상집합에 대한 훈련 및 부스팅을 통해 얼굴을 검출할 수 있는 최적의 강한 분류기를 구성하고 얼굴인지 아닌지를 최종적으로 검사하는 부분이다. 크기투영과 마찬가지로 훈련에 의한 부스팅 관련 파라미터 값들은 파일로 저장되고 검출기에 의해 호출된다. AdaBoost알고리즘의 특성상 분류기의 훈련시간이 여타의 얼굴검출알고리즘보다 길지만 훈련이 일단 끝나면 그 결과를 이용하여 실시간 얼굴검출이 가능하다. Third, as a key step in face detection, face detection is performed by applying the AdaBoost algorithm. As a weak classifier with rectangular features, this is the part that finally constructs an optimal strong classifier that can detect the face through training and boosting the training image set and finally checks whether it is a face or not. As with size projection, boosting-related parameter values from training are stored in a file and called by the detector. Due to the nature of the AdaBoost algorithm, the classifier's training time is longer than other face detection algorithms, but once the training is completed, real-time face detection is possible.

넷째, 상기 두 가지의 얼굴검출과정에서 얼굴 검출 시 얼굴주변에서 잘못된 검출을 함으로써, 검출기의 정확도를 떨어뜨리고 속도를 지연시키는 문제를 해결하기 위하여 스캐닝 과정에서 단일 얼굴후보 선정방법을 사용한다. 이는 실시간 얼굴검출을 위한 추가적인 과정으로써 얼굴검출시스템의 속도를 향상을 가능하게 한다.Fourth, a single face candidate selection method is used in the scanning process in order to solve the problem of lowering the accuracy of the detector and delaying the speed by erroneous detection around the face during face detection in the two face detection processes. This makes it possible to increase the speed of the face detection system as an additional process for real time face detection.

도 11은 지금까지 설명한 얼굴검출방법을 통해 테스트한 검출의 예이다. 11 is an example of detection tested through the face detection method described so far.

도 12는 본 발명에 따른 얼굴검출방법의 도식도이다.12 is a schematic diagram of a face detection method according to the present invention.

본 발명에서 제시된 얼굴검출방법을 훈련시키고 테스트하기 위하여, 훈련영상집합은 크게 얼굴 훈련영상집합과 비얼굴 훈련영상집합으로 구성되며 각각 얼굴 데이터베이스와 웹사이트를 통해 획득하였고 테스트영상은 총 300여개의 영상들( 단일 얼굴 + 다중 얼굴 )을 테스트 영상 집합으로 구성하여 실험하였다. In order to train and test the face detection method presented in the present invention, the training image set is largely composed of the face training image set and the non-face training image set, respectively, obtained through the face database and the website, and the test images are 300 images in total. The experiment was performed by constructing a single face + multiple face into a set of test images.

얼굴 훈련영상집합의 경우 정면 얼굴 영상을 기반으로 하여 훈련영상집합을 구성하였는데 CMU PIE 데이터베이스로부터 175장, BioID 데이터베이스로부터 130장, Slovenian CVL 데이터베이스로부터 171장을 선정해 얼굴 훈련영상집합을 제작하였다. 비얼굴 훈련영상집합은 웹사이트로부터 획득한 얼굴이 전혀 포함되지 않고 사이즈가 상당히 큰 자연 이미지들로부터 추출되었다. 30장의 사이즈가 큰 이미지로부터 무작위로 비얼굴영상 10000장을 구성하였으며 이 가운데 얼굴과 유사한 특성을 가지는 2000장을 선정해 비얼굴 훈련영상집합을 구성하였다. In the case of the face training image set, the training image set was constructed based on the front face image. The face training image set was selected by selecting 175 from the CMU PIE database, 130 from the BioID database, and 171 from the Slovenian CVL database. The non-face training image set was extracted from natural images that were quite large in size without any face obtained from the website. We randomly constructed 10000 non-facial images from 30 large images, and 2000 non-face training images were selected from among them.

세 가지 얼굴 데이터베이스의 파일크기와 형식이 모두 다르기 때문에 학습 조건에 맞게 얼굴영상집합과 비얼굴영상집합의 크기는 모두 24 x 24 픽셀크기로 제한하고 칼라영상일 경우 흑백영상으로 변환시켰으며 파일은 모두 raw파일로 저장되었다. 실험결과 조명변화가 심하고 부분적으로 가려진 얼굴, 안경 쓴 얼굴, 기울어 진 얼굴을 포함한 영상들을 제안된 얼굴검출시스템에서는 98%이상 검출하여 검출 율이 크게 향상되었음을 알 수 있다.Since the file size and format of the three face databases are different, the size of both face and non-face image sets is limited to 24 x 24 pixel size to suit the learning conditions. Saved to file Experimental results show that the detection rate is significantly improved by detecting more than 98% in the proposed face detection system, which includes severely changed and partially covered faces, glasses and slanted faces.

본 발명은 정지/동영상에서 크기투영의 상호 상관계수 값을 이용하여 Bayesian학습을 한 결과를 이용한 판별식과 직사각형특징에 기반을 두는 AdaBoost(Adaptive Boosting)알고리즘을 이용하여 실시간으로 정확하게 얼굴을 검출한다. The present invention accurately detects faces in real time using AdaBoost (Adaptive Boosting) algorithm based on a discriminant equation and a rectangular feature based on Bayesian learning using cross-correlation coefficient values of size projection in still images.

본 발명에서는 첫째, 직사각형특징에 기반을 둔 AdaBoost알고리즘을 통해 약한 분류기들을 결합하고 최종 분류기를 생성함으로써 학습에 기반 하는 정확도 높은 얼굴검출시스템 을 구축한다. 둘째, 학습에 기반을 둔 크기 투영의 상호 상관계수 값을 주검출 과정의 전 단계에 이용함으로써 얼굴검출시스템 속도와 정확도를 개선시킨다. 셋째, 단일 얼굴후보선정방법을 추가적으로 사용함으로써 실시간 얼굴검출을 가능하게 하고 히스토그램 평활 화를 사용해 원 영상의 빛 상태에 따른 후속 과정에서의 얼굴 검출 오류 요인을 사전에 제거 또는 최소화 시킨다. In the present invention, first, the AdaBoost algorithm based on rectangular features combines weak classifiers and creates a final classifier to build an accurate face detection system based on learning. Second, the face correlation system speed and accuracy are improved by using the cross-correlation coefficient value of the learning-based size projection in all stages of the main detection process. Third, by using a single face candidate selection method, real-time face detection is enabled, and histogram smoothing is used to eliminate or minimize face detection error factors in the subsequent process according to the light condition of the original image.

따라서, 본 발명의 얼굴 검출 방법은 특히 휴대 전화기나 PDA와 같은 이동 통신 단말기 환경에서 잠금 해제 기능과 같은 보안시스템을 구축하거나 사주, 궁합, 점성술, 관상 및 Avatar제공과 같은 엔터테인먼트를 수행하는데 매우 유용하게 쓰일 수 있다.Therefore, the face detection method of the present invention is very useful for constructing a security system such as an unlocking function or performing entertainment such as four weeks, affinity, astrology, coronary and Avatar, especially in a mobile communication terminal environment such as a mobile phone or a PDA. Can be used.

Claims (11)

얼굴영상들과 비얼굴영상으로 구성되는 훈련영상집합을 구비하는 데이터베이스 상의 훈련영상집합의 수평방향/수직방향 크기투영의 상호상관계수 값들의 특징을 Bayesian학습을 통해 학습하는 단계와, Learning through the Bayesian learning the characteristics of the correlation coefficient values of the horizontal / vertical size projection of the training image set on the database having the training image set consisting of face images and non-face images; 훈련영상집합을 이용해 직사각형특징에 기반을 둔 약한 분류기들을 구성하고 최적의 강한 분류기를 얻기 위해 약한 분류기들을 학습하여 부스팅(boosting)하는 단계를 구비하여 이루어지되, It consists of training image sets to construct weak classifiers based on rectangular features and to boost and classify weak classifiers in order to obtain an optimal strong classifier. 영상이 입력되면, Once the video is input, 얼굴검출을 위한 입력영상의 품질을 개선하고 조명효과를 최소화하기 위한 히스토그램 평활화하고(전처리 단계),Improve histogram quality for face detection and smooth histogram to minimize lighting effects (preprocessing step), 상기 Bayesian학습된 결과를 이용해 상기 입력영상으로부터 얼굴후보를 검출하며(선검출 단계),Detecting a face candidate from the input image using the Bayesian learned result (pre-detection step), 상기 부스팅단계를 통해 얻어진 강한 분류기를 이용해 상기 입력영상이 얼굴인지 아닌지를 검사하여 최적의 얼굴영역을 검출하고(주검출단계),Using the strong classifier obtained through the boosting step to detect whether or not the input image is a face to detect an optimal face area (main detection step), 실시간 얼굴검출을 위하여 스캐닝 과정에서 동일한 얼굴에 대한 중복 검출을 막고 불필요한 검출 과정을 제거하는(단일 얼굴후보 선정단계) 것을 특징으로 하는 학습에 기반을 둔 적응형 실시간 얼굴검출방법.An adaptive real-time face detection method based on learning, characterized by preventing duplicate detection of the same face and removing unnecessary detection processes (single face candidate selection step) for real time face detection. 제1항에 있어서, The method of claim 1, 상기 학습단계에서, 상기 선검출단계를 위하여, 각 훈련영상들의 수평 및 수직방향 크기 투영을 구하고,In the learning step, for the pre-detection step, to obtain the horizontal and vertical size projection of each training image, 평균 얼굴영상(mean face)의 수평 및 수직방향 크기투영을 구하며, Obtain the horizontal and vertical size projection of the mean face image, 이들 간의 상호계수 값(ρ)들은, The intercoefficient values (ρ) between them are
Figure 112004061741041-PAT00015
Figure 112004061741041-PAT00015
로 구해지는 것을 특징으로 하는 얼굴검출방법. Face detection method characterized in that obtained.
제2항에 있어서, The method of claim 2, 상기 검출된 상호상관계수 값들은 가우시안 모델링되어, The detected correlation coefficient values are Gaussian modeled, 얼굴 후보를 선검출하기 위한 판별함수를 얻는 것을 특징으로 하는 얼굴검출방법.And a discrimination function for pre-detecting a face candidate. 제3항에 있어서,  The method of claim 3, 상기 판별함수g(x)는,The determination function g (x) is,
Figure 112004061741041-PAT00016
Figure 112004061741041-PAT00016
인 것을 특징으로 하는 얼굴검출방법. Face detection method characterized in that.
제4항에 있어서, The method of claim 4, wherein 상기 판별함수g(x)는,The determination function g (x) is,
Figure 112004061741041-PAT00017
Figure 112004061741041-PAT00017
일때를 얼굴인 것으로 판별하고, 여기서 gPositive(x)는 얼굴 클래스의 판별함수이고 gNegative(x)는 비얼굴 클래스의 판별함수이며, Is determined to be a face, where g Positive (x) is the discriminating function of the face class and g Negative (x) is the discriminating function of the non-face class. 두 식의 차가 클수록 얼굴 판별의 신뢰도로 큰 것으로 판단되는 것을 특징으로 하는 얼굴 검출 방법. The face detection method is characterized in that the larger the difference between the two expressions, the greater the reliability of face discrimination.
제1항에 있어서, The method of claim 1, 상기 부스팅하는 단계는, 인티그럴영상 표현법을 이용해 직사각형 특징들을 계산하고, In the boosting step, rectangular features are calculated using an integrated image representation method, 상기 훈련영상집합을 이용해 상기 계산된 직사각형 특징으로 약한 분류기를 구성하고,Construct a weak classifier with the calculated rectangular features using the training image set, 상기 구성된 약한 분류기들을 훈련영상집합에 대해 학습하여 얼굴의 특징을 잘 반영하는 약한 분류기 h들을 찾고;Learning the configured weak classifiers on the training image set to find the weak classifiers h that well reflect the feature of the face; 찾아진 약한 분류기들을 가중된 메저리티 보팅(weighted majority voting)에 따라 결합하고 최적의 강한 분류기 H를 획득하는 것을 특징으로 하는 얼굴검출방법.Combining the found weak classifiers according to weighted majority voting and obtaining an optimal strong classifier H. 제6항에 있어서, 인티그럴영상에서의 직사각형 특징 값은, The method of claim 6, wherein the rectangular feature value in the integral image,
Figure 112004061741041-PAT00018
Figure 112004061741041-PAT00018
로 계산되는 것을 특징으로 하는 얼굴검출방법. Face detection method characterized in that is calculated as.
제6항에 있어서, 상기 직사각형 특징값을 이용하여,The method of claim 6, wherein using the rectangular feature value, 약한 분류기 Weak classifier
Figure 112004061741041-PAT00019
Figure 112004061741041-PAT00019
를 구성하고(여기서, hj(x)는 훈련 영상에 대해 가능한 모든 약한 분류기에 대해 j번째 분류기이고, θj는 임계 값, pj는 극값, fj(x)는 직사각형의 특징값), (Where h j (x) is the j th classifier for all possible weak classifiers for the training image, θ j is the threshold value, p j is the extreme value, f j (x) is the feature value of the rectangle), 임계 값 θj와 극값 pj를 이용해 직사각형특징 값인 fj(x)가 일정 값보다 크거나 작을 경우 얼굴이라고 판단하는 것을 특징으로 하는 얼굴검출방법. A face detection method comprising determining that a rectangular feature value f j (x) is larger or smaller than a predetermined value using a threshold value θ j and an extreme value p j .
제6항에 있어서, 얼굴의 특징을 잘 반영하는 약한 분류기 h를 찾는 단계는, 7. The method of claim 6, wherein finding a weak classifier h that well reflects facial features, 이하의 식에 따라 훈련영상전체에 걸쳐 일련의 가중치 부여하고(t번째 라운드에서 i번째 훈련영상에 대한 가중치는 Wt(i)이고, m은 얼굴 훈련영상집함의 크기, n은 비열굴 훈련영상집합의 크기),A series of weights are assigned to the entire training image according to the following equation (the weight for the i-th training image in the t-th round is Wt (i), m is the size of the face training image collection, and n is the size),
Figure 112004061741041-PAT00020
Figure 112004061741041-PAT00020
입력된 가중치를 이하의 식과 같이 매 라운드마다 정규화하고,The input weight is normalized every round as the following formula,
Figure 112004061741041-PAT00021
Figure 112004061741041-PAT00021
매 라운드마다 가능한 모든 약한 분류기에 대해 에러 ε를 이하의 식에 따라 계산하며, For every possible weak classifier every round, the error ε is calculated according to
Figure 112004061741041-PAT00022
Figure 112004061741041-PAT00022
ε를 최소화하는 약한 분류기 h를 찾고,Find a weak classifier h that minimizes ε, 최소의 에러ε를 가진 약한 분류기 h를 선택되면, 이하의 식과 같이훈련영상집합에 대한 가중치를 갱신하며,If the weak classifier h with the minimum error ε is selected, the weight for the training image set is updated as shown below.
Figure 112004061741041-PAT00023
Figure 112004061741041-PAT00023
갱신된 가중치는 다시 정규화하므로 이루어지는 것을 특징으로 하는 얼굴검출방법. And the updated weights are normalized again.
제6항에 있어서, The method of claim 6, 학습 과정에서 약한 분류기를 학습할 때, 얼굴훈련영상집합과 비얼굴 훈련영상집합의 비가 1:2이고 부스팅횟수가 200회인 것을 특징으로 하는 얼굴 검출 방법.When the weak classifier is learned in the learning process, the ratio of the face training image set to the non-face training image set is 1: 2 and the number of boosting times is 200 times. 제1항에 있어서, The method of claim 1, 상기 단일 얼굴후보 선정단계는, 상기 실시간 얼굴 검출을 위하여 최초로 얼굴이라고 판단되는 지점에서 오른쪽으로 7픽셀까지, 아래쪽으로 7픽셀까지 1픽셀크기씩 서브윈도우를 이동하면서 각 서브영상의 신뢰도를 조사하고, 신뢰도가 가장 높은 부분을 얼굴로 선정하고 얼굴로 선정된 영역에 대해서는 스캐닝을 수행하지 않음으로써, 검출 속도를 향상시키고 동일한 얼굴에 대한 중복 검출을 막는 것을 특징으로 하는 얼굴검출방법.In the single face candidate selection step, the reliability of each sub-image is examined while moving the sub-window by 1 pixel size up to 7 pixels to the right and 7 pixels to the bottom from the point where the face is first determined for the real-time face detection. A face detection method characterized by improving the detection speed and preventing duplicate detection of the same face by selecting a portion having the highest reliability as a face and not scanning the area selected as the face.
KR1020040113139A 2004-12-27 2004-12-27 An adaptive realtime face detecting method based on training KR100621883B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040113139A KR100621883B1 (en) 2004-12-27 2004-12-27 An adaptive realtime face detecting method based on training

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040113139A KR100621883B1 (en) 2004-12-27 2004-12-27 An adaptive realtime face detecting method based on training

Publications (2)

Publication Number Publication Date
KR20060074410A true KR20060074410A (en) 2006-07-03
KR100621883B1 KR100621883B1 (en) 2006-09-19

Family

ID=37167173

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040113139A KR100621883B1 (en) 2004-12-27 2004-12-27 An adaptive realtime face detecting method based on training

Country Status (1)

Country Link
KR (1) KR100621883B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100886557B1 (en) * 2007-05-03 2009-03-02 삼성전자주식회사 System and method for face recognition based on adaptive learning
KR100981832B1 (en) * 2008-06-12 2010-09-13 인하대학교 산학협력단 Device and method for face features selection using boosting algorithm and feature vector segmentation
US8326000B2 (en) 2008-12-22 2012-12-04 Electronics And Telecommunications Research Institute Apparatus and method for detecting facial image
CN105303193A (en) * 2015-09-21 2016-02-03 重庆邮电大学 People counting system for processing single-frame image
US9280724B2 (en) 2013-01-18 2016-03-08 Samsung Electronics Co., Ltd. Pose classification apparatus and method
KR20180089022A (en) * 2017-01-31 2018-08-08 한국항공우주연구원 Optimized Compositing Technology Using the Plurality of Similar Images

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7099510B2 (en) 2000-11-29 2006-08-29 Hewlett-Packard Development Company, L.P. Method and system for object detection in digital images
US7050607B2 (en) 2001-12-08 2006-05-23 Microsoft Corp. System and method for multi-view face detection
KR20050020217A (en) * 2003-08-21 2005-03-04 대한민국(전남대학교총장) Real-time face detection and tracking using cascade classifier

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100886557B1 (en) * 2007-05-03 2009-03-02 삼성전자주식회사 System and method for face recognition based on adaptive learning
US8135220B2 (en) 2007-05-03 2012-03-13 Samsung Electronics Co., Ltd Face recognition system and method based on adaptive learning
KR100981832B1 (en) * 2008-06-12 2010-09-13 인하대학교 산학협력단 Device and method for face features selection using boosting algorithm and feature vector segmentation
US8326000B2 (en) 2008-12-22 2012-12-04 Electronics And Telecommunications Research Institute Apparatus and method for detecting facial image
US9280724B2 (en) 2013-01-18 2016-03-08 Samsung Electronics Co., Ltd. Pose classification apparatus and method
CN105303193A (en) * 2015-09-21 2016-02-03 重庆邮电大学 People counting system for processing single-frame image
CN105303193B (en) * 2015-09-21 2018-08-14 重庆邮电大学 A kind of passenger number statistical system based on single-frame images processing
KR20180089022A (en) * 2017-01-31 2018-08-08 한국항공우주연구원 Optimized Compositing Technology Using the Plurality of Similar Images

Also Published As

Publication number Publication date
KR100621883B1 (en) 2006-09-19

Similar Documents

Publication Publication Date Title
CN110348319B (en) Face anti-counterfeiting method based on face depth information and edge image fusion
CN111339990B (en) Face recognition system and method based on dynamic update of face features
CN108460356B (en) Face image automatic processing system based on monitoring system
US8320643B2 (en) Face authentication device
CN108960080B (en) Face recognition method based on active defense image anti-attack
JP4767595B2 (en) Object detection device and learning device thereof
CN110543846B (en) Multi-pose face image obverse method based on generation countermeasure network
CN111368683B (en) Face image feature extraction method and face recognition method based on modular constraint CenterFace
US7925093B2 (en) Image recognition apparatus
US9684850B2 (en) Biological information processor
CN111126482B (en) Remote sensing image automatic classification method based on multi-classifier cascade model
JP6111297B2 (en) Method, apparatus, and program
CN113537099B (en) Dynamic detection method for fire smoke in highway tunnel
JP2005149506A (en) Method and apparatus for automatic object recognition/collation
CN113592911B (en) Apparent enhanced depth target tracking method
CN103150546A (en) Video face identification method and device
CN111832405A (en) Face recognition method based on HOG and depth residual error network
CN112364801A (en) Dynamic threshold face recognition method
JP2008003749A (en) Feature point detection device, method, and program
CN112395901A (en) Improved face detection, positioning and recognition method in complex environment
KR100621883B1 (en) An adaptive realtime face detecting method based on training
KR100390569B1 (en) Scale and Rotation Invariant Intelligent Face Detection
CN110378414B (en) Multi-mode biological characteristic fusion identity recognition method based on evolution strategy
CN111191549A (en) Two-stage face anti-counterfeiting detection method
CN111553202B (en) Training method, detection method and device for neural network for living body detection

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20090713

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee