KR20070118830A - Face and facial feature detection method using evolutionary algorithms - Google Patents

Face and facial feature detection method using evolutionary algorithms Download PDF

Info

Publication number
KR20070118830A
KR20070118830A KR1020060053031A KR20060053031A KR20070118830A KR 20070118830 A KR20070118830 A KR 20070118830A KR 1020060053031 A KR1020060053031 A KR 1020060053031A KR 20060053031 A KR20060053031 A KR 20060053031A KR 20070118830 A KR20070118830 A KR 20070118830A
Authority
KR
South Korea
Prior art keywords
face
rectangular
feature
evolutionary algorithm
detecting
Prior art date
Application number
KR1020060053031A
Other languages
Korean (ko)
Other versions
KR100815242B1 (en
Inventor
김종환
장준수
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020060053031A priority Critical patent/KR100815242B1/en
Publication of KR20070118830A publication Critical patent/KR20070118830A/en
Application granted granted Critical
Publication of KR100815242B1 publication Critical patent/KR100815242B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2111Selection of the most significant subset of features by using evolutionary computational techniques, e.g. genetic algorithms

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Physiology (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

A method for detecting a facial image through an evolutionary algorithm is provided to enable facial image detection and facial image feature detection even in a system, such as a desktop computer, or a cellular phone, having a restricted operation capacity. Rectangular features are extracted from a moving picture or a still image by using a rectangular feature sample. The sets of the rectangular features(201-206) are made based on the rectangular features through an AdaBoost scheme. The weight values of the sets of the rectangular features are reconstructed by using an evolutionary algorithm, so that the number of the rectangular features is reduced, and then the sets of rectangular features(400) are reconstructed.

Description

진화 알고리즘을 이용한 얼굴 검출 방법{Face and facial feature detection method using evolutionary algorithms} Face and facial feature detection method using evolutionary algorithms}

도 1은 얼굴과 얼굴 특징 검출을 위한 영상 시스템 구성을 개략적으로 도식화한 도면이다.1 is a schematic diagram illustrating an image system configuration for detecting a face and facial features.

도 2는 본 발명에서 사용하는 사각형 특징의 종류를 나타내는 도면이다.2 is a diagram showing the types of rectangular features used in the present invention.

도 3은 AdaBoost 방법과 진화 알고리즘을 이용한 분류기 학습 방법을 나타낸 도면이다.3 is a diagram illustrating a classifier learning method using an AdaBoost method and an evolutionary algorithm.

도 4는 학습된 분류기 다수를 순차적으로 배치하여 여러 단(stage)을 가지는 구조를 설명하는 도면이다.4 is a diagram illustrating a structure having a plurality of stages by sequentially arranging a plurality of learned classifiers.

도 5는 가중치

Figure 112006041316982-PAT00001
를 진화 알고리즘을 이용하여 재구성하기 위한 인코딩을 보여주는 도면이다.5 is a weight
Figure 112006041316982-PAT00001
Is a diagram showing the encoding for reconstruction using the evolutionary algorithm.

도 6은 진화 알고리즘을 이용하여

Figure 112006041316982-PAT00002
를 재구성하는 방법을 설명한 도면이다.6 using an evolutionary algorithm
Figure 112006041316982-PAT00002
A diagram illustrating a method of reconfiguring.

본 발명은 동영상이나 정지 영상 정보로부터 사람의 얼굴 영역을 추출하고 또한 얼굴 영역에서 눈, 코, 입 등의 얼굴 특징 성분을 검출해 내는 방법에 관한 것이다. The present invention relates to a method of extracting a face region of a person from moving image or still image information and detecting facial feature components such as eyes, nose and mouth in the face region.

기존의 얼굴 검출 방법으로는 형판을 이용한 방법이나, 얼굴의 색깔 정보를 활용하여 검출하는 방법이 많이 사용되었다. 형판을 이용한 방법은 얼굴의 크기와 위치를 모르는 가운데 입력 영상에 가능한 위치와 크기를 변화시켜 가면서 수행하기에는 시간이 너무 많이 걸리므로 실시간 검출과는 거리가 멀다. 색깔 정보를 활용하는 방법은 빠른 검출 시간을 보장하지만 조명 환경에 민감하게 변화하는 사람의 피부 색깔 때문에 검출률과 오검출률 측면에서 효과적이지 못하다. As a conventional face detection method, a method using a template or a method using a color information of a face has been frequently used. The method using the template is far from real-time detection because it takes too much time to perform while changing the possible position and size of the input image without knowing the size and position of the face. The method using color information guarantees fast detection time, but it is not effective in terms of detection rate and false detection rate because of the skin color of people who are sensitive to lighting environment.

본 발명은 상기와 같은 문제점을 해결하기 위한 것으로서, 얼굴과 얼굴이 아닌 학습 데이터에 대해서 2가지 클래스로 정확하게 분류하는 분류기를 학습하는 방법을 제공함을 목적으로 한다. 두 가지 형태의 학습 데이터를 구분하는 분류기를 학습하면 이를 이용하여 얼굴과 얼굴이 아닌 영상을 구분하여 얼굴 검출을 수행할 수 있고, 더 나아가서 눈,코, 입 등의 얼굴 특징도 학습을 통하여 검출해 낼 수 있다. 기존의 AdaBoost 학습 방법에 진화 알고리즘을 도입하여 검출률과 연산 시간을 향상시키는 것을 목적으로 한다. The present invention has been made to solve the above problems, and an object of the present invention is to provide a method of learning a classifier that accurately classifies two classes of face-to-face learning data. If you learn the classifier that separates the two types of learning data, you can use this to classify the face and the non-face image and perform face detection. Furthermore, the facial features such as eyes, nose, and mouth are also detected through learning. I can make it. The purpose of this paper is to improve the detection rate and computation time by introducing an evolutionary algorithm to the existing AdaBoost learning method.

상기 본 발명의 목적을 달성하기 위한 사상으로서, 본 발명에서는 동영상이나 정지 영상 정보로부터 사람의 얼굴 영역을 검출하는 방법에 있어서, 동영상이나 정지 영상 정보로부터 사각형 특징 샘플을 이용하여 사각형 특징을 추출하는 제 1단계과, 상기 추출된 사각형 특징에서 AdaBoost 방법을 이용하여 사각형 특징 집합 을 만드는 제 2단계와, 상기 2단계후의 사각형 특징 집합을 진화 알고리즘을 이용하여

Figure 112006041316982-PAT00003
을 재구성하는 방법을 이용하여 줄어든 개수의 사각형 특징 집합을 만드는 제 3단계를 포함하여 이루어진 발명이 제시된다.In order to achieve the object of the present invention, in the present invention, in the method for detecting a face region of a person from moving image or still image information, the method for extracting a rectangular feature using a rectangular feature sample from the moving image or still image information; Step 1, the second step of creating a rectangular feature set using the AdaBoost method from the extracted rectangular feature, and the second feature after the step 2 using the evolution algorithm
Figure 112006041316982-PAT00003
An invention is provided that includes a third step of creating a reduced number of rectangular feature sets using a reconstruction method.

이하에서는 본 발명의 실시예에 대한 발명의 구성 및 작용에 대하여 첨부한 도면을 참조하면서 상세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings, the configuration and operation of the invention for the embodiment of the present invention will be described in detail.

본 발명에 의한 얼굴 검출 및 얼굴 특징 검출 방법은, 입력 영상에서 얼굴을 검출하는 얼굴 검출기, 검출된 얼굴에서 눈, 코, 입 등을 추출하는 얼굴 특징 추출기, 각각의 검출기 구성을 위한 AdaBoost와 진화 알고리즘을 이용한 분류기 학습 방법을 포함한다.The face detection and face feature detection method according to the present invention includes a face detector for detecting a face from an input image, a face feature extractor for extracting eyes, nose, mouth, etc. from the detected face, AdaBoost and an evolution algorithm for each detector configuration. It includes a classifier learning method using.

본 발명에서는 회색조의 정지 영상 정보만 사용하여 얼굴 검출과 얼굴 특징 검출을 하는 방법을 설명한다. 대부분의 칼라 영상이나 동영상에는 기본적으로 회색조의 정지 영상 정보가 포함되어 있으므로 회색조의 정지 영상 정보를 이용한 방법은 다양한 영상 획득 조건에서 동작이 가능하다. In the present invention, a method for face detection and face feature detection using only grayscale still image information will be described. Since most color images and videos basically include still image information of grayscale, the method using the grayscale still image information can operate under various image acquisition conditions.

얼굴과 눈, 코, 입 등의 얼굴 특징을 검출하기 위해서 사각형 형태의 특징을 사용한다. 사각형 형태의 특징은 도 2와 같이 6가지 종류가 사용된다. 201 ~ 205 의 5가지 특징은 밝은 영역의 사각형 영역에 해당하는 픽셀값(밝기값)에서 어두운 영역의 픽셀값을 뺀 값을 특징값으로 가지고, 206에 도시한 특징은 사각형 영역의 픽셀값의 분산값을 특징값으로 가진다. 이러한 6가지 형태의 사각형 특징은 기준 윈도우 크기 24픽셀*24픽셀 경우에 약 18만개 정도 존재할 수 있다. 이처럼 많은 수의 사각형 특징들 가운데 얼굴과 얼굴이 아닌 영상 집합을 잘 구분할 수 있는 사각형 특징을 수 백, 수 천개 수준으로 줄여서 얼굴 검출에 활용할 수 있도록 AdaBoost 학습 방법이 사용된다. 18만개 수준의 전체 사각형 특징 집합에서 유효한 사각형 특징들을 추출하여 각각의 사각형 특징들이 하나의 결정을 할 수 있는 약분류기(weak classifier)

Figure 112006041316982-PAT00004
를 구성할 수 있다. 즉, 하나의 사각형 특징은 하나의 약분류기를 구성한다. 수학식 1은 입력 영상 벡터
Figure 112006041316982-PAT00005
에 대해서 각각의 사각형 특징값
Figure 112006041316982-PAT00006
와 문턱값
Figure 112006041316982-PAT00007
비교를 통해서 간단히 분류를 하는 약분류기를 나타낸다. 이때 부등호의 방향을 결정하기 위해서 부호값
Figure 112006041316982-PAT00008
이 곱해진다.
Figure 112006041316982-PAT00009
Figure 112006041316982-PAT00010
값을 가진다.Rectangular features are used to detect facial features such as face, eyes, nose and mouth. Six types are used for the rectangular shape as shown in FIG. 2. The five features of 201 to 205 are the pixel values (brightness values) corresponding to the rectangular areas of the bright areas minus the pixel values of the dark areas, and the features shown in 206 are the variances of the pixel values of the rectangular areas. It has a value as a feature value. These six types of rectangular features may exist about 180,000 when the reference window size 24 pixels * 24 pixels. Among the large number of rectangular features, the AdaBoost learning method is used to reduce the number of rectangular features that can distinguish the face and non-face image sets to hundreds or thousands. Weak classifier that extracts valid rectangular features from a set of 180,000 levels of rectangular features and allows each rectangular feature to make one decision.
Figure 112006041316982-PAT00004
Can be configured. That is, one rectangular feature constitutes one weak classifier. Equation 1 is the input image vector
Figure 112006041316982-PAT00005
Each rectangular feature value for
Figure 112006041316982-PAT00006
And threshold
Figure 112006041316982-PAT00007
We show a weak classifier that simply classifies through comparison. At this time, to determine the direction of inequality sign
Figure 112006041316982-PAT00008
Is multiplied.
Figure 112006041316982-PAT00009
silver
Figure 112006041316982-PAT00010
Has a value.

Figure 112006041316982-PAT00011
Figure 112006041316982-PAT00011

간단한 형태의 결정을 하는 약분류기의 출력값은 1 또는 0이다. 1은 입력 영상

Figure 112006041316982-PAT00012
가 얼굴일 경우이고, 0은 얼굴이 아닐 경우이다. 이러한 약분류기 들은 그 분류 성능이 부정확하므로 여러 가지 약분류기들의 결정을 종합하여 최종 결정을 하는 강분류기(strong classifier)를 AdaBoost 방법에 의해서 수학식2 와 같이 얻을 수 있다.The weak classifier output with a simple form of decision is 1 or 0. 1 is input video
Figure 112006041316982-PAT00012
Is a face and 0 is not a face. Since the classifiers are inaccurate in their classification performance, a strong classifier that combines the decisions of various classifiers and makes a final decision can be obtained by Equation 2 by AdaBoost method.

Figure 112006041316982-PAT00013
Figure 112006041316982-PAT00013

출력값

Figure 112006041316982-PAT00014
는 강분류기를 구성하는 T개의 약분류기 각각의 출력값에 가중치
Figure 112006041316982-PAT00015
가 곱해진 형태이다. Output value
Figure 112006041316982-PAT00014
Is weighted to the output values of each of the T weak classifiers constituting the strong classifier.
Figure 112006041316982-PAT00015
Is multiplied.

AdaBoost 학습은 사각형 형태의 특징들(도 2) 중에서 유용한 특징들을 하나씩 순차적으로 선택하여 여러 개의 약분류기들로 구성된 집합을 얻고 선택된 약분류기의 결정을 종합하여 강분류기(수학식 2)를 구성해 준다. 준비된 학습 데이터로부터 AdaBoost 학습 방법의 동작은 다음과 같은 절차를 따른다.AdaBoost learning obtains a set consisting of several classifiers by sequentially selecting the useful features one by one from the rectangular features (Fig. 2), and constructs the strong classifier (Equation 2) by combining the decisions of the selected classifiers. . The operation of the AdaBoost learning method from the prepared training data follows the following procedure.

첫째,

Figure 112006041316982-PAT00016
개의 얼굴 영상과
Figure 112006041316982-PAT00017
개의 얼굴이 아닌 영상의 두 가지 집합으로 구성된 학습 데이터를 설정한다. 전체 데이터의 개수는 K=a+b이다. 얼굴영상에 대해서는 레이블 값
Figure 112006041316982-PAT00018
를 1으로 설정하고 아닐 경우에는 0으로 설정한다.first,
Figure 112006041316982-PAT00016
Face images
Figure 112006041316982-PAT00017
Set training data consisting of two sets of images instead of two faces. The total number of data is K = a + b. Label value for face image
Figure 112006041316982-PAT00018
Is set to 1, otherwise it is set to 0.

Figure 112006041316982-PAT00019
Figure 112006041316982-PAT00019

둘째, 학습 데이터가 준비되면 각 영상에 대해서 수학식 4와 같이 가중치를 초기화 한다. Second, when the training data is prepared, the weights are initialized as in Equation 4 for each image.

Figure 112006041316982-PAT00020
Figure 112006041316982-PAT00020

셋째, 구하려는 전체 약분류기의 갯수 T만큼 AdaBoost 학습을 진행한다. Third, AdaBoost learning is conducted by the number T of all the weak classifiers.

t=1,…T 동안 아래 a~d 를 반복한다.t = 1,… Repeat steps a through d for T.

a. 수학식 5와 같이 가중치를 정규화한다. a. The weight is normalized as shown in Equation 5.

Figure 112006041316982-PAT00021
Figure 112006041316982-PAT00021

b. 모든 특징에 대해서 수학식 6과 같이

Figure 112006041316982-PAT00022
를 구한다. b. For all features, as shown in equation (6)
Figure 112006041316982-PAT00022
Obtain

Figure 112006041316982-PAT00023
Figure 112006041316982-PAT00023

c.

Figure 112006041316982-PAT00024
가 최소가 되는
Figure 112006041316982-PAT00025
,
Figure 112006041316982-PAT00026
를 선택한다. c.
Figure 112006041316982-PAT00024
Is the minimum
Figure 112006041316982-PAT00025
,
Figure 112006041316982-PAT00026
Select.

d. 수학식 7과같이 가중치를 갱신한다.d. The weight is updated as shown in equation (7).

Figure 112006041316982-PAT00027
Figure 112006041316982-PAT00027

여기서,

Figure 112006041316982-PAT00028
이고,
Figure 112006041316982-PAT00029
이다.here,
Figure 112006041316982-PAT00028
ego,
Figure 112006041316982-PAT00029
to be.

넷째, T번 반복 후 최종적으로 강분류기를 결정한다. Fourth, after the T iterations, the strong classifier is finally determined.

Figure 112006041316982-PAT00030
Figure 112006041316982-PAT00030

Figure 112006041316982-PAT00031
Figure 112006041316982-PAT00031

수학식 8은 수학식 2와 같으며 이때 판별을 위한 문턱값인 TH를 조정하여 검출률과 오검출률을 변화시킬 수 있다. 일반적으로 검출기를 구성할 때는 원하는 검 출률과 오검출률을 선정하여 설정된 검출률 이상, 설정된 오검출률 이하를 만족하도록 적당한 TH 를 찾게 된다. 만약 TH를 찾을 수 없다면 약분류기 개수를 하나 증가시키고 원하는 검출률과 오검출률을 만족할 때까지 AdaBoost 학습을 진행한다. Equation 8 is the same as Equation 2, and in this case, the detection rate and the false detection rate may be changed by adjusting TH, which is a threshold value for discrimination. In general, when constructing a detector, a desired detection rate and a false detection rate are selected to find a suitable TH so as to satisfy a predetermined detection rate or more and a predetermined error detection rate or less. If no TH can be found, increase the number of weak classifiers and proceed with learning AdaBoost until the desired detection rate and false detection rate are met.

이 처럼 T개의 약분류기 결정을 종합하여 최종 결정을 내리게 되면 높은 검출률과 낮은 오검출을 만족하는 분류기를 설계할 수 있다. 이때 하나의 강분류기는 사전에 준비된 학습데이터에서 원하는 검출률과 오검출률을 만족할 때 까지 약분류기의 개수가 하나씩 증가되면서 학습이 이루어진다. 사각형 특징 집합이라 함은, 사각형 특징과 그에 해당하는 가중치

Figure 112006041316982-PAT00032
와 강분류기를 위한 문턱값 TH정보를 모두 포함하는 것을 말한다.In this way, if the final decision is made by combining T weak classifier decisions, a classifier that satisfies high detection rate and low false detection can be designed. At this time, one strong classifier learns by increasing the number of weak classifiers one by one until it satisfies a desired detection rate and a false detection rate in previously prepared training data. Rectangle feature set means the rectangle feature and its weight
Figure 112006041316982-PAT00032
And the threshold TH information for the classifier.

AdaBoost 방법에 의해서 선택된 사각형 특징 집합에 대해서 진화 알고리즘을 적용하여 원하는 검출률과 오검출률을 만족하면서 더 적은 개수의 사각형 특징 집합을 찾아내어 이를 최종 사각형 특징 집합으로 저장한다. The evolutionary algorithm is applied to the rectangular feature set selected by the AdaBoost method to find a smaller number of rectangular feature sets while satisfying the desired detection rate and false detection rate and store them as the final rectangular feature set.

이미 AdaBoost 방법에 의해서 찾아진 사각형 특징들의 집합(약분류기들의 집합)은 원하는 검출률과 오검출률을 만족하지만 더 적은 개수의 사각형 특징 집합을 찾기 위해서 진화 알고리즘이 이용된다. 진화 알고리즘은 확률적인 최적화 방법의 일종으로 여러 가지 최적화 문제에서 우수한 성능이 입증되었다. 탐색 범위가 넓고 지역적 최적해(local optimal)이 존재하는 경우에도 잘 동작하는 장점이 있다. 최적화의 대상은 수학식 2에서의

Figure 112006041316982-PAT00033
이다. 즉
Figure 112006041316982-PAT00034
를 진화 알고리즘에서 사용하는 개체로 인코딩한다. 인코딩을 하는 것은 0과 1을 이용하여 2진수로 표현하는 방법을 사용하거나 실수 형태로 표현할 수 있다. 하나의 개체는 도 5와 같이
Figure 112006041316982-PAT00035
들로 구성되어 있는데 이러한 개체들이 1개 이상 모여서 개체들의 집단
Figure 112006041316982-PAT00036
를 구성한다. 여러 가지 다양한
Figure 112006041316982-PAT00037
들의 조합으로 구성된 개체들이 모여 있기 때문에 이중에는 우수한 개체가 있는 반면 그렇지 못한 개체들도 있다. 진화 알고리즘을 이용하여
Figure 112006041316982-PAT00038
를 재구성하는 방법은 도 6과 같다. The set of rectangular features (a set of weak classifiers) already found by the AdaBoost method satisfies the desired detection rate and false detection rate, but an evolutionary algorithm is used to find a smaller number of rectangular feature sets. Evolutionary algorithms are a probabilistic optimization method that has been proven to perform well in many optimization problems. It has the advantage that it works well even when the search range is wide and local optimal exists. The object of optimization is
Figure 112006041316982-PAT00033
to be. In other words
Figure 112006041316982-PAT00034
Is encoded into the object used by the evolutionary algorithm. The encoding can be expressed in binary form using 0 and 1 or in real form. One object is as shown in FIG.
Figure 112006041316982-PAT00035
Consisting of one or more of these entities
Figure 112006041316982-PAT00036
Configure Various
Figure 112006041316982-PAT00037
Because of the grouping of individuals, some of them are superior, while others are not. Using evolutionary algorithms
Figure 112006041316982-PAT00038
The method of reconstructing is as shown in FIG.

진화 알고리즘은

Figure 112006041316982-PAT00039
를 재구성하여 원하는 검출률과 오검출률을 만족하면서 더 높은 검출률과 더 낮은 오검출률을 얻을 수 있도록 동작한다. 진화 알고리즘에서는 매 세대마다 우수한 평가를 받은 개체들이 살아 남아가기 때문에 세대가 진행될수록 우수한 해를 찾을 가능성이 높아진다. 이를 위해서는 적절한 평가 척도를 설정해야 한다. 평가는 학습 데이터에 적용하여 검출률과 오검출률을 얻은 다음 이 두 가지 값의 조합으로써 평가 함수값을 얻을 수 있다. 어떠한 형태로 평가 함수를 구성하더라도, 평가 함수의 값이 검출률이 높을수록 오검출률이 낮을수록 높은 값을 가지도록 설정하고 진화 알고리즘은 평가 함수를 최대화 하는 방향으로 동작시킨다면 무방하다. 즉, 평가 함수의 값이 클수록 우수한 개체로 평가하는 것이다. 혹은 검출률이 높을수록 오검출률이 낮을수록 평가 함수값이 더 낮은 값을 가지도록 설정하고 진화 알고리즘은 평가 함수를 최소화 하도록 동작시켜도 같은 효과를 볼 수 있다. 좋은 평가를 받은 우수한 개체들은 낮은 평가를 받은 개체들보다 높은 확률로 자식을 형성하는데, 즉 P(t-1)로부터
Figure 112006041316982-PAT00040
를 생성한다. 새로 생성된 개체들에 크로스 오버, 돌연변이 등의 일반적인 진화 알고리즘에서 사용하는 여러 가지 변형 테크닉을 적용하여 다양한 탐색을 수행한다.Evolutionary algorithm
Figure 112006041316982-PAT00039
By reconstructing, it operates to obtain higher detection rate and lower false detection rate while satisfying the desired detection rate and false detection rate. In evolutionary algorithms, the most well-established individuals survive every generation, so the chances of finding a better solution increase as generation progresses. To this end, appropriate evaluation measures should be established. The evaluation is applied to the training data to obtain a detection rate and a false detection rate, and then a combination of the two values can be used to obtain an evaluation function value. Whatever the evaluation function is, the value of the evaluation function should be set to have a higher value as the detection rate is higher and the false detection rate is lower, and the evolution algorithm may operate in the direction of maximizing the evaluation function. In other words, the larger the value of the evaluation function, the better the individual. Alternatively, the higher the detection rate, the lower the false detection rate, the lower the evaluation function value, and the evolutionary algorithm can be operated to minimize the evaluation function. Good individuals with good evaluation have a higher probability of forming offspring than low rated individuals, ie from P (t-1).
Figure 112006041316982-PAT00040
Create The newly created entities are subjected to various exploration techniques by applying various transformation techniques used in general evolutionary algorithms such as crossovers and mutations.

이렇게 진화가 진행되면서 원하는 조건(검출률과 오검출률)을 만족하게 되면 해를 분석하여 가장 작은

Figure 112006041316982-PAT00041
를 제거하고 다시 원하는 조건을 만족하는 해를 찾는다. As evolution progresses, if the desired conditions (detection rate and false detection rate) are satisfied, the solution is analyzed and the smallest
Figure 112006041316982-PAT00041
Remove it and again find the solution that satisfies the desired condition.

가장 작은 값을 가지는

Figure 112006041316982-PAT00042
가 사라졌기 때문에 개체의 길이는 하나 줄어들게 되고 하나 줄어든 길이의 개체들 집단
Figure 112006041316982-PAT00043
을 구성하고 다시 진화 알고리즘을 적용한다. 이러한 작업을 반복함으로써
Figure 112006041316982-PAT00044
개보다 적은 수의 약분류기 집합을 찾아낼 수 있다. 또한 더 적은 수의 약분류기 집합을 찾을 수 없을 경우에도 AdaBoost 방법에서 얻어진 약분류기 집합이 가지는 검출률과 오검출률 보다 더 높은 검출률과 더 낮은 오검출률을 얻을 수 있는
Figure 112006041316982-PAT00045
집합을 구할 수 있다. With the smallest value
Figure 112006041316982-PAT00042
Disappears, the length of the object is reduced by one,
Figure 112006041316982-PAT00043
Construct and apply evolutionary algorithms again. By repeating this operation
Figure 112006041316982-PAT00044
You can find fewer classifier sets. In addition, even if a smaller set of weak classifiers cannot be found, higher detection rates and lower false detection rates can be obtained than those of the classifier sets obtained by the AdaBoost method.
Figure 112006041316982-PAT00045
You can get a set.

사각형 특징의 개수는 곧바로 연산 시간과 비례하기 때문에 더 적은 개수의 사각형 특징으로 이루어진 집합은 빠른 연산 시간을 보장한다. 또한 같은 개수의 약분류기 집합을 사용하더라도 진화 알고리즘을 적용하여 AdaBoost 방법에서 찾은

Figure 112006041316982-PAT00046
집합보다 더 높은 검출률과 더 낮은 오검출률을 만족하는
Figure 112006041316982-PAT00047
집합을 얻게 되면 이는 더 빠른 연산 시간을 가능하게 한다.Since the number of rectangular features is directly proportional to the computation time, a set of fewer rectangular features ensures faster computation time. In addition, even if the same number of weak classifier sets are used, the evolutionary algorithm is applied to find the AdaBoost method.
Figure 112006041316982-PAT00046
Satisfying higher detection rate and lower false detection rate than aggregation
Figure 112006041316982-PAT00047
Once you have the set, this allows for faster computation time.

일련의 학습 과정은 도 3과 같이 수행된다. 기존의 AdaBoost 방법에 의해서 얻어진 사각형 특징 집합(300)보다 진화 알고리즘을 이용하여 찾아낸 사각형 특징 집합(400)이 약 60%정도의 적은 개수의 사각형 특징으로 구성됨을 실험적으로 확인하였다. The series of learning processes is performed as shown in FIG. 3. Experimentally confirmed that the rectangular feature set 400 found using the evolutionary algorithm is composed of a smaller number of rectangular features of about 60% than the rectangular feature set 300 obtained by the conventional AdaBoost method.

최종적으로 얻어진 사각형 특징들을 사용하여 수학식2와 같이 강분류기를 구성하고 이러한 강분류기를 다시 여러 단(stage)으로 연결하여 효율적인 검출기를 구성한다. 도 4와 같이 하나의 단분류기(stage classifier)를 학습하기 위해서 도 3의 과정이 필요하고 다음 단의 학습을 위해서는 새로운 학습데이터를 구성하여 도 3의 과정을 반복한다. 이러한 과정을 반복하여 여러 단으로 이루어진 검출기를 구현한다. 또한 앞 단의 강분류기 전체가 뒤쪽 단에서 하나의 약분류기처럼 사용되는 구조를 통하여 연산 효율을 높인다. 각 단에서 분류기가 얼굴이라고 판단하면 다음 단 연산을 수행하고, 얼굴이 아니라고 판단하면 현재의 입력 윈도우를 버리고 다음 입력 윈도우에 대해서 분류를 수행하는 구조이다. Using the finally obtained rectangular features to construct a strong classifier as shown in Equation 2, and to connect the strong classifier in several stages (stage) to construct an efficient detector. As shown in FIG. 4, the process of FIG. 3 is required to learn one stage classifier, and for the next stage of learning, new process data is constructed to repeat the process of FIG. 3. This process is repeated to implement a multistage detector. In addition, the overall efficiency of the classifier is increased through the structure in which the whole classifier in the front stage is used as one weak classifier in the rear stage. If each stage determines that the classifier is a face, the next stage operation is performed. If it is not a face, the classifier discards the current input window and performs classification on the next input window.

각 단의 분류기를 학습하기 위해서는 원하는 검출률과 오검출률을 선정해야 한다. 주로 검출률은 0.9~1(90%~100%) 정도를 선택하고, 오검출률은 0.05~0.5 정도를 선택할 수 있다. 이 값들은 최종적으로 여러 단으로 구성된 검출기의 검출률과 오검출률을 결정한다. 예로 매 단이 0.999의 검출률과 0.4의 오검출률을 만족하도록 구성된 총 10단의 검출기의 경우 최종적으로 검출률

Figure 112006041316982-PAT00048
, 오검출률
Figure 112006041316982-PAT00049
를 기대할 수 있다.In order to learn the classifier of each stage, the desired detection rate and false detection rate should be selected. Mainly, the detection rate can be selected from about 0.9 to 1 (90% to 100%), and the false detection rate can be selected from about 0.05 to 0.5. These values ultimately determine the detection rate and false detection rate of a multi-stage detector. For example, a total of 10 detectors configured such that each stage satisfies a detection rate of 0.999 and a false detection rate of 0.4 may finally be detected.
Figure 112006041316982-PAT00048
, False detection rate
Figure 112006041316982-PAT00049
You can expect.

이와 같은 방법으로 얼굴 영역을 검출하고 그 검출 결과를 바탕으로 다시 얼굴 특징 요소들을 검출 한다. 눈, 코, 입 등과 같은 얼굴 요소들을 검출하기 위해서 학습 데이터만 눈, 코, 입 등의 해당 영상으로 대체를 한 다음 도 3의 학습 방법을 동일하게 적용한다. 그 후 도 4의 여러 단으로 이루어진 검출기를 구성하여 얼굴 특징 검출을 수행한다.In this way, the facial region is detected and face feature elements are detected again based on the detection result. In order to detect facial elements such as eyes, nose, and mouth, only the training data is replaced with a corresponding image such as eyes, nose, mouth, and the like, and then the learning method of FIG. Thereafter, a multi-stage detector of FIG. 4 is configured to perform facial feature detection.

본 발명으로 인하여 영상 획득 장치와 연산 장치의 제약에 자유롭게 빠르고 강인한 얼굴 검출과 얼굴 특징을 검출할 수 있다. 효율적인 연산이 가능하여 데스크탑 뿐만 아니라 휴대폰과 같은 연산 능력이 제한된 시스템에서도 얼굴 검출과 얼굴 특징 검출이 가능하다. 본 발명을 이용하여 얼굴 인식 시스템, 사람과 로봇의 상호 작용, 보안 및 감시 시스템의 효과적인 구현이 가능할 것이다.According to the present invention, face detection and facial features that are fast and robust can be detected freely under the constraints of the image capturing device and the computing device. Efficient computation enables face detection and facial feature detection not only on the desktop but also on systems with limited computing power, such as mobile phones. The present invention will enable effective implementation of facial recognition systems, human-robot interaction, security and surveillance systems.

Claims (14)

동영상이나 정지 영상 정보로부터 사람의 얼굴 영역을 검출하는 방법에 있어서,In the method for detecting a face area of a human from moving image or still image information, 동영상이나 정지 영상 정보로부터 사각형 특징 샘플을 이용하여 사각형 특징을 추출하는 제 1단계와,A first step of extracting a rectangular feature using a rectangular feature sample from the video or still image information; 상기 추출된 사각형 특징에서 AdaBoost 방법을 이용하여 사각형 특징 집합을 만드는 제 2단계와,A second step of creating a rectangular feature set using the AdaBoost method from the extracted rectangular features; 상기 2단계후의 사각형 특징 집합을 진화 알고리즘을 이용하여 사각형 특징 집합의 가중치를 재구성하는 방법을 이용하여 줄어든 개수의 사각형 특징 집합을 만드는 제 3단계를 포함하는 진화 알고리즘을 이용한 얼굴 검출 방법.And a third step of creating a reduced number of rectangular feature sets by using a method of reconstructing the weights of the rectangular feature sets by using the evolutionary algorithm of the rectangular feature sets after the second step. 청구항 1에 있어서, The method according to claim 1, 상기 제 3단계의 사각형 특징 집합을 이용하여 얼굴을 검출하거나 얼굴 특징 요소를 검출하는 것을 특징으로 하는 진화 알고리즘을 이용한 얼굴 검출 방법.A face detection method using an evolutionary algorithm, characterized in that a face is detected or a face feature element is detected using the rectangular feature set of the third step. 청구항 2에 있어서,The method according to claim 2, 상기 얼굴 검출은 정면 얼굴, 좌측면 얼굴, 우측면 얼굴로 학습영상을 구성하여 여러 각도의 얼굴을 검출하는 것을 특징으로 하는 진화 알고리즘을 이용한 얼굴 검출 방법. The face detection is a face detection method using an evolutionary algorithm, characterized in that for detecting the face of a plurality of angles by forming a learning image of the front face, the left face, the right face. 청구항 2에 있어서, The method according to claim 2, 상기 얼굴 검출을 위해서 청구항 1의 제 1, 2, 3단계 학습 결과를 여러 단으로 배열한 것을 특징으로 하는 진화 알고리즘을 이용한 얼굴 검출 방법.Face detection method using an evolutionary algorithm, characterized in that the first, second, third step learning results of claim 1 arranged in multiple stages for the face detection. 청구항 1에 있어서, The method according to claim 1, 상기 진화 알고리즘을 이용하여 검출률 90%~100%와 오검출률 0.05%~0.5%을 만족하는 약분류기로 이루어진 사각형 특징 집합을 얻어내는 것을 특징으로하는 진화 알고리즘을 이용한 얼굴 검출 방법.And a rectangular feature set comprising weak classifiers satisfying a detection rate of 90% to 100% and a false detection rate of 0.05% to 0.5% using the evolutionary algorithm. 청구항 2에 있어서, The method according to claim 2, 상기 얼굴 특징 요소인 눈, 코, 입들로 학습 영상을 구성하여 검출된 얼굴 영역 안에서 각 특징들을 검출하는 것을 특징으로 하는 진화 알고리즘을 이용한 얼굴 검출 방법.A face detection method using an evolutionary algorithm, characterized by detecting each feature in a detected face region by constructing a learning image using the face feature elements of eyes, nose, and mouth. 청구항 2에 있어서, The method according to claim 2, 상기 얼굴 특징 요소 검출을 위해서 청구항 1의 제 1, 2, 3단계 학습 결과를 여러 단으로 배열한 것을 특징으로 하는 진화 알고리즘을 이용한 얼굴 검출 방법.The face detection method using the evolutionary algorithm, characterized in that the first, second, third stage learning results of claim 1 arranged in multiple stages for detecting the facial feature elements. 동영상이나 정지 영상 정보로부터 사람의 얼굴 영역을 검출하는 방법에 있어 서,In the method of detecting a human face area from moving picture or still image information, 동영상이나 정지 영상 정보로부터 사각형 특징 샘플을 이용하여 사각형 특징을 추출하는 제 1단계와,A first step of extracting a rectangular feature using a rectangular feature sample from the video or still image information; 상기 1단계 사각형 특징에서 진화 알고리즘을 이용하여 사각형 특징 집합의 가중치를 재구성하는 방법을 이용하여 사각형 특징 집합을 만드는 제 2단계를 포함하는 진화 알고리즘을 이용한 얼굴 검출 방법.And a second step of creating a rectangular feature set by using a method of reconstructing weights of the rectangular feature set by using an evolution algorithm in the first step rectangular feature. 청구항 8에 있어서, The method according to claim 8, 상기 2단계의 사각형 특징집합을 이용하여 얼굴을 검출하거나 얼굴 특징 요소를 검출하는 것을 특징으로 하는 진화 알고리즘을 이용한 얼굴 검출 방법.The face detection method using the evolutionary algorithm, characterized in that for detecting the face or the facial feature element using the rectangular feature set of the two steps. 청구항 8에 있어서,The method according to claim 8, 상기 얼굴 검출은 정면 얼굴, 좌측면 얼굴, 우측면 얼굴로 학습영상을 구성하여 여러 각도의 얼굴을 검출하는 것을 특징으로 하는 진화 알고리즘을 이용한 얼굴 검출 방법. The face detection is a face detection method using an evolutionary algorithm, characterized in that for detecting the face of a plurality of angles by forming a learning image of the front face, the left face, the right face. 청구항 9에 있어서, The method according to claim 9, 상기 얼굴 검출을 위해서 청구항 1의 제 1, 2단계 학습 결과를 여러 단으로 배열한 것을 특징으로 하는 진화 알고리즘을 이용한 얼굴 검출 방법.Face detection method using an evolutionary algorithm, characterized in that the first and second stage learning results of claim 1 arranged in multiple stages for the face detection. 청구항 8에 있어서, The method according to claim 8, 상기 진화 알고리즘을 이용하여 검출률 90%~100%와 오검출률 0.05%~0.5%을 만족하는 약분류기로 이루어진 사각형 특징 집합을 얻어내는 것을 특징으로하는 진화 알고리즘을 이용한 얼굴 검출 방법.And a rectangular feature set comprising weak classifiers satisfying a detection rate of 90% to 100% and a false detection rate of 0.05% to 0.5% using the evolutionary algorithm. 청구항 9에 있어서, The method according to claim 9, 상기 얼굴 특징 요소인 눈, 코, 입들로 학습 영상을 구성하여 검출된 얼굴 영역 안에서 각 특징들을 검출하는 것을 특징으로 하는 진화 알고리즘을 이용한 얼굴 검출 방법.A face detection method using an evolutionary algorithm, characterized by detecting each feature in a detected face region by constructing a learning image using the face feature elements of eyes, nose, and mouth. 청구항 9에 있어서, The method according to claim 9, 상기 얼굴 특징 요소 검출을 위해서 청구항 1의 제 1, 2단계 학습 결과를 여러 단으로 배열한 것을 특징으로 하는 진화 알고리즘을 이용한 얼굴 검출 방법.A face detection method using an evolutionary algorithm, characterized in that the first and second stage learning results of claim 1 are arranged in multiple stages to detect the facial feature elements.
KR1020060053031A 2006-06-13 2006-06-13 Face and facial feature detection method using evolutionary algorithms KR100815242B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060053031A KR100815242B1 (en) 2006-06-13 2006-06-13 Face and facial feature detection method using evolutionary algorithms

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060053031A KR100815242B1 (en) 2006-06-13 2006-06-13 Face and facial feature detection method using evolutionary algorithms

Publications (2)

Publication Number Publication Date
KR20070118830A true KR20070118830A (en) 2007-12-18
KR100815242B1 KR100815242B1 (en) 2008-03-19

Family

ID=39137360

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060053031A KR100815242B1 (en) 2006-06-13 2006-06-13 Face and facial feature detection method using evolutionary algorithms

Country Status (1)

Country Link
KR (1) KR100815242B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11416763B2 (en) 2015-08-21 2022-08-16 Samsung Electronics Co., Ltd. Method of training classifier and detecting object

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000306095A (en) 1999-04-16 2000-11-02 Fujitsu Ltd Image collation/retrieval system
US6480627B1 (en) 1999-06-29 2002-11-12 Koninklijke Philips Electronics N.V. Image classification using evolved parameters
US7247313B2 (en) * 2001-06-27 2007-07-24 Advanced Cardiovascular Systems, Inc. Polyacrylates coatings for implantable medical devices

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11416763B2 (en) 2015-08-21 2022-08-16 Samsung Electronics Co., Ltd. Method of training classifier and detecting object

Also Published As

Publication number Publication date
KR100815242B1 (en) 2008-03-19

Similar Documents

Publication Publication Date Title
Fu et al. Fast crowd density estimation with convolutional neural networks
CN110139597B (en) System and method for iterative classification using neurophysiological signals
Sun et al. Gender classification based on boosting local binary pattern
Sebe et al. Skin detection: A bayesian network approach
KR101410489B1 (en) Face detection and method and apparatus
WO2018052587A1 (en) Method and system for cell image segmentation using multi-stage convolutional neural networks
KR101983684B1 (en) A People Counting Method on Embedded Platform by using Convolutional Neural Network
Xu et al. Unusual event detection in crowded scenes using bag of LBPs in spatio-temporal patches
Chhoriya Automated criminal identification system using face detection and recognition
Ge et al. Deep variation transformation network for foreground detection
CN110688966A (en) Semantic-guided pedestrian re-identification method
KR102036182B1 (en) Method and system for detection of pedestrian crossing using a method of light weighted random forest classification by a soft target learning method
D RAJ et al. British sign language recognition using HOG
KR101515308B1 (en) Apparatus for face pose estimation and method thereof
Adeyanju et al. Development of an american sign language recognition system using canny edge and histogram of oriented gradient
KR100815242B1 (en) Face and facial feature detection method using evolutionary algorithms
Ramzan et al. Automatic Unusual Activities Recognition Using Deep Learning in Academia.
Gad et al. Crowd density estimation using multiple features categories and multiple regression models
eddine Agab et al. Dynamic hand gesture recognition based on textural features
Vidal-Calleja et al. Integrated probabilistic generative model for detecting smoke on visual images
Yuan et al. An efficient attention based image adversarial attack algorithm with differential evolution on realistic high-resolution image
Suma Dense feature based face recognition from surveillance video using convolutional neural network
Mahto et al. Effectual Approach for Facial Expression Recognition System
Deshpande et al. Abnormal Activity Recognition with Residual Attention-based ConvLSTM Architecture for Video Surveillance.
Mancas et al. Visual attention: Deep rare features

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]
FPAY Annual fee payment

Payment date: 20120228

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee